Refine
Year of publication
Document Type
- Doctoral Thesis (5597) (remove)
Language
- German (3559)
- English (2009)
- French (9)
- Latin (5)
- Spanish (5)
- Portuguese (4)
- Italian (3)
- Multiple languages (2)
- mis (1)
Has Fulltext
- yes (5597)
Is part of the Bibliography
- no (5597)
Keywords
- Deutschland (15)
- Gentherapie (14)
- HIV (13)
- Apoptosis (12)
- Membranproteine (12)
- NMR-Spektroskopie (11)
- RNA (11)
- RNS (10)
- Nanopartikel (9)
- Proteomics (9)
Institute
- Medizin (1473)
- Biowissenschaften (814)
- Biochemie und Chemie (723)
- Physik (581)
- Pharmazie (329)
- Biochemie, Chemie und Pharmazie (287)
- Geowissenschaften (138)
- Neuere Philologien (114)
- Gesellschaftswissenschaften (110)
- Psychologie (97)
Kurz nachdem Jean Paul im Jahr 1796 den letzten Teil des Romanmanuskripts Blumen-, Frucht- und Dornenstücke oder Ehestand, Tod und Hochzeit des Armenadvokaten F. St. Siebenkäs an seinen Verleger abgeschickt hatte, brach er in die damalige Kulturhauptstadt Weimar auf. Dort traf er zum ersten Mal den von ihm mit Distanz bewunderten Goethe. Während dieser Besuch von Goethe selbst unkommentiert blieb, fand eine aus dem gleichen Jahr stammende Äußerung Jean Pauls eine um so größere Resonanz bei dem um sein Image besorgten Dichterfürsten. ...
In Publikationen zur Frauenliteratur der Weimarer Zeit finden sich, direkt oder mittelbar formuliert, zwei Thesen: Dass zum einen die politisch engagierte Frau in den Romanen eine selten anzutreffende Figur sei und dass zum anderen die Schriftstellerinnen jener Zeit sich politisch eher rückwärtsgewandt verhalten und geäußert hätten. In einer differenzierten Untersuchung wird mit einer Fülle von Beispielen belegt, dass tatsächlich aber vom Ersten Weltkrieg bis zum Ende der Republik zahlreiche Schriftstellerinnen die politischen Vorkommnisse beobachteten, direkt kommentierten oder literarisch ausgestalteten. Den Begriff „rückwärts gewandt“ problematisierend wird erläutert, dass diese Einstufung weder ohne weiteres bestätigt noch verneint werden kann, da Wertbegriffe wie „fortschrittlich“ oder „reaktionär“ nicht eindeutig und zweifelsfrei definiert werden können.
Canada’s geographic centre lies in the Territory Nunavut. From here the distance to the geographic North Pole is as far as to the US border. Nunavut takes up about 1/5 of the Canadian land mass but has by far the smallest population with currently about 38,000 residents. 85% of its population are Inuit whose culture dramatically changed within the last 70 years.
As a result, the territory is dealing with several generations of Inuit that are traumatized or at least severely affected by cultural and economic changes that started after World War 2 with the resettlement from the land into permanent communities. No matter if we are talking about the actual elders, mid-age adults or pre-teenagers, each of this generation experienced and still experiences various personal and cultural challenges of identity, financial and housing insecurity, food insecurity, substance abuse education, change of social values ranging from inter-generational and gender relationships to the introduction of a foreign political and legal system.
On the other side, a lot of the traditional societal values are still being practiced in Inuit families. Despite all the tragedies that several generations of Inuit have experienced by now, the society keeps generating the strength and cultural pride that allows many Inuit both, as individuals and as a collective under the umbrella of either Inuit Land Claims or not for profit organizations to advocate on behalf of Inuit culture, to fight for more acknowledgement of Inuit culture and to enhance pride in the historic and present day cultural achievements of Nunavut’s indigenous population.
The social issues, inter- and intra-cultural processes described in my thesis are not exclusive to the situation in Nunavut or to Inuit. Studies from other regions, in Canada or from around the world (LaPrairie 1987; Jensen 1986; Nunatsiaq News 6/30/2010) reveal similar challenges.
Though many structural similarities can be identified by comparing these studies with each other, e.g. marginalization of the indigenous local population, colonization, paternalism and resulting issues like personal and cultural identity loss, it is important to have a more in depth look into the single cases to determine which individual events and developments causes and maybe still cause such a devastating social situation as it is found among many indigenous peoples across the world. From my perspective effective improvements of the situation of a group, a respective community or region can only happen when particularities of socialization, communication and philosophy in the single cultural entities are being considered.
That is why my thesis will exclusively focus on developments in Nunavut and use various case studies of communities. The case studies shall help to identify local differences in historic and recent developments and thus provide starting points for explanations of different developments in different Nunavut communities.
The thesis is looking at both, historic and recent root causes for the many issues in Nunavut.
The data that my my thesis is based on are a combination of literature and about 60 formal and informal interviews that I conducted in three Nunavut communities (Iqaluit, Whale Cove, Kugluktuk) during my 18 months of field work between October 2008 and March 2010. Many more spontaneous unstructured conversations between me and community members added to the pool of first-hand information that I gathered.
Since my field work is limited to those three communities it has a very strong qualitative character. The quantitative side, which allows me to confidently apply my research analyses to entire Nunavut, comes from literature research as well as many informal conversations and a few formal interviews that I conducted with people who had some experience in other communities than Iqaluit, Kugluktuk and Whale Cove.
Furthermore, while I was living at the old residence of the Nunavut Arctic College in Iqaluit, I spend time with college students from across Nunavut. Through them, I obtained „case studies “from following communities: Iqaluit, Qikiqtarjuaq, Kimmirut, Pangnirtung, Clyde River, Pond Inlet, Igloolik, Repulse Bay, Cape Dorset, Chesterfield Inlet, Baker Lake, Rankin Inlet, Whale Cove, Arviat, Taloyoak, Kugluktuk.
My general categorization of “early contact period”, “contact”, “1st generation” and “2nd generation” is very similar to Damas’ terms of “early contact phase”, “contact – traditional”, “resettlement” that he uses to create a timeline that describes the major phases of impact for Inuit society (Damas 2002: 7, 17).
Chapters 2 is meant to provide an inventory of the key aspects of current social issues in Nunavut. In this context I am looking at the four major aspects that in my opinion shape Nunavut’s society:
1) violence and other forms of social dysfunctions
2) the associated services and delivering agencies that try to address those matters
3) Education
4) Inuit cultural particularities in communication and socialization
Those four areas are forming the foundation for the rest of my work. The following chapters will guide the reader through the historic transformation process of Inuit pre-colonial semi-nomadic society to a society that is living in permanent settlements, strongly influenced if not in many ways dominated by Euro-Canadian culture. Each of those chapters will be referring to the social and cultural changes that happened in the different time periods that I labeled with “Pre-settlement, First, Second, and Third Generation”. The relevance of violence and other social dysfunctions, their context and strategies how each generation dealt with those matters will be analyzed while I will be also referring to the impacts that non-Inuit, primarily Euro-Canadians and Euro-Americans had and have on Inuit society.
...
Chemokines play a key role in the cellular infiltration of inflamed tissue. They are released by a wide variety of cell types during the initial phase of host response to injury, allergens, antigens, or invading microorganisms, and selectively attract leukocytes to inflammatory foci, inducing both migration and activation. Monocyte chemoattractant protein-1 (MCP-1), a member of the CC chemokine superfamily, functions in attracting monocytes, T lymphocytes, and basophils to sites of inflammation. MCP-1 is produced by monocytes, fibroblasts, vascular endothelial cells and smooth muscle cells in response to various stimuli such as tumour necrosis factor-a (TNF-a), interferon-g (IFN-g), and interleukin-1b (IL-1b). It also plays an important role in the pathogenesis of chronic inflammation, and overexpression of MCP-1 has been implicated in diseases including glomerulonephritis and rheumatoid arthritis. Oligonucleotide-directed triple helix formation offers a means to target specific sequences in DNA and interfere with gene expression at the transcriptional level. Triple helix-forming oligonucleotides (TFOs) bind to homopurine/homopyrimidine sequences, forming a stable, sequence-specific complex with the duplex DNA. Purine-rich sequences are frequent in gene regulatory regions and TFOs directed to promoter sequences have been shown to prevent binding of transcription factors and inhibit transcription initiation and elongation. Exogenous TFOs that bind homopurine/ homopyrimidine DNA sequences and form triple-helices can be rationally designed, while the intracellular delivery of single-stranded RNA TFOs has not been studied in detail before. In this study, expression vectors were constructed which directed transcription of either a 19 nt triplex-forming pyrimidine CU-TFO sequence targeting the human MCP-1 or two different 19 nt GU- or CA-control sequences, respectively, together with the vector encoded hygromycin resistance mRNA as one fusion transcript. HEK 293 cells were stable transfected with these vectors and several TFO and control cell lines were generated. Functional relevant triplex formation of a TFO with a corresponding 19 bp GC-rich AP-1/SP-1 site of the human MCP-1 promoter was shown. Binding of synthetic 19 nt CUTFO to the MCP-1 promoter duplex was verified by triplex blotting at pH 6.7. Underlining binding specificity, control sequences, including the GU- and CA-sequence, a TFO containing one single mismatch and a MCP-1 promoter duplex containing two mismatches, did not participate in triplex formation. Establishing a magnetic capture technique with streptavidin microbeads it was verified that at pH 7.0 the 19 nt TFO embedded in a 1.1 kb fusion transcript binds to a plasmid encoded MCP-1 promoter target duplex three times stronger than the controls. Finally, cell culture experiments revealed 76 ± 10.2% inhibition of MCP-1 protein secretion in TNF-a stimulated CU-TFO harboring cell lines and up to 88% after TNF-a and IFN-g costimulation in comparison to controls. Expression of interleukin-8 (IL-8) as one TNF-a inducible control gene was not affected by CU-TFO, demonstrating both highly specific and effective chemokine gene repression. Furthermore, another chemokine target, regulated upon activation normal T cell expressed and secreted (RANTES), which plays an essential role in inflammation by recruiting T lymphocytes, macrophages and eosinophils to inflammatory sites, was analysed using the triplex approach. A 28 nt TFO was designed targeting the murine RANTES gene promoter, and gel mobility shift assays demonstrated that the phosphodiester TFO formed a sequencespecific triplex with the double-stranded target DNA with a Kd of 2.5 x 10-7 M. It was analysed whether RANTES expression could be inhibited at the transcriptional level testing the TFO in two different cell lines, T helper-1 lymphocytes and brain microvascular endothelial cells (bend3 cells). Although there was a sequence-specific binding of the TFO detectable in the gel shift assays, there was no inhibitory effect of the exogenously added and phosphorothioate stabilised TFO on endogenous RANTES gene expression visible. Additionally, the small interfering RNA (siRNA) approach was tested as another strategy to inhibit expression of the pro-inflammatory chemokines MCP-1 and RANTES. Two different methods were pursuit, describing transient transfection with vector derived and synthetic siRNA. The vector pSUPER containing the siRNA coding sequence was used to suppress endogenous MCP-1 in HEK 293 cells. An empty vector without RNA sequence served as a control. Inhibition due to the siRNA was measured in stimulated and unstimulated cells. In TNF-a stimulated cells MCP-1 protein synthesis was decreased by 35 ± 11% after siRNA transfection. Using a synthetic double-stranded siRNA, the TNF-a induced MCP-1 protein secretion could be successfully inhibited about 62.3 ± 10.3% in HEK 293 cells, indicating that the siRNA is functional in these cells to suppress chemokine expression. The siRNA approach targeting murine RANTES in Th1 cells and b-end3 cells revealed no inhibition of endogenous gene expression. Gene therapy approaches rely on efficient transfer of genes to the desired target cells. A wide variety of viral and nonviral vectors have been developed and evaluated for their efficiency of transduction, sustained expression of the transgene, and safety. Among them, lentiviruses have been widely used for gene therapy applications. In order to improve the delivery of TFOs or siRNAs into the target cells, cloning of the lentiviral transfer vector SEW, the production of lentiviral particles by transient transfection were performed with the aim to generate lentiviral vector-derived TFOs in further experiments. Here, Th1 cells were transduced with infectious lentiviral particles and transduction efficacy was measured. Transduction efficacy higher than 82% could be achieved using the lentiviral vector SEW, opening optimal possibilities for the TFO or siRNA approach.
Auf dem Weg zur multikulturellen Gesellschaft besteht Bedarf, die psychologischen Komponenten verschiedener Migrantengruppen zu erfassen. In Deutschland sind 83.598 Mitmenschen mit chinesischer Staatsbürgerschaft verzeichnet (StatBA, 2009). Werden die Eingebürgerten Übersee-Chinesen mit einbezogen, beläuft sich die Zahl an gesamtchinesischen Mitmenschen auf 135.000 (OCAC, 2009). Als einzige Anhaltspunkte über im Ausland lebende Chinesen dienen Studien aus dem angloamerikanischen Sprachraum. Menschen chinesischen Ursprungs mit westlichem Intellekt erhalten dort die Bezeichnung „Banane“, welche eine gelbe Hülle mit einem weißen Inneren illustriert. Die vorliegende Studie beschäftigt sich erstmalig mit den psychologischen Komponenten der in Deutschland lebenden chinesischen Mitbürger. Welchen Einfluss nimmt die Anpassung an das europäische Umfeld gekoppelt mit der chinesischen Internalisierung auf erinnertes elterliches Erziehungsverhalten, Persönlichkeitsstruktur, Erleben von Emotionen und Körpererleben? 154 chinesisch-stämmige Studierende aus ganz Deutschland wurden für verschiedene standardisierte psychometrische Testverfahren rekrutiert. Ein eigens konzipierter Fragebogen diente zur Messung der asiatischen und europäischen Identität. Wie vorherige Studien (Chao & Aque, 2009) aussagten, zeigten sich in der vorliegenden Stichprobe Züge des autoritativen Erziehungsstils. Im FEE (Fragebogen zum erinnertenelterlichen Erziehungsverhalten) (Schumacher, Eisemann, & Brähler, 1999) erhielten die Übersee-chinesischen Probanden neben einer höheren mütterlichen Strenge auch höhere Werte in der elterlichen Kontrolle und Überbehütung als die deutsche Normstichprobe. Je mehr mütterliche „Ablehnung und Strafe“ und elterliche „Kontrolle und Überbehütung“ die Probanden perzipierten, desto chinesischer sieht der heutige Lebensstil aus. Kongruent mit den Ergebnissen von McCrae et al. (1998) schnitten Übersee-Chinesen im NEO-FFI (Borkenau & Ostendorf, 1993) mit niedrigeren Werten in der Offenheit und höheren Werten in der Verträglichkeit ab. Anders als bei Eap et al. (2008) zeigten Chinesen in Deutschland höhere Werte in der Gewissenhaftigkeit und Extraversion. Diese hingegen korrelierten positiv mit der europäischen Identität. In der MSWS (Multidimensionale Selbstwertskala) (Schütz & Sellin, 2006) erzielten die Übersee-Chinesen einen niedrigeren allgemeinen Selbstwert als die deutsche Normgruppe. Außerdem empfanden die Übersee-Chinesen weniger eigene Selbstwertschätzung im sozialen Kontakt zu anderen, im Umgang mit Kritik und im leistungsbezogenen Bereich. Überraschenderweise erhielten die Probanden einen höheren Selbstwert in der Sportlichkeit. Die SEE (Skalen zu Erleben von Emotionen) (Behr & Becker, 2004) zeigten, dass die körperliche Symbolisierung von Gefühlen bei der chinesischen Stichprobe niedriger war als bei der deutschen Norm. Dies hing mit der Ausprägung der europäischen Identität zusammen. Negativ korrelierte die europäische Identität auch mit der Regulation von Emotionen. Im FBeK (Fragebogen zur Beurteilung des eigenen Körpers) (Strauß & Richter-Appelt,1995) ging das Körpererleben der Übersee-Chinesen mit weniger Selbstbewusstsein für die eigene Attraktivität einher. Je mehr die Lebensart zum Asiatischen tendierte, desto weniger äußerte sich die Akzentuierung des äußeren Erscheinungsbildes und desto höher erschien die Unsicherheit. Zusammenfassend weisen die Ergebnisse darauf hin, dass die Auslebung einer bikulturellen Identität Folgen für die psychologische Entwicklung eines Individuums mit sich bringen, welche beispielsweise für die Arbeit bei Patienten im psychotherapeutischen Prozess mit berücksichtigt werden sollten.
Ausgangspunkt dieser Dissertation ist die Frage: „Was ist fundamentaler als die Raum-Zeit?“ Nach Immanuel Kant sind aber Raum & Zeit als reine Formen der sinnlichen Anschauung „a priori“ aller Erfahrung und allen Denkens und konstituieren somit die „Bedingungen, unter denen Erfahrung erst möglich ist“. Im Jahre 1941 hat Konrad Lorenz diese Apriori biologisch interpretiert und damit das Konzept einer Evolutionären Erkenntnislehre formuliert. Deren Hauptthese lautet: „Unser Erkenntnis-Apparat ist ein Ergebnis der Evolution. Die Subjektiven Erkenntnisstrukturen passen auf die Welt, weil sie sich im Laufe der Evolution in Anpassung an eben diese reale Welt herausgebildet haben. Sie stimmen mit den realen Strukturen (teilweise) überein, weil nur eine solche Übereinstimmung das Überleben ermöglichte.“ Wendet man dies auf die Erfahrung von Raum & Zeit an, so gelangt man zur Kognitionswissenschaft von Raum & Zeit. Das Ergebnis der Analyse der Kognition von Raum & Zeit lässt sich wie folgt zusammenfassen. Im Kognitiven System des Menschen gibt es mehrere Informationsrepräsentationssysteme. Ein Sprachlichlogisches Repräsentationssystem, ein Nonverbales Repräsentationssystem zur Speicherung von Multimodalen Spatiotemporalen Informationen und ein Internes Repräsentationssystem zur Speicherung von Subjektiven Informationen über interne Körperzustände. Das Multimodal-Spatiotemporale Repräsentationssystem lässt sich dann weiter in Modalitätsspezifische Repräsentationssysteme für die einzelnen Sinnesmodalitäten und ein Amodales Repräsentationssystem für Spatiotemporale Information untergliedern. Letzteres ist weiter in Amodale Repräsentationssysteme für Reinräumliche Informationen, Spatiotemporale Informationen & Reinzeitliche Informationen untergliedert. Mit dem Reintemporalen Repräsentationssystem hat dieses Amodale Repräsentationssystem auch Anteil am Internen Körperrepräsentationssystem. Für die Kognition der Zahlen kommt nur noch ein Zahlenrepräsentationssystem für die Zahlen 1-3 als eigenständiges Repräsentationssystem hinzu. Alle anderen Zahlenrepräsentationen benutzen das Räumliche oder das Sprachlichlogische Repräsentationssystem. Alle diese Repräsentationssysteme sind das Ergebnis von Phylogenetischen, Ontogenetische & Psychogenetischen Entwicklungsprozessen. Aus diesen Erkenntnissen wird anschließend untersucht, naturphilosophische Konsequenzen für die Raum-Zeit-Physik ergeben. Insbesondere geht es um die Frage von Gerhard Vollmer, die lautet: „Nach der Evolutionären Erkenntnistheorie sind die subjektiven Strukturen des Erkenntnis-Apparates für die Erkenntnis konstitutiv. Gilt dies für alle Stufen des Erkenntnis-Prozesses?“ Das Ergebnis dieser Analyse ist, dass das Visuospatiotemporale Informationsrepräsentationssystem die Kognitive Basis der Physikalischen Theorien mit Klassischem Materiekonzept bildet, mit dessen Hilfe das Visuell-Nonverbale Sensomotorische System diese Theorien mit Hilfe von Kognitionsprozessen aus Interaktionen mit der Physikalischen Außenwelt konstruiert hat. Darüber hinaus beruhen diese Theorien auch auf dem Sprachlichlogischen Informationsrepräsentations-System als Kognitiver Basis und sind das Produkt von Kognitiven Math. Basisfähigkeiten, mit deren Hilfe sie ebenfalls aus Interaktionen mit der Physikalischen Außenwelt abgeleitet wurden. Dabei dominiert das Visuospatiotemporale Informationsrepräsentationssystem in der Kognitiven Basis gegenüber dem Sprachlichlogischen Informationsrepräsentationssystem eindeutig! Auch die Quantenmechanik hat diese beiden Informationsrepräsentationssysteme als Kognitive Basis. Allerdings dominiert hier das Sprachlichlogische Informationsrepräsentationssystem gegenüber dem Visuospatiotemporalen Informationsrepräsentationssystem! Da das Sprachlichlogische Informationsrepräsentationssystem aber ein Symbolisches Informationsrepräsentationssystem ist, bedarf es zu seiner Funktionsfähigkeit der Abbildung seiner Symbole auf Informationsstrukturen des Multimodalen Spatiotemporalen Informationsrepräsentationssystems, damit die mit seiner Hilfe repräsentierten Sprachlichlogischen Informationen überhaupt Teil des Informationellen Modells der Außenwelt des Kognitiven Systems sein können. Damit lässt sich die oben gestellte Frage wie folgt beantworten: Ja, diese Kognitiven Strukturen sind nicht nur für die Ebenen der Wahrnehmungs- & Erfahrungserkenntnis konstitutiv, sondern für alle Stufen des Erkenntnisprozesses. Das heißt: „Auch die Wissenschaftliche Erkenntnis ist biologisch/genetisch determiniert!“
"Ciaglia Blue Rhino Punktionstracheotomie" : perioperative Komplikationen und Langzeitergebnisse
(2009)
Im klinischen Alltag der Intensivstationen haben sich in den letzten Jahren verschiedene Verfahren der perkutanen Tracheotomie aufgrund ihrer einfachen Durchführbarkeit und dem geringen Komplikationsrisiko gegenüber dem chirurgischen Verfahren durchgesetzt. Die Blue Rhino Technik nach Ciaglia ist eine Methode, bei der zur Anlage des Tracheostomas nur ein einzelner Dilatationsschritt mittels eines, mit einer speziellen hydrophilen Beschichtung versehenen, gebogenen Dilatators notwendig ist. Die vorliegende Arbeit zeigt die Auswertung der Daten von 50 Patienten, die nach dieser Methode tracheotomiert wurden. Die Evaluation beinhaltet neben der Auswertung der peri- und postoperativen Komplikationen, die Ergebnisse einer telefonischen Befragung von 19 Patienten anhand eines standardisierten Fragebogens, hinsichtlich ihrer subjektiven Einschätzung bezüglich Veränderungen der Stimme, Luftnot, Schluckbeschwerden sowie dem kosmetischen Ergebnis des verschlossenen Tracheostomas. Die Ergebnisse wurden mit den in der Literatur vorhandenen Daten der verschiedenen perkutanen Verfahren verglichen, um potentielle Vorund Nachteile der Blue Rhino Technik zu eruieren. Es konnte gezeigt, dass bei der Blue Rhino Methode im Vergleich zu anderen Verfahren keine signifikant höhere perioperative Komplikationsrate auftrat. Die in verschiedenen Arbeitenbeschriebene Häufung an Trachealspangenfrakuren konnten auch wir in unserem Patientengut finden. Einen Beweis für die klinische Relevanz dieser Beobachtung wurde aber bisher in keiner Studie erbracht. Im Gegensatz dazu kann es als gesichert angesehen werden, dass ein höherer BMI ein Risikofaktor ist, der mit einer Erhöhung der perioperativen Komplikationsrate einhergeht. Auch in unserer Untersuchung traten die beiden einzigen schwerwiegenden Komplikationen bei Patienten mit einem BMI deutlich über 30 kg/m2 auf. Postoperative Komplikationen wie Blutungen oder Infektionen des Stomas konnten wir in unserem Patientenkollektiv nicht beobachten. Nach allgemeiner Studienlage treten diese Komplikationen bei den perkutanen Verfahren auch nur in Einzelfällen auf. Die bei der Befragung ein Jahr nach der Tracheotomie gefundenen Veränderungen der Stimme, Heiserkeit und das Vorliegen von Luftnot in verschiedenen Ausprägungen lassen sich bei den meisten Patienten auf ihre Vorerkrankungen zurückführen oder sind Ausdruck einer Schädigung der Stimmbänder durch die vorangegangene orotracheale Intubation. Nur bei 2 Patienten konnten wir eine Trachealstenose nicht sicher ausschließen. Einen schlüssigen Nachweis, dass eine Stenose bei Patienten nach Tracheotomie ursächlich auf die Tracheotomie alleine zurückzuführen ist, konnten wir bei Durchsicht der Literatur nicht finden. Das kosmetische Ergebnis beurteilten die meisten unserer Patienten (79%) als sehr gut bis gut. Unter Beachtung der absoluten Kontraindikationen, die für alle perkutanen Verfahren gültig sind, erfüllt die Blue Rhino Methode nach Ciaglia hinsichtlich der leichten Durchführbarkeit und der niedrigen peri- und postoperativen Komplikationsraten alle Anforderungen, die an ein perkutanes Verfahren gestellt werden.
Die Untersuchung versucht als Genderstudie eine Antwort auf die Frage nach den Verhaltensweisen, dem Leben und Erleben von Frauen in Krisensituationen des Zwanzigsten Jahrhunderts zu geben. Der politische und soziale Fokus liegt in der Zeit des Nationalsozialismus und des Zweiten Weltkrieges.
Es handelt sich dabei um eine große Spannbreite von unterschiedlichen Biografien. Frauen sind als Zeitzeuginnen besonders tauglich, weil sie nicht nur durch ihr Geschlecht, sondern auch durch viele andere gesellschaftliche Positionen, Situationen und Handlungsspielräume im Alltag, und vor allem im Kriegsalltag und an der Heimatfront, geprägt sind.
Die Arbeit knüpft an wichtige Erkenntnisse der Frauen- und Genderforschung, der historischen Sozialforschung, der Biographie- und gerontologischen Forschung sowie der Oral History an.
Das Sample besteht aus acht Fraueninterviews, vier Gruppen von jeweils zwei Frauen. Da sind zwei adlige Frauen, die beide fast hundert Jahre lang und darüber hinaus gelebt haben. Beide haben ihren besonderen Bezugspunkt durch ihre Brüder als Beteiligte des militärischen Widerstands am 20. Juli 1944. Die anderen sechs Frauenbiografien stehen exemplarisch für ebenfalls drei besondere Gruppen. Da sind zwei jüdische Frauen, die Auschwitz überlebt haben, zwei Russinnen, die in ihren "Großen Vaterländischen Krieg" involviert waren und zwei bei der Wehrmacht dienstverpflichtete deutsche Frauen.
Das Sichtbarmachen von Lebenszusammenhängen kann die Ghettoisierung von Alten verhindern und Verbindungen knüpfen, die einer alternden Gesellschaft die Zukunft erleichtert.
Forschungsarbeiten sowohl zum IT-Zweig als Leitbranche der Digitalisierung als auch zur gesundheitsfördernden Gestaltung neuer Arbeitswelten haben eine hohe gesellschaftliche Relevanz. Die von der Digitalisierung ausgehenden Veränderungen sind in der Arbeitswelt allgegenwärtig. Trotz einer anfänglichen Humanisierungsvermutung mit Blick auf hoch qualifizierte Wissensarbeit in flexiblen Arbeitsstrukturen zeigen neue Forschungsergebnisse eine Zunahme gesundheitlicher Belastungen in der IT-Branche. Diese Belastungskonstellation erfordert neue Gestaltungsansätze zur Gesundheitsbildung, weil flexibel arbeitende Beschäftigte mit bestehenden klassischen Maßnahmen der betrieblichen Gesundheitsförderung schwer oder gar nicht zu erreichen sind.
Ziel der Arbeit ist die lösungsorientierte Erstellung eines branchen- und online-basierten Präventionskonzepts für alle IT-Beschäftigte. Basierend auf dem Modell der Salutogenese wird ein Training entwickelt, das sich auf die Stärkung von personalen, organisationalen und sozialen Gesundheitsressourcen fokussiert.
Im Mittelpunkt der vorliegenden Arbeit, die der Kategorie der didaktischen Entwicklungsforschung (Johannes Weinberg) zuzuordnen ist, steht die Konzeption und Entwicklung eines Lernprogramms. Als Rahmenmodell dient die gestaltungsorientierte Mediendidaktik unter Berücksichtigung didaktischer Eckpunkte. Das Online-Lernangebot ist in acht Lerneinheiten aufgeteilt. Es werden Lerninhalte zum Arbeits- und Gesundheitsschutz mediendidaktisch aufbereitet und den IT-Beschäftigten und Führungskräften auf der Lernplattform Moodle zur Verfügung gestellt. (Eine ursprünglich angedachte Wirkungsmessung der Implementierung des Lernprogramms im Betrieb konnte pandemiebedingt nicht durchgeführt werden.)
Die weiterbildungsbezogene, betriebs- sowie organisationspädagogische Überlegungen aufgreifende Konzeption ist ein wichtiger Baustein im Rahmen einer Gesamtstrategie des betrieblichen Gesundheitsmanagements. Die präsentierten Handlungshilfen und elektronische Unterweisungen sind auf andere Branchen übertragbar.
Die erstellte Lernumgebung ist kein finales „Produkt“, sondern ein kontinuierlich zu optimierendes Entwicklungsvorhaben, was neben einer noch durchzuführenden Evaluation weitere Möglichkeiten zur Verbesserung der Gesundheit in der digital vernetzten Arbeitswelt eröffnet, um das Thema Gesundheitsbildung verstärkt in den betrieblichen Alltag zu integrieren.
Mit ihren so genannten Linsenkästen gelang Mary Bauermeister Anfang der 1960er-Jahre der Durchbruch auf dem New Yorker Kunstmarkt. Bis heute sind die fragilen, leuchtenden Objekte aus Holz, Glas, Leinwand und Papier das Alleinstellungsmerkmal der Künstlerin. Die hier vorliegende Dissertationsschrift erläutert die konsequente Entwicklung der Linsenkästen aus dem Frühwerk und unternimmt erstmals eine stilistische Einordnung in den Kunstkontext der 1960er-Jahre. Dabei wird deutlich, dass Bauermeister mehr den Künstlern der Klassischen Moderne (Duchamp, Schwitters, Klee, Kandinsky) verpflichtet ist denn ihren Zeitgenossen im Rheinland oder in der Kunstmetropole New York.
In diesem Jahr feiert die Bundesrepublik fünfundzwanzig Jahre Deutsche Einheit. Ein vereintes Deutschland ist für jüngere Generationen bereits selbstverständlich und selbst bei vielen Älteren sind die brisanten Entwicklungen und historischen wie geopolitischen Veränderungen dieser Zeit bereits in Vergessenheit geraten. Die meisten Deutschen nehmen ein Leben in einem geeinten Deutschland als selbstverständlich hin! Wenn man sich jedoch mit den Umbrüchen im Herbst 1989 beschäftigt und die damalige Situation analysiert, wird einem schnell bewusst, dass es sich bei dem friedlichen Mauerfall und der anschließenden Vereinigung der beiden deutschen Staaten um ein einschneidendes, ja epochales Ereignis handelt. Nichts von dem, was heute als selbstverständlich und gegeben angesehen wird, war damals absehbar noch zu erwarten. Erst ein politischer Dreiklang – bestehend aus den vier Siegermächten sowie der Bundesregierung und den Resten der politischen Klasse der DDR unter Einflussnahme der dortigen Friedensbewegung – ermöglichte die Umsetzung der damaligen „Road-Map“. Der von Helmut Kohl präsentierte Zehn-Punkte-Plan muss im Nachhinein als vorentscheidender Schritt hin zur Wiedervereinigung betrachtet werden. Das Programm symbolisierte in gewisser Weise auch das Ende der bisherigen Bonner Deutschlandpolitik. Zudem lieferte es, so scheint es zumindest im Nachhinein, die politische Blau-Pause für einen geordneten Zusammenschluss zwischen Ost und West und trug somit de facto zur friedlichen Abwicklung der implodierten DDR bei. Im Zentrum meiner Dissertation stehen nicht die einzelnen Schritte hin zur Wiedervereinigung am 3. Oktober 1990 oder der Weg dorthin – dies ist in vielen Darstellungen bereits erörtert worden. Mein Interesse gilt der Beurteilung der Deutschlandpolitik der Regierung Kohl in ausgewählten Printmedien, um so zu zeigen, wie die öffentliche Resonanz auf einzelne deutschlandpolitische Schritte des neuen Kanzlers war und wie sein Vorgehen in dieser Frage beurteilt wurde. Hiermit soll nicht nur das Meinungsspektrum zu diesem Thema abgesteckt, sondern auch danach gefragt werden, wieweit sich die Beurteilung Kohls im Untersuchungszeitraum verändert hat. Herangezogen wurden 5 Leitmedien im Printbereich: 1. Die Welt 2. Frankfurter Allgemeine Zeitung (FAZ) 3. Süddeutsche Zeitung (SZ) 4. Die Zeit 5. Der Spiegel Wert gelegt wurde darauf, ein breites Meinungsspektrum zu repräsentieren. Bei allen Vorbehalten gegen derartige Etikettierungen können die herangezogenen Printmedien als national-konservativ (Die Welt), bürgerlich-konservativ (FAZ), sozial-liberal (SZ), bürgerlich-liberal (Die Zeit) bis links-alternativ (Der Spiegel) bezeichnet werden. Damals wie heute gelten sie als Leitmedien, was sich nicht nur in ihrer Auflage und Verbreitung, sondern auch in der Qualität und Differenziertheit ihrer Berichterstattung festmachen lässt. Als Untersuchungszeitraum habe ich die Zeit vom Amtsantritt des neuen Kanzlers am 1. Oktober 1982 bis zum Zehn-Punkte-Plan am 28. November 1989 definiert. Nach Kohls Auftritt im Deutschen Bundestag an diesem Tag traten die konkreten Schritte hin zur deutschen Einheit in den Vordergrund, was dann doch eine strategische und inhaltliche Veränderung bedeutete. Deshalb wird der weitere Weg hin zum 3. Oktober 1990 aus der Untersuchung ausgeklammert. Um das Thema wissenschaftlich handhabbar zu machen, habe ich fünf Ereignisse in den Fokus meiner Untersuchung gestellt: 1. Der Kanzlerwechsel von Helmut Schmidt zu Helmut Kohl am 1. Oktober 1982 durch ein konstruktives Misstrauensvotum. Wie beurteilten die fünf Printmedien diesen Schritt und wie schätzten sie Kohls deutschlandpolitische Agenda ein? 2. Der Milliardenkredit der BRD an die DDR, der der Stabilisierung der maroden DDR-Wirtschaft dienen sollte und von Franz-Josef Strauß eingefädelt wurde. Wie wurde diese spektakuläre Aktion in den untersuchten Zeitungen eingeschätzt, insbesondere die Rolle des bayerischen Ministerpräsidenten, der ein scharfer Kritiker der sozialliberalen Deutschlandpolitik gewesen war? 3. Helmut Kohls Besuch in Moskau vom 4. Juli bis zum 7. Juli 1983, also der offizielle Antrittsbesuch des neuen Kanzlers in der Sowjetunion. Wie sah man sein Auftreten dort? 4. Der Besuch von Erich Honecker in der BRD vom 7. September bis zum 11. September 1987, ein Höhepunkt der bisherigen Deutschlandpolitik – und zugleich ein Wendepunkt. Wie wurde die Tatsache dieses Staatsbesuchs beurteilt, aber auch das Agieren des Kanzlers bei dieser Visite? 5. Der Zehn-Punkte-Plan, der am 28. November 1989 im Deutschen Bundestag in Bonn von Helmut Kohl verkündigt wurde.
Bisherige zellfreie Labormethoden und in-vitro-Diagnostik zielen darauf ab, die Zeit von der Auslösung der Gerinnung bis zur Gerinnselbildung zu messen. Sie sind aber nicht für die Messung der Wirksamkeit von rFVIIa als Medikament geeignet, das für seine hämostatische Wirksamkeit die Funktionen von Blutzellen, besonders Plättchen, benötigt. Außerdem erfassen diese Gerinnungsteste nur einen bestimmten Abschnitt der Gerinnung und ein Zeitablauffenster, welches einen geringen Anteil (<5 %) des insgesamt gebildeten Thrombins erfasst und die Dynamik der Thrombingenerierung unberücksichtigt lässt. Die Plättchen und ihre Physiologie spielen aber die Hauptrollle in der Phospholipid-Präsentation die auf der Plättchenmembran erfolgt. Dies ist Voraussetzung für eine individuell ausreichende Thrombinbildung. Die Erfassung des endogenen Thrombinpotentials (ETP) in plättchenreichem Plasma, wie sie in dieser Arbeit verwendet wurde, überwindet diese methodischen Nachteile der etablierten Teste. Damit lässt sich eine individuelle Wirkungs- und Risikovorhersage erstellen, da hämostaserelevante Charakteristika wie z.B. Erkrankungen, Komedikation, Geschlecht, Umwelt- und lebensstilabhängige Faktoren, in die Untersuchungen einbezogen werden. In dieser Arbeit wurde mit dem Thrombingenerierungstest (TGT) eine Methode etabliert und evaluiert, die inter- und intraindivuellen Unterschiede in der Thrombinbildung in plättchenreichem Plasma (PRP) zeigt. Ausgehend von den dargestellten in-vitro Ergebnissen mit gesunden Probanden wurde die Wirksamkeit von rFVIIa im TGT, zusätzlich vergleichend und validierend mit Hilfe der Durchflusszytometrie (FACS), bei Patienten mit Thrombasthenie Glanzmann untersucht. Diese sind aufgrund einer thrombozytenfunktionsstörungsbedingten Blutungsneigung in den plasmatischen Gerinnungstesten unauffällig. Evaluiert wurden hetero- und homozygote Patienten mit unterschiedlichen zugrundeliegenden Mutationen. Zuerst wurden Proben von einer Familie in-vitro untersucht, dann eine Patientin, die im Rahmen eines zahnärztlichen Eingriffs (ex-vivo-in-vitro) unter Einbindung der klinischen Beobachtung überwacht wurde. Der TGT zeigt eine deutliche prohämostatische Wirksamkeit von rFVIIa bei allen Probanden und Patienten, FACS erfasst die zugrundeliegenden Zellfunktionen. Dabei werden Unterschiede zwischen gesunden Probanden, heterozygoten und homozygoten Patienten aufgezeigt, die diagnostisch und therapeutisch verwertbar sind. Unterschiedliche Mutationen und weitere ursächliche thrombozytäre Mechanismen schlagen sich in entsprechenden Änderungen der gemessenen FACS-Parameter nieder, die zum großen Teil mit den TGT-Werten für ETP und PEAK korrelieren. Die TGT-Werte zeigen, gerade für die Patientin EG, deren Behandlung mit rFVIIa überwacht wurde, eine stärkere Korrelation mit der Klinik als die FACSMethode. Diese wiederum erfasst die zellfunktionsbedingten Ursachen analytischer. Die Ergebnisse dieser Arbeit zeigen, dass die Messung und Auswertung der TGT-Parameter ETP und PEAK, in geringerem Maße LT und TTP, die prohämostatische Wirkung Zellfunktions-basierter Medikamente in plättchenreichem Plasma erfasst. Damit erlaubt sie über die Charakterisierung von Gerinnungsstörungen hinaus prädiktive Aussagen über die individuell angemessene Dosierung von rFVIIa (NovoSeven®).
Kraftfelder sind ein vielseitiges Werkzeug zur schnellen Berechnung vielfältiger Moleküleigenschaften. Die Qualität der damit erhaltenen Vorhersagen ist auch ein Maß, wie gut die wichtigen Einflussgrößen verstanden und vor allem in das Kraftfeld-Modell integriert sind. Bei der Parametrisierung müssen viele Effekte gegeneinander ausbalanciert werden, da die Kraftfeldterme nicht unabhängig voneinander betrachtet werden können. Umfangreiche Testrechnungen sind erforderlich, um die notwendige Qualität der Parameter sicher zu stellen. Eine Automatisierung dieses Prozesses bringt nicht nur eine enorme Zeitersparnis, sie zwingt auch zur sorgfältigen Definition von Vorgaben und Qualitätskriterien. Die Formulierung einer Strategie in einem Programm anstelle von „intelligentem Raten“ fördert zudem ein tieferes Verständnis. Bei einer Änderung der Strategie muss nur das entsprechende Programm geändert werden, dem Entwickler bleibt der manuelle Test erspart. Automatische Methoden zur Plausibilitätsprüfung vermeiden Probleme durch Fehler bei der Dateneingabe von Hand. Die programmgesteuerte Erstellung aussagekräftiger Protokolle und Grafiken macht die Fülle der bei der Parametrisierung und Evaluierung eines Kraftfeldes anfallenden Informationen für den Benutzer überschaubar. Probleme und deren Zusammenhang können so leichter erfasst werden. Für das MOMO-Kraftfeld konnten auf diese Weise verbesserte und neue Parameter für Wasserstoffbrücken abgeleitet werden, zwei empirische Punktladungsmodelle und deren Verträglichkeit mit zwei quantenchemischen Modellen verbessert und prinzipielle Probleme bei deren Vereinbarkeit erkannt werden sowie die automatische Parametrisierung von Bindungslängen, Bindungswinkeln und Torsionswinkeln ermöglicht werden. Bei Letzterem konnte jedoch keine Verbesserung gegenüber den Originalparametern erreicht werden, was nicht weiter verwunderlich ist, da diese seit Jahrzehnten entwickelt worden sind, wohingegen Wasserstoffbrücken und Partialladungen erst später hinzugekommen sind und nicht so umfangreich wie die bindenden Kraftfeldterme getestet wurden. Voraussetzung für die hier gewählte Vorgehensweise, alle Arbeiten weitgehend zu automatisieren und Strategien immer in Programme umzusetzen, waren sehr umfangreiche Programmierarbeiten. Ziel war es, auf einfache Weise die Steuerung des Kraftfeldes aus kleineren Programmen, die spezielle Probleme bearbeiten, zuzulassen. Durch die Nutzung zahlreicher Open-Source-Projekte, die gemeinsam die gewünschte Funktionalität zur Verfügung stellen, konnte der Aufwand auf die dazu passende Implementierung des MOMO-Kraftfeldes und das Verbinden mit der von diesen Projekten bereitgestellten Software beschränkt werden. Der Kern des MOMO-Kraftfeldes wurde aus Geschwindigkeitsgründen in der Compilersprache C geschrieben, Datenein- und -ausgabe und die Programme zur Parametrisierung und Auswertung wurden in Python geschrieben.
Paläoklimarekonstruktionen, die es sich zum Ziel gesetzt haben, Klima-Mensch Interaktionen auf lange Zeitreihen betrachtet zu erforschen, nehmen begünstigt durch die aktuell intensiv geführte Klimadebatte, einen immer größer werdenden Stellenwert in der öffentlichen und wissenschaftlichen Wahrnehmung ein. Denn trotz aller wissenschaftlicher Fortschritte, die in den vergangenen Jahrzehnten im Bereich der modernen Klimaforschung gemacht wurden, bleibt die zuverlässige Vorhersage und Modellierung von zukünftigen Klimaveränderungen noch immer eine der größten Herausforderungen unser heutigen Zeit. Betrachtet man die Karibik exemplarisch in diesem Rahmen, dann prognostizieren viele Modellrechnungen, infolge steigender Ozeantemperaturen, ein deutlich häufigeres Auftreten von tropischen Stürmen und Hurrikanen sowie eine Verschiebung hin zu höheren Sturmstärken. Dieser Trend stellt für die Karibik und viele daran angrenzende Staaten eine der größten Gefahren des modernen Klimawandels dar, den es wissenschaftlich über einen langen Zeitrahmen zu erforschen gilt.
Klimaprognosen stützen sich meist vollständig auf hoch-aufgelöste instrumentelle Datensätze. Diese sind aber alle durch einen wesentlichen Aspekt limitiert. Aufgrund ihrer eingeschränkten Verfügbarkeit (~150 Jahre) fehlt ihnen die erforderliche Tiefe, um die auf langen Zeitskalen operierenden Prozesse der globalen Klimadynamik adäquat abbilden zu können. Betrachtet man das Holozän in seiner Gesamtheit, so wurde die globale Klimadynamik über die vergangenen ~11,700 Jahre von periodisch auftretenden Prozessen und Abläufen gesteuert. Diese wirken grundsätzlich über Zeiträume von mehreren Jahrzehnten, teilweise Jahrhunderten und in einigen Fällen sogar Jahrtausenden. Viele dieser natürlichen Prozesse, können in der kurzen Instrumentellen Ära nicht gänzlich identifiziert und angemessen in Klimamodellen berücksichtig werden. Die alleinige Berücksichtigung der Instrumentellen Ära bietet daher nur eine eingeschränkte Perspektive, um die Ursachen und Abläufe von vergangenen sowie mögliche Folgen von zukünftigen Klimaveränderungen zu verstehen. Um diese Einschränkung zu überwinden, ist es somit erforderlich, dass die geowissenschaftliche Forschung mit Proxymethoden ein zusammenfassendes und mechanistisches Verständnis über alle Holozänen Klimaveränderungen erlangt.
Wenn man sich diese Limitierung, die ansteigenden Ozeantemperaturen und das in der Karibik in den vergangen 20 Jahren vermehrte Auftreten von starken tropischen Zyklonen ins Gedächtnis ruft, ist es nachvollziehbar, dass im Rahmen dieser Doktorarbeit ein zwei Jahrtausende langer und jährlich aufgelöster Klimadatensatz erarbeitet werden soll, der spät Holozäne Variationen von Ozeanoberflächenwasser-temperaturen (SST) und daraus resultierende lang-zeitliche Veränderungen in der Häufigkeit tropischer Zyklone widerspiegelt. In Zentralamerika wird das Ende der Maya Hochkultur (900-1100 n.Chr.) mit drastischen Umweltveränderungen (z.B. Dürren) assoziiert, die während der Mittelalterlichen Warmzeit (MWP; 900-1400 n.Chr.) durch eine globale Klimaveränderung hervorgerufen wurde. Die aus einem „Blue Hole“ abgeleiteten Informationen über Klimavariationen der Vergangenheit können als Referenz für die gegenwärtige Klimakriese verwendet werden.
Als „Blue Hole“ wird eine Karsthöhle bezeichnet, die sich subaerisch während vergangener Meeresspiegeltiefstände im karbonatischen Gerüst eines Riffsystems gebildet hat und in Folge eines Meeresspiegelanstiegs vollständig überflutet wurde. In einigen wenigen marinen „Blue Holes“ treten anoxische Bodenwasserbedingungen auf. Die in diesen anoxischen Karsthöhlen abgelagerten Abfolgen mariner Sedimente können als einzigartiges Klimaarchiv verwendet werden, da sie aufgrund des Fehlens von Bioturbation eine jährliche Schichtung (Warvierung) aufweisen.
In dieser kumulativen Dissertation über das „Great Blue Hole“ werden die Ergebnisse eines 3-jährigen Forschungsprojekts vorgestellt, dass das Ziel verfolgte einen wissenschaftlich herausragenden spät Holozänen Klimadatensatz für die süd-westliche Karibik zu erzeugen. Beim „Great Blue Hole“ handelt es sich um ein weltweit einzigartiges marines Sedimentarchiv für diverse spät Holozäne Klima-veränderungen, das im Zuge dieser Dissertation sowohl nach paläoklimatischen als auch nach sedimentologischen Fragestellungen untersucht wurde. Die vorliegende Doktorarbeit befasst sich im Einzelnen mit (1) der Ausarbeitung eines jährlich aufgelösten Archives für tropische Zyklone, (2) der Entwicklung eines jährlich aufgelösten SST Datensatzes und (3) einer kompositionellen Quantifizierung der sedimentären Abfolgen sowie einer faziell-stratigraphischen Charakterisierung von Schönwetter-Sedimenten und Sturmlagen. Zu jedem dieser drei Aspekte, wurde jeweils ein Fachartikel bei einer anerkannten wissenschaftlichen Fachzeitschrift mit „peer-review“ Verfahren veröffentlicht.
Der insgesamt 8.55 m lange Sedimentbohrkern („BH6“), der für diese Dissertation untersucht wurde, stammt vom Boden des 125 m tiefen und 320 m breiten „Great Blue Holes“, das sich in der flachen östlichen Lagune des 80 km vor der Küste von Belize (Zentralamerika) gelegenen „Lighthouse Reef“ Atolls befindet. Durch seine besondere Geomorphologie wirkt das, innerhalb des atlantischen „Hurrikan Gürtels“ positionierte, „Great Blue Hole“ wie eine gigantische Sedimentfalle. Die unter Schönwetter-Bedingungen kontinuierlich abgelagerten Abfolgen feinkörniger karbonatischer Sedimente, werden von groben Sturmlagen unterbrochen, die auf „over-wash“ Prozesse von tropischen Zyklonen zurückzuführen sind.
...
Mit der vorliegenden Arbeit ist der eindeutige experimentelle Nachweis für die Existenz eines 1997 [Ced97] vorhergesagten, neuartigen Zerfallskanals für Van-der-Waals-gebundene Systeme erbracht worden. Die Untersuchungen wurden an einem Neondimer durchgeführt. Erzeugt man in einem Atom dieses Dimers durch Synchrotronstrahlung eine 2s-Vakanz, so wird diese durch ein 2p-Elektron aufgefüllt. Die hierbei freiwerdende Energie wird an das zweite Atom des Dimers in Form eines virtuellen Photons übertragen und löst dort ein Elektron aus einer äußeren Schale. Untersucht wurde dieser Zerfall namens „Interatomic Coulombic Decay” (ICD) durch Koinzidenzimpulsspektroskopie (COLTRIMS) [Doe00, Ull03, Jah04b]. Der Nachweis der Existenz des Effekts erfolgte dadurch, dass die Summe der Energien der Photofragmente - und im Speziellen des ICD-Elektrons und der beiden im Zerfall entstehenden Ne+-Ionen - eine Konstante ist. Durch die koinzidente Messung der Impulse, der im Zerfall entstehenden Teilchen, konnte hierdurch ICD eindeutig identifiziert werden. Die Übereinstimmung der gemessenen Energiespektren mit aktuellen theoretischen Vorhersagen [Sche04b, Jah04c] ist exzellent. Dadurch, dass das Dimer nach dem IC-Zerfall in einer Coulomb-Explosion fragmentiert, konnten des Weiteren Untersuchungen, wie sie in den letzten Jahren an einfachen Molekülen durchgeführt wurden [Web01, Lan02, Jah02, Web03b, Osi03b, Jah04a], auch am Neondimer erfolgen: Durch die Messung der Ausbreitungsrichtung der ionischen Fragmente des Dimers nach der Coulomb-Explosion wird die räumliche Ausrichtung des Dimers zum Zeitpunkt der Photoionisation bestimmt. Die gemessenen Impulse der emittierten Elektronen können dadurch im Bezug zur Dimerachse dargestellt werden. In dieser Arbeit wurden somit Messungen der Winkelverteilung der 2s-Photoelektronen und des ICD-Elektrons im laborfesten und auch dimerfesten Bezugssystem vorgestellt und mit vorhandenen theoretischen Vorhersagen verglichen. Die Winkelverteilung des Photoelektrons ähnelt stark der Verteilung, die man nach der Photoionisation eines einzelnen Neonatoms erhält und hat somit fast reinen Dipolcharakter. Die Präsenz des zweiten Atoms des Dimers verursacht nur leichte Modulationen, so dass auch die Änderung der Ausrichtung der Dimerachse im Bezug zur Polarisationsrichtung des linear polarisierten Lichtes nur geringe Auswirkungen hat. Durch die koinzidente Messung aller vier nach der Photoionisation entstehenden Teilchen konnte außerdem ein weiterer Doppelionisationsmechanismus des Dimers nachgewiesen werden: Ähnlich wie in einzelnen Atomen [Sam90] gibt es auch in Clustern den TS1-Prozess. Hierbei wird ein 2p-Elektron aus dem einen Atom des Dimers herausgelöst. Es streut dann an einem 2p-Elektron des anderen Atoms, das hierdurch ionisiert wird. Diese etwas andere Form des TS1 im Cluster ist also genau wie ICD ein interatomarer Vorgang. Die Summe der Energien der beiden, in diesem Prozess entstehenden Elektronen hat einen festen Wert von h... − 2 · IP(2p) − KER = 12 eV, so dass dieser Prozess hierdurch im Experiment gefunden werden konnte. Die gemessenen Zwischenwinkel zwischen den beiden Elektronen zeigen des Weiteren genau die für zwei sich abstoßende Teilchen typische Verteilung einer Gauss-Kurve mit einem Maximum bei 180 Grad. Da im Falle von interatomarem TS1 die Potentialkurve der Coulomb-Explosion direkt aus dem Grundzustand populiert wird, konnte im Rahmen der „Reflexion Approximation” die Wahrscheinlichkeitsverteilung der Abstände der beiden Dimeratome experimentell visualisiert werden. Das Betragsquadrat des Kernanteils der Dimergrundzustandswellenfunktion wurde somit direkt vermessen. Die Messungen wurden bei drei verschiedenen Photonenenergien durchgeführt, um die Ergebnisse weiter abzusichern und robuster gegen eventuelle systematische Fehler zu machen. Da kein isotopenreines Neongas im Experiment eingesetzt wurde, konnten genauso Ionisations- und ICD-Ereignisse von isotopischen Dimeren (20Ne22Ne) beobachtet und ausgewertet werden. Die gemessenen Spektren sind innerhalb der Messtoleranzen identisch zu denen für 20Ne2.
Das Ziel der vorliegenden Arbeit bestand darin, narrative Identitätsformationen jüdischer Jugendliche in Deutschland zu rekonstruieren. Aufgrund der Analyse des empirischen Materials und anhand des erwähnten Forschungsinteresses wurden in der Arbeit drei unterschiedliche – dennoch zueinander in Beziehung stehende – zentrale Typologien der narrativen Identität jüdischer Jugendlicher erarbeitet.46 Während sich die erste Typologie allein auf die Migrationserfahrung beschränkt, werden in der zweiten und dritten Typologie beide – zugewanderte und ‚alteingesessene‘ – Befragtengruppen in den Blick genommen: (i) Typologie der Akkulturationsnarrative, die der Frage nach der Auseinandersetzung der zugewanderten Jugendlichen mit kulturellen Vorstellungen und Vorbildern im Verlauf des Migrationsprozesses nachgeht. (ii) Typologie der Identitätsentwicklung im Spannungsfeld des Mehrheits-Minderheits-Verhältnisses, welche die Bedeutung der Fähigkeit zur Rollendistanzierung und Ambiguitätstoleranz in der Interaktion mit der Mehrheitsgesellschaft untersucht. (iii) Typologie der jüdischen, religiösen und ethnischen Sozialisation, die danach fragt, woran die Jugendlichen ihre Zugehörigkeit zum jüdischen Kollektiv festmachen und welche Identitätsentwürfe sich dabei feststellen lassen. ....
Based on an original dataset of 100 important pieces of legislation passed during the three presidencies of William J. Clinton, George W. Bush, and Barack H. Obama (1992-2013), this study explores two sets of questions:
(1) How do presidents influence legislators in Congress in the legislative arena, and what factors have an effect on the legislative strategies presidents choose?
(2) How successful are presidents in getting their policy positions enacted into law, and what configurations of institutional and actor-centered conditions determine presidential legislative success?
The analyses show that in an hyper-polarized environment, presidents usually have to fight an uphill-battle in the legislative arena, getting more involved if they face less favorable contexts and the odds are against them.
Moreover, the analyses suggest that there is no silver-bullet approach for presidents' legislative success. Instead, multiple patterns of success exist as presidents - depending on the institutional and public environment - can resort to different combinations of actions in order to see their preferred policy outcomes enacted.
Nachdem zunächst Ziel und Forschungsgegenstand dieses Aufsatzes erläutert (1.2.1) wurden, werden die Definitionen der Leitbilder verdeutlicht, der in diesem Aufsatz eine zentrale Rolle spielen (1.2.2). Danach werden die vorangegangenen Studien über die „Leitbilder“ der deutschen Außenpolitik zusammengefasst und die Fragestellung dieser Arbeit diskutiert (1.2.3). Da ein Ziel dieser Arbeit die Verdeutlichung der Kontinuitätsund Wandelseite des „Leitbildes“ ist, das die deutsche Außenpolitik in der Realität verfolgt, fasst der Verfasser schließlich die Debatte über „Kontinuität und Wandel der deutschen Außenpolitik“ zusammen. Hier wird der Verfasser die Debatte über „Kontinuität und Wandel der deutschen Außenpolitik“ mit der Debatte über „Leitbilder“ der deutschen Außenpolitik konvergieren. Dadurch wird der Verfasser verdeutlichen, dass sich im „Leitbild“ die Essenz der deutschen Außenpolitik widerspiegelt (1.2.4).
In dieser Dissertation wird die diskursive Konstruktion der Übersetzer bzw. der Übersetzung in ausgewählten Chroniken der Eroberung Lateinamerikas untersucht, welche von Autoren unterschiedlicher Herkunft im ungefähren Zeitraum zwischen 1515 bis 1615 verfasst wurden. Im Rahmen einer historisch-deskriptiven Analyse wird erforscht, welchem Zweck die vorgefundenen sprachlichen Aussagen zur Übersetzungsthematik in den verschiedenen Chroniken dienen. Die Analyse zeigt deutlich, dass nicht nur die Erwähnung, sondern auch die Omission der Aussagen zu den Übersetzern bzw. den Übersetzungsprozessen eine wichtige Rolle einnimmt und Brüche und Widersprüche in den einzelnen Darstellungen hervortreten lässt. Es wird deutlich, dass Übersetzer und Übersetzung, aber auch deren Omission, nicht nur der Legitimierung bzw. Humanisierung der Eroberungen dienen, sondern dass vor allem auch die Figur des Übersetzers zum Zweck der Identitätskonstruktion (sowohl der eigenen als auch der des anderen), der Herstellung sowie Aufrechterhaltung asymmetrischer Dominanzverhältnisse und der Konstruktion bzw. Bestätigung bereits bestehender Geschlechterrollen funktionalisiert wird. Es wird gezeigt, dass „Übersetzung“, welche oftmals als völkerverbindendes Mittel der Kommunikation dargestellt wird, vor allem im Kontext der Eroberung nicht unbedingt ein friedliches Instrument darstellt, sondern enormes Macht- und Gewaltpotential in sich birgt. Außerdem gehen aus den Analysen die Konturen einer Forschungslücke hervor, die noch weitere Untersuchen ermöglicht, nicht nur in Bezug auf den Bereich des oralen Übersetzungsprozesses, sondern vor allem auch, was den Bereich der kulturellen Übersetzung betrifft.
Die Dissertation „“Man at the Crossroads“ - “El Hombre Controlador del Universo“ - Diego Rivera zwischen New York und Mexiko 1933/34“, vorgelegt von Elena Stiehr im Fachbereich 9 am Kunstgeschichtlichen Institut der Johann Wolfgang Goethe-Universität, Frankfurt unter Betreuung von Prof. Dr. Hans Aurenhammer und Dr. Antje Krause-Wahl, leistet das erste Mal in der Forschung eine umfangreiche Untersuchung der Zweitversion des Freskos „Man at the Crossroads“. Diese realisierte Diego Rivera 1934 unter dem Titel „El Hombre Controlador del Universo“ etwa ein halbes Jahr nachdem „Man at the Crossroads“ im Rockefeller Center, New York aufgrund seines kommunistischen Bildinhalts zerstört wurde. Ziel der Untersuchung ist es, die verschiedenen Kriterien aufzuzeigen, unter denen Rivera die mexikanische Version verwirklichte, die noch heute im Palacio de Bellas Artes in Mexiko-Stadt zu sehen ist. So soll dargestellt werden, dass sich das Fresko trotz seines auf den ersten Blick hin ähnlichen Erscheinungsbildes prägnant von der Erstversion unterscheidet. Darauf weist auch bereits die Umbenennung des Werkes hin. Gleichzeitig jedoch ist „El Hombre Controlador del Universo“ ganz und gar amerikanisch. Durch die detaillierte Schilderung der Realisierung von „Man at the Crossroads“ von März bis Mai 1933 anhand von Primärquellen, wie das Tagebuch von Riveras Assistentin Lucienne Bloch und Berichte aus der amerikanischen Presse, der Analyse, ob und wie Rivera die Richtlinien des Kunstprogramms des Rockefeller Center befolgte und durch Vergleiche mit Werken anderer Künstler, die wie Rivera im Auftrag der Rockefellers arbeiteten, wird das New Yorker Erbe in „El Hombre Controlador del Universo“ aufgezeigt. Maßgeblich dafür ist überraschenderweise jedoch nicht die Wiederholung der amerikanischen Motive aus der Erstversion, wie der US-amerikanischen Kapitalistenklasse, der desolaten Situation der USamerikanischen Arbeiter und Bauern im Zuge der Weltwirtschaftskrise und der technischen und naturwissenschaftlichen Errungenschaften, die erstmals in der Forschung identifiziert und kontextualisiert werden, sondern vor allem die Integration neuer Motive, die fest mit den USA verbunden sind. So erlebte Rivera in New York einen intensiven Austausch mit den USamerikanischen Trotzkisten Max Shachtman und James Cannon, die der Künstler nun in der Zweitversion zusammen mit Trotzki selbst und dem Aufruf zur IV. Internationalen für die Bekämpfung des Kapitalismus, Imperialismus und Faschismus darstellt. In diesem Kontext steht im Bild weiterhin das Portrait des deutschen Widerstandskämpfers Willi Münzenberg, der erstmals in der Literatur identifiziert wird. Rivera zeigt in der Zweitversion nun aber auch in konkreter Gestalt die zu bekämpfende Gegenposition, die in Joseph Goebbels, Adolf Hitler, Josef Stalin und dem japanischen Kaiser Hirohito zu finden ist. Auch diese Portraits wurden in der Forschung bislang übersehen.
Entgegen der in der Literatur vertretenen These, dass die Zweitversion an Kraft verloren hätte, da sie sich nicht mehr im Herzen des Kapitalismus, also dem Rockefeller Center, befinde, macht die Untersuchung deutlich, dass Rivera mit dem Fresko in Mexiko dringlicher als je zuvor für eine marxistisch-trotzkistische Internationale wirbt. Diese sollte sich von Mexiko aus über den gesamten amerikanischen Kontinent erstrecken und der kapitalistisch-imperialistischen Allianz Einhalt gebieten. Die Arbeit leistet darüber hinaus einen wichtigen Beitrag für den Diskurs über die Rezeption der prähispanischen Kunst im Werk von Diego Rivera. So wird erstmals aufgezeigt, dass Rivera auch in „El Hombre Controlador del Universo“ Motive aus der altmexikanischen Kultur ableitet. Im Gegensatz zu anderen Fresken wurde das Wandbild noch nicht unter dieser Fragestellung untersucht. Grund dafür könnte sein, dass Rivera die ursprünglich mexikanischen Motive, wie die der Sonne und des Mondes, der Nutzpflanzen, der Tiere und des Totenkultes, in einen wissenschaftlichen Kontext einbettet und sie daher nicht auf dem ersten Blick als originär mexikanisch wahrgenommen werden. Der Epilog der Arbeit führt einen Vergleich mit dem für die Pariser Weltausstellung 1952 realisierten Freskos „Friedenstraum und Kriegsalbtraum. Realistische Phantasie“ fort, den 2008 erstmals in der Forschung Ana Isabel Pérez Gavilan Ávila angestoßen hat. Aufgrund der Darstellung von Stalin und Mao als Initiator einer Friedensbewegung und der USA als Atommacht und Folterer von Koreanern und Chinesen hatte dieses Fresko ähnlich wie „Man at the Crossroads“ eine scharfe Zensur erhalten. Rivera behauptete daraufhin sein Bild verteidigend, dass das Fresko eine inhaltliche und formale Fortsetzung von „El Hombre Controlador del Universo“ sei. Ein bislang nicht publizierter Brief, der sich im Archiv des CENIDIAP in Mexiko befindet, legt jedoch dar, dass Rivera mit Hilfe des Wandbildes lediglich versuchte, nach über 20 Jahren wieder von der Kommunistischen Partei aufgenommen zu werden.
"Mir ist so digk vor gesait" : Studien zur erzählerischen Gestaltung des "Meleranz" von dem Pleier
(2024)
In der germanistischen Mediävistik richtet sich das Forschungsinteresse vornehmlich auf die höfische Literatur und dabei insbesondere auf die frühen und späten Artusromane. Vor allem die Werke von Hartmann von Aue und Wolfram von Eschenbach sind zentrale Forschungsobjekte, während Texte wie Pleiers ‚Meleranz‘ bisher nur begrenzt Beachtung fanden.
Die Forschungslücke, die die vorliegende Arbeit adressiert, liegt in der detaillierten Analyse der spezifischen Erzähltechniken des pleierschen Textes, die sich sowohl durch die Verwendung traditioneller arthurischer Motive als auch durch innovative narrative Ansätze auszeichnen. Ausgehend von dem Befund eines stark zurückgenommenen Erzählers wird untersucht, welche narrativen Strategien und Verfahren der Pleier im ‚Meleranz‘ anwendet, um trotz dieser Abkehr von der implizierten poetischen Regelhaftigkeit einer dominanten Erzählerfigur das Erzählen vom Ritter ‚Meleranz‘ gelingen und zugleich an einigen Stellen ausgesprochen konventionell wirken zu lassen.
Um aufzudecken, wie der Text ohne die Stimme eines deutlich hervortretenden Erzählers vermittelt wird, nutze ich im Verlauf der Arbeit eine Typologie der Stoffvermittlung durch (arthurische) Erzähler. In den Einzelstudien zum ‚Meleranz‘ werden seine Motive, Erzählmuster und Figurenkonstellationen in einem close reading erarbeitet und mit der Typologie abgeglichen, um bestimmen zu können, welche Vermittlungsformen im pleierschen Text genutzt werden. Mit Hilfe dieses Vergleichs kann das Erzählverfahren im ‚Meleranz‘ extrapoliert und gleichzeitig offengelegt werden. Mittels dieses Vorgehens wird verdeutlicht werden, dass es sich beim ‚Meleranz‘ um einen Text handelt, der arthurische Konventionen lediglich anders inszeniert, um die vermittelnde Funktion der Stimme des Erzählers zu substituieren oder ihr Fehler auszugleichen.
Die Physiologie des Schmerzes umfasst komplexe immunologische, sensorische und inflammatorische Prozesse im Rückenmark, im Gehirn und in der Peripherie. Wiederholte nozizeptive Stimulation induziert pathophysiologische Veränderungen bei der Schmerzweiterleitung, aus denen eine periphere oder zentrale Sensibilisierung resultiert. Diese kann bei dafür anfälligen Patienten zu der Ausbildung von chronischen Schmerzzuständen führen. Obwohl das Wissen über die genauen molekularen Vorgänge der Schmerz-Chronifizierung noch immer unvollständig ist, sind die Identifizierung von Risikofaktoren vernünftige Schritte, um die individuelle Anfälligkeit für die Entwicklung chronischer Schmerzen zu bestimmen. Das Hauptziel dieser Doktorarbeit bestand daher in der Identifikation humaner genetischer Biomarker für chronische Schmerzzustände.
Bluttransfusionen ermöglichen es jährlich tausenden von Menschen das Leben zu retten. Allerdings bringt ein unreflektierter Einsatz auch zahlreiche Nachteile mit sich. Patient Blood Management (PBM) beschäftigt sich damit, das optimale Kosten-Nutzen-Verhältnis dieser Maßnahme auszuschöpfen.
Das Programm verfolgt einen multimodalen Ansatz zur Reduktion von Transfusionen. Es zielt darauf ab präoperative Anämie zu erfassen und, wenn möglich, zu therapieren, iatrogenen Blutverlust zu reduzieren und die Anämietoleranz des Körpers maximal auszunutzen. Diese Maßnahmen wurden durch Schulungsprogramme und die Bereitstellung von Informationsmaterial begleitet, um die Sensibilität und das Wissen zu diesem Thema zu vergrößern.
Die vorliegende Arbeit befasst sich mit den Einflüssen der Einführung von PBM auf die Mortalität und Morbidität von Malignompatienten in der Viszeralchirurgie. Die retrospektive Analyse war darauf ausgerichtet, einen Unterschied von 10 % im Zweijahresüberleben vor und nach Einführung festzustellen. Hierfür wurden die Daten von 836 Patienten ausgewertet, die sich über einen Zeitraum von vier Jahren einer onkologischen Operation in der Abteilung für Allgemein- und Viszeralchirurgie der Universitätsklinik Frankfurt am Main unterzogen haben. Davon befanden sich 389 vor und 447 nach der Einführung des Projekts in Behandlung.
Das Ziel der Untersuchung bestand darin, die Sicherheit und den Nutzen von PBM in dieser speziellen Patientengruppe näher zu untersuchen. Dazu wurden der primäre Endpunkt des Zweijahresüberlebens und die sekundären Endpunkte 30-Tages- und 90-Tagesüberleben, Prozentsatz an Patienten mit Anämie, Anzahl der transfundierten Erythrozytenkonzentrate (EK) sowie das Auftreten von Komplikationen nach der Dindo-Clavien Klassifikation festgelegt.
Die erhobenen Daten zeigen ein um 13,1 % (p = < 0,001) verbessertes Überleben nach zwei Jahren in den Vergleichsgruppen vor und nach Einführung des Patient Blood Managements. Es haben 21,5 % (p = < 0,001) weniger Patienten Erythrozytenkonzentrate erhalten, zudem wurde die Gesamtsumme der transfundierten Konzentrate signifikant (p = < 0,001) reduziert.
Dabei kam es zu keinem vermehrten Auftreten von Komplikationen. Dies spricht dafür, dass die Einführung von PBM zur Verbesserung der Patientensicherheit beigetragen hat. Es hat sich gezeigt, dass Patienten ohne oder mit moderaten postoperativen Komplikationen (Dindo-Claven < IIIb) von den Veränderungen im besonderen Maße profitieren.
Eine flächendeckende Implementierung des Konzepts in den klinischen Alltag ist als sicher und empfehlenswert zu betrachten. Neben den Patienten profitiert auch das ärztliche Personal, denn im Rahmen von strukturierten Fortbildungsveranstaltungen wird tiefergehendes Wissen vermittelt und klare Handlungsempfehlungen gegeben. Dies reduziert Unsicherheiten, erhöht die Sensibilität und verringert auf diesem Weg Fehler im Transfusionsmanagement. Des Weiteren ergeben sich ökonomische Vorteile. Durch Schulungen, Anämiescreening und der Anschaffung neuer blutsparender Systeme entstehen zwar zunächst zusätzliche Kosten, allerdings stehen diese Einsparungen, durch einen geringeren EK-Verbrauch sowie geringeren Ausgaben durch eine Senkung der Morbidität, gegenüber.
Es wäre von Interesse, in zukünftigen Untersuchungen die genauen Ursachen für den beobachteten Effekt im verbesserten Langzeitüberleben zu analysieren. Mit diesem Wissen kann eine optimale Nutzung der Einflussfaktoren gewährleistet werden. Zudem sollte es auf dieser Basis möglich werden, das Patientenkollektiv, das von einer Transfusion profitiert, genauer einzugrenzen.
Als ich im Alter von etwa zehn Jahren das erste Mal in einem National GeographicMagazin auf die mir damals noch vollkommen unverständlich anmutende Ansammlung von Konsonanten und Vokalen des Begriffs "Powwow" stieß, ahnte ich nichts von ihrer Bedeutung für mein zukünftiges Leben. Zu diesem Zeitpunkt war mir noch nicht einmal bewußt, daß diese einer mir damals noch unbekannten, tonangebenden Konvention entsprechend, nicht etwa, wie für einen deutschen Leser zu vermuten wäre, "POW - WOW", sondern eigentlich "PAU - WAU" ausgesprochen werden. Zudem konnte ich damals natürlich auch nicht ahnen, daß ich mich zwanzig Jahre später im Rahmen einer Dissertation mit der inhaltlichen Vielschichtigkeit dieses Begriffs auseinandersetzen würde. Und so stellt diese Arbeit das vorläufige Zwischenprodukt einer Sinnsuche dar, die damals eher beiläufig mit der Überlegung begann, ob nicht gar der "traditionell" gekleidete Indianer auf dem, eine Werbung für Kanada als Immigrationsland illustrierenden Bild, mit den erläuternden Worten "Powwow in Thunder Bay", eben diesen Namen trägt. ...
Twentieth-century scholars have thought little about the attractions of Descartes’ thinking. Especially in feminist theory, he has a bad press as the ‘instigator’ of the body-mind-split – seen as one of the theoretical bases for the subordination of women in Western culture. Seen from within seventeenth-century discourse it is the dictum that can be inferred from his writings that ‘the mind has no sex’ and which can be seen as an appeal to think about rational capacities in the utopian perspective of a gender neutral discourse. My work analyses this “face” of Cartesianism as it was adapted in favour of English seventeenth-century women. How were the specific tenets of Descartes’ philosophy employed on behalf of English women in the second half of the seventeenth century in England? My focus is on Descartes as a thinker, who – whatever his real or imagined intention might have been – provided women in seventeenth-century England with tools with which to change their status, in other words: with instruments of empowerment. So why were Descartes’ arguments so attractive for women? Descartes had argued for equal rational abilities among individuals in a gender neutral way. He had further critiqued generally accepted truth with his universal doubt. I believe this specific combination of ideas, affirming their rational capabilities, was seen by a number of women as an invitation to become involved in spheres of activity from which they were previously excluded. Moreover, a specific set of Descartes’ arguments provided a number of English women with a strategy to extend female agency. Not only did Descartes’ views legitimate female rationality, they also allowed an acknowledgement that this female intellect was equally connected to “truth” as that of their male contemporaries. As a consequence, women developed an increased self-esteem and inspiration to pursue their own independent study (and in some cases publishing). These ideas eventually helped to bring forward a demand for female education, as girls and women were still excluded from formal education in seventeenth-century England. My general thesis is that Cartesianism, as one of the earliest universalist theories on the nature of human reason, introduced new possibilities into the English debate over the nature and, hence, social position of women. It brought a radical twist to the already existing discussion on women by offering new critical tools which were taken up to argue on behalf of English women. In my work I examine the specific historical conditions of the reception of Descartes’ thought in England, the philosophical appeal of his ideas for women and analyse the writings of two English ‘disciples’ of Descartes: Margaret Cavendish, Duchess of Newcastle and Mary Astell.
Die Fähigkeit der spezifischen und kontextabhängigen zellulären Adaption auf intrinsische und/oder extrinsische Signale ist das Fundament zellulärer Homöostase. Verschiedene Signale werden von Membranrezeptoren oder intrazellulären Rezeptoren erkannt und ermöglichen die molekulare Anpassung zellulärer Prozesse. Komplexe, ineinandergreifende Proteinnetzwerke sind dabei elementar in der Regulation der Zelle. Proteine und deren Funktionen werden dabei nach Bedarf reguliert und unterliegen einem ständigen proteolytischen Umsatz.
Die stimulusabhängige Gentranskription und/oder Proteintranslation nimmt hier eine zentrale Stellung ein, da die zugrundeliegende Maschinerie die Komposition und Funktion der Proteinnetzwerke entsprechend anpassen kann. Zusätzlich zur Regulation der Proteinabundanz werden Proteine posttranslational modifiziert, um deren Eigenschaften rasch zu ändern. Zu posttranslationalen Modifikationen zählen die Ubiquitinierung und/oder Phosphorylierung, welche die Proteinfunktionen hochdynamisch regulieren. Deregulierte Proteinnetzwerke werden oft mit Neurodegeneration und Autoimmun- oder Krebserkrankungen assoziiert. Auch Infektionen mit humanpathogenen Bakterien greifen stark in den Regulierungsprozess von Proteinnetzwerken und deren Funktionen ein. Die zelluläre Homöostase wird dadurch herausgefordert.
Bakterien der Gattung Salmonella sind zoonotische, gramnegative, fakultativ intrazelluläre Pathogene, welche weltweit millionenfach Salmonellen-erkrankungen hervorrufen. Von besonderer Bedeutung ist dabei Salmonella enterica serovar Typhimurium (hiernach Salmonella), welches im Menschen, meist durch mangelnde Hygienemaßnahmen, Gastroenteritis auslöst.
Immunität in Epithelzellen wird über das angeborene Immunsystem vermittelt und dient der Pathogenerkennung und -bekämpfung. Die Toll-like Rezeptoren (TLR) gehören zu den Mustererkennungsrezeptoren (pattern recognition receptors), welche spezifische mikrobielle Strukturen detektieren und eine kontextabhängige zelluläre Antwort generieren. Danger-Rezeptoren erkennen hingegen nicht direkt das Pathogen, sondern zelluläre Perturbationen, welche durch Zellschäden oder bakterielle Invasionen verursacht werden. Die intrinsische Fähigkeit der Wirtszelle, sich gegen Infektionen/Gefahren zu wehren wird dabei als zellautonome Immunität bezeichnet. Dabei nehmen induzierte proinflammatorische Signalwege und zelluläre Stressantworten eine wichtige Stellung ein. Die zelluläre Stressantwort aktiviert unter anderem die selektive Autophagie. Diese kann spezifisch aberrante Organelle, Proteine und invasive Pathogene abbauen. Ein weiterer Stresssignalweg ist die integrated stress response (ISR), welche eine selektive Proteintranslation erlaubt und damit die Auflösung des proteintoxischen Stresses ermöglicht.
Zur Penetration von Epithelzellen benötigt Salmonella ein komplexes System an Virulenzfaktoren, welches die bakterielle Internalisierung und Proliferation in der Wirtszelle ermöglicht. Salmonella nutzt dazu ein Typ-III-Sekretionssystem. Das System sekretiert bakterielle Virulenzfaktoren in die Zelle, sodass eine hochspezifische Modulierung des Wirtes erzwungen wird.
Die Virulenzfaktoren SopE und SopE2 spielen dabei eine Schlüsselrolle, da sie die Pathogenität von Salmonella maßgeblich vermitteln. Durch molekulare Mimikry von Wirts GTP (Guanosintriphosphat) -Austauschfaktoren aktivieren SopE und SopE2 die Rho GTPasen CDC42 und Rac1. GTP-geladenes CDC42 und Rac1 wiederum aktivieren das Aktinzytoskelett und stimulieren die Polymerisierung von Aktinfilamenten über den Arp2/3-Komplex an der Invasionsstelle. Das Pathogen wird dadurch in ein membranumhülltes Vesikel, die sogenannte Salmonella-containing Vakuole (SCV), aufgenommen. Die SCV stellt eine protektive, replikative, intrazelluläre Nische des Pathogens dar und wird permanent durch verschiedene Virulenzfaktoren moduliert.
Im Allgemeinen führt die Aktivierung von Mustererkennungsrezeptoren und Danger-Rezeptoren also zu einer zellulären Stressantwort und Entzündungsreaktion, wodurch es zur Bekämpfung der Infektion kommt. Inflammatorische Signalwege werden meist über den zentralen Transkriptionsfaktor NF-κB (nuclear factor 'kappa-light-chain-enhancer' of activated B-cells) vermittelt. NF-κB bewirkt die Induktion von proinflammatorischen Effektoren und Stressgenen. Zellautonome Immunität wird zusätzlich durch antibakterielle Autophagie ermöglicht, wobei Salmonella selektiv über das lysosomale System abgebaut werden. Das bakterielle Typ-III-Sekretionssystem verursacht an einigen wenigen SCVs Membranschäden, sodass Salmonella das Wirtszytosol penetrieren. Zytosolische Bakterien werden dabei spezifisch ubiquitiniert. Dies erlaubt die Erkennung durch die Autophagie-Maschinerie.
In der vorliegenden Arbeit wurde die zellautonome Immunität von Epithelzellen während einer akuten Salmonella Infektion durch quantitative Proteomik untersucht...
Die Arbeit thematisiert den postulierten Zusammenhang zwischen Informationstechnologie (IT) und gesellschaftlichem Wandel. Von Interesse ist hier, wie das Paradigma technologiegetriebenen Wandels in unterschiedlichen Gesellschaften aufgenommen wird. Grundlage der vorliegenden Ergebnisse sind ethnographische Forschungen zwischen 1999 und 2002 in der Republik Zypern (Nicosia), Kolumbien (Bogotá), Rumänien (Timisoara), Indien (Mumbai, Pune, Bangalore) und den Vereinigten Staaten (San Francisco, Silicon Valley). Es wurden insgesamt achtzig Experten im IT-Sektor als Mitglieder transnationaler Berufsgemeinschaften in Technologiezentren und Innovationsregionen unter einer vergleichenden Perspektive zur Bedeutung von IT für Wandel in ihren Gesellschaften befragt. Aus kulturanthropologischer Perspektive kann der Begriff Informationstechnologie als Teil eines dichten "konzeptionellen Feldes" betrachtet werden, ausgestattet mit "kulturellen Logiken", in denen Konzepte wie Modernität, Entwicklung und Fortschritt zentral sind. Experten machen Eingaben in "konzeptionelle Konfigurationen" von Informationstechnologie und können als Akteure an "kulturellen Schnittstellen" identifiziert werden, die kulturelle Diskurse über Informationstechnologie als Werkzeug zur gesellschaftlichen Restrukturierung herstellen und transportieren. Unter dem Ansatz von akteursgetriebenen Wandlungsdynamiken können sie als konstitutiv für die Erzeugung kultureller Logiken der Veränderung und der Erneuerung, und damit einer "Kultur des Wandels" gelten. Die Untersuchung versteht sich als Beitrag zum Wissensfortschritt in der Kulturanthropologie zur Analyse von gegenwärtigen Modernisierungs- und Entwicklungsprozessen in gegenwärtigen Gesellschaften unter der Perspektive von Transnationalisierung.
The book deals with a comprehensive constellation of narrative and visual, often counterposed representations of the causes, course, and results of the assault on the Palace of Justice of Colombia by a guerrilla commando and the immediate counterattack launched by state security forces on November 6, 1985, as well as with the local memorial traditions in which the production, circulation and reproduction of these representations have taken place between 1985 and 2020. The research on which it is based was grounded in the method and perspective of classical anthropology, in as much as qualitative fieldwork and the search for the perspective of the actors involved have played a central role. Within that context, memory entrepreneurs belonging to diverse sectors, from the far-right to the human rights movement, were followed through multisited fieldwork in various locations of Colombia, as well as in various countries of America and Europe. The analyses of fieldwork data, documental sources, and visual representations that constitute the core of the argument are framed in the field of memory studies and mainly based on theoretical and methodological resources from Pierre Bourdieu’s Field Theory, Jeffrey Alexander’s theory of social trauma, and Ernst Gombrich’s characterization of iconological analysis.
The book is composed of four chapters preceded by an introduction and followed by the conclusions and documental appendices, and substantiates three main theses. The first is that the Palace of Justice events were a radio- and television-broadcasted dispersed tragedy that affected the lives of actors from different social sectors and regions of Colombia, who have launched since 1985 multiple memorial initiatives in different fields of culture, thereby contributing to the formation and intergenerational transmission of a widespread cultural trauma. The second is that the narrative and visual representations at the core of that trauma express a vast universe of local representational traditions that can be traced at least until the early 20th century, and therefore preexists the so-called Colombian “memory boom”, dated to the mid-1990s. As an example of the preexistence and longstanding impact of these traditions, the local usage of the figure of “holocaust” for representing the effects of politically motivated violence is analyzed regarding the Palace of Justice events, but also traced to other representations emerged in the decade of 1920. The third thesis is that analyzing the diverse, frequently counterposed accounts of political violence elaborated within these traditions provides an opportunity to explore a wide variety of understandings of the causes and characteristics of the longstanding Colombian social and armed conflict.
Keywords: Political violence, Cultural trauma, Collective Memory, Iconology, Holocaust, Colombia.
Die vorliegende Arbeit beinhaltet die tierexperimentelle Evaluierung von zwei Fragestellungen innerhalb eines Tiermodels. a) Zum einen sollten die Möglichkeiten der vaskulären MR-gesteuerten Interventionen am Model der Carotis-PTA in vivo evaluiert und optimiert, und zum anderen b) die Auswirkungen von intrakraniellen CO2-Embolien bei Herzoperationen unter CO2-Protektion evaluiert werden. Insgesamt wurden an 22 Hausschweinen Gefäßinterventionen unter MRT-Kontrolle durchgeführt. Die Punktion der A. iliaca communis, als Voraussetzung für beide Fragestellungen erfolgte im Angiographieraum. Hier erfolgte auch die Positionierung der Interventionsmaterialien im Zielgefäß, der A. carotis communis. Über das Hybridsystem erfolgte der Transport in den MRT, in dem die unterschiedlichen Interventionsmaterialien getestet und die MRT-Sequenzen angepasst werden konnten. Im zweiten Teil der Arbeit wurden über einen in der A. carotis communis liegenden Katheter unterschiedliche Mengen CO2 oder Luft intracerebral appliziert. Durch eine Diffusionssequenz (DWI) konnten die hierdurch verursachten Effekte auf das Gehirngewebe beobachtet werden. Eine lokale hyperintense Zunahme in der DWI um mehr als 20% wurde als signifikant, in Bezug auf das Vorliegen einer Gehirnischämie bezeichnet. Im Rahmen der 22 Tierexperimente des interventionell, radiologischen Teils konnten die Interventionsmaterialien gut über die entwickelte Echtzeitsequenz dargestellt werden. Durch die Weiterentwicklung dieser Sequenz konnten letztendlich sowohl die Bewegungen, als auch die Öffnungsvorgänge der Ballonkatheter mittels Echtzeitbildgebung dargestellt werden. Darüber hinaus konnten Inteventionsmaterialien bezüglich ihrer Eignung für die MR-Angiographie bewertet werden. Unsere Studie konnte zeigen, dass Interventionen im Bereich der A.carotis communis unter MR-Kontrolle möglich sind. Dies gelingt bislang jedoch nur durch passive Darstellung der Intervenionsmaterialien durch deren Suszeptibilitätsartefakte. Allerdings bedarf es noch der Entwicklung von Interventionsmaterialien, hier vor allem Führungsdrähte, welche nicht magnetisch leitend sind um eine Gefährdung des Patienten auszuschließen. Im herzchirurgischen Teil konnten 16 Tiere eingeschlossen werden. Diese wurden je nach Aplikationsgas und -menge in 3 Gruppen unterteilt: Gruppe I: Gruppe II: Gruppe III: Bei allen Tieren wurden Signalanhebungen in der Diffusionssequenz in der ipsi- und kontralateralen Hemisphäre, deren Persistenz über 25 Minuten, sowie klinische Symptome registriert. Herauszustellen sind die deutlich unterschiedlichen klinischen Reaktionen der Gruppe I zu den Gruppen II und III in unserer Studie. Die Kreislaufreaktionen, die in der Gruppe I bei 4 von 5 Tieren bis zum Kreislaufstillstand reichten, wurden von deutlichen, bilateralen Signalveränderungen in der DWI begleitet. In diesen Fällen muss von einem irreversiblen, großen cerebralen Insult ausgegangen werden. Lediglich bei 2 von 11 Tieren der beiden CO2 Gruppen, waren die Signalanhebungen progredient und dehnten sich in den späten Messungen auch auf die kontralaterale Hemisphäre aus. Bei allen übrigen Tieren dieser Gruppen waren nur leichte Signalanhebungen nach 10 Minuten zu erkennen. Daraus ist zu schließen, dass mit keinen bleibenden Schädigungen der Gehirnzellen zu rechnen ist, da die Ischämiezeit deutlich unter 15 Minuten lag.
Im Vorfeld des 200jährigen Jubiläums der Expedition von Lewis & Clark (2003-2006) begannen auf der Standing Rock Indian Reservation auf der Grenze der US-Bundesstaaten North Dakota und South Dakota die Planungen für den Aus- bzw. Aufbau einer touristischen Infrastruktur auf der Reservation. Diese sollten bis zum Jahr 2004 weitgehend abgeschlossen sein sollte, um von den erwarteten drei Millionen Jubiläumsreisenden einerseits wirtschaftlich zu profitieren, andererseits diese aber auch inhaltlich und räumlich zu kontrollieren. Die Studie beschäftigt sich mit der Entwicklung bis 2004 und untersucht, welche Faktoren diese positiv und negativ beeinflussten. Dabei wird deutlich, dass die Tätigkeiten auf der Reservation nicht allein von internen, sondern vielmehr auch von externen Faktoren, wie beispielsweise den Tourismusbehörden der Bundesstaaten, der Nachbargemeinde Mobridge, South Dakota, der Tribal Tourism Partnership Initiative des United Tribes Technical College, abhängig waren. Zudem wirft die Studie einen Blick auf die Organisationsstruktur der Reservation, wo das stammeseigene College eine wichtige Rolle in der Wirtschaftsförderung spielt und die Tourismusplanungen in Gang gebracht hat.
Hintergrund. Die Achtung der individuellen Autonomie ist eines von vier medizinethischen Prinzipien, das im Kontext von Medizin und Forschung insbesondere in Bezug auf die informierte Einwilligung einer Person thematisiert wird. Menschen mit Demenz können aufgrund innerer oder äußerer Faktoren in ihrer Einwilligungsfähigkeit beeinträchtigt sein, was zu einer Einschränkung ihres Rechts auf Selbstbestimmung führen kann. Im diesbezüglichen Spannungsfeld zwischen Fürsorge und Autonomie soll Entscheidungsassistenz zur Ermöglichung selbstbestimmter Entscheidungen beitragen.
Zielrichtung der Arbeit. Ziel der vorliegenden Dissertation ist die Definition, Implementierung und Evaluation von Entscheidungsassistenzmaßnahmen für Menschen mit Demenz, um deren Autonomie in Entscheidungsprozessen zu unterstützen. Drei Teilprojekte umfassen die Ermittlung des internationalen Forschungsstands zu Entscheidungsassistenz bei Demenz, die Definition und Pilotierung von Unterstützungstools in der Praxis und die Analyse des individuellen Erlebens der vereinfachten Aufklärungsgespräche durch Menschen mit Demenz.
Methode. Im ersten Teilprojekt wurde eine am PRISMA-Standard orientierte systematische Literaturrecherche in Medline und PsycINFO durchgeführt. Die extrahierten relevanten Informationen wurden inhaltlich systematisiert. Aufbauend auf diesen Ergebnissen wurden im zweiten Teilprojekt konkrete Unterstützungstools definiert und in reale Aufklärungsgespräche (Lumbalpunktion) implementiert. Die Tools wurden in der Pilotierung in der Praxis sowie in einem iterativen Diskussionsprozess mit Experten weiterentwickelt. Im dritten Teilprojekt wurde das individuelle Erleben der Teilnehmer der vereinfachten Aufklärungsgespräche mittels problemzentrierter Interviews untersucht und die Daten einer qualitativen Inhaltsanalyse unterzogen.
Ergebnisse. Die Datenbankrecherche ergab initial 2348 Treffer. Nach Screenings der Titel, Abstracts und Volltexte konnten 11 Artikel eingeschlossen werden. Vier der eingeschlossenen Studien sind Interventionsstudien, die übrigen sieben qualitative Interviewstudien. Die identifizierten Unterstützungsmaßnahmen wurden zunächst den beiden Kategorien Interventionen und Strategien und anschließend unter Zuhilfenahme des Konzepts des Contextual Consents fünf komplexitätssteigernden Dimensionen einer Entscheidungssituation zugeordnet (individuelle, soziale, medizinische, informationelle und Folgendimension). Darauf aufbauend wurden im zweiten Teilprojekt acht Entscheidungsassistenzmaßnahmen abgeleitet: (1) Gesprächsstruktur, (2) Elaborierte klare Sprache, (3) Ambiente / Raumgestaltung, (4) Stichwortlisten, (5) Prioritätenkarten, (6) Visualisierung, (7) Vereinfachte schriftliche Einverständniserklärung sowie (8) Personenzentrierte Haltung des Entscheidungsassistenten (1-7: Tools, 8: Grundeinstellung). Die Tools zielen überwiegend auf eine Komplexitätsreduktion in der informationellen Dimension unter Berücksichtigung der fähigkeitsbezogenen und der bedürfnisbezogenen individuellen Dimension ab. Durch Anpassungen der Informationsdarbietung oder der kommunikativen Interaktion im Gespräch dienen sie mehrheitlich der Förderung des (Informations-) Verständnisses. Die Analyse der qualitativen Daten im dritten Teilprojekt zeigt, dass die Erfahrung der vereinfachten Aufklärungsgespräche durch drei übergreifende Themen gekennzeichnet ist. Die Kategorie Formalität versus Informationsgewinn illustriert die individuelle Bedeutung des Aufklärungsgesprächs für die Teilnehmer und deren Bewertung des Prozesses der informierten Einwilligung. Die Kategorie Wahrnehmung der Unterstützung skizziert die Bewertungen der angewandten Unterstützungstools durch die Teilnehmer. Die Kategorie Der Wahrheit ins Auge sehen müssen stellt dar, dass die erlebte Situation des vereinfachten Aufklärungsgesprächs wesentlich durch die Verdachtsdiagnose Demenz bestimmt ist, die im Rahmen aller Aufklärungsgespräche besprochen wurde.
Fazit. Bislang gibt es wenig empirische Forschung zu Entscheidungsassistenz für Menschen mit Demenz und Unterstützungsmaßnahmen werden überwiegend unsystematisch entwickelt und angewendet. Die Wirksamkeit einzelner Unterstützungsmaßnahmen kann aufgrund fehlender Interventionsstudien selten beurteilt werden. Unterstützungsmaßnahmen zielen überwiegend auf eine Komplexitätsreduktion in der Informationsdarbietung und im kommunikativen Interaktionsprozess ab, wobei sie kognitive Beeinträchtigungen und Interaktions-/ Entscheidungsbedürfnisse von Menschen mit Demenz berücksichtigen. Die definierten Tools können als erste konkret handhabbare Werkzeuge verstanden werden, die das strukturierte Leisten von Entscheidungsassistenz für Menschen mit Demenz erleichtern sollen. Sie sind übertragbar auf verschiedene Entscheidungssituationen. Eine Bewertung der Wirksamkeit der definierten Tools sollte in weiteren Entscheidungssituationen und mit größeren Stichproben weiteruntersucht werden. Die Ergebnisse der Evaluation liefern jedoch erste Hinweise darauf, dass einige Teilnehmer sich von einzelnen Tools unterstützt gefühlt haben und die anvisierte Komplexitätsreduktion in der informationellen Dimension in einigen Fällen erfolgreich war. Eine wesentliche Komplexitätssteigerung in der untersuchten Entscheidungssituation entstand durch die negative Emotionen auslösende Vermittlung einer potentiellen Demenzdiagnose (Folgendimension). Dieses Ergebnis impliziert, dass die definierte „verständnisfördernde Toolbox“ um Unterstützungsmaßnahmen zur emotionalen Entlastung von Menschen mit Demenz erweitert werden muss, da davon ausgegangen werden kann, dass vielfältige Entscheidungssituationen für Menschen mit Demenz emotional hoch belastend sind.
Die HAART hat einen Durchbruch in der Therapie der HIV-Infektion bewirkt und so zu einer drastischen Senkung der Mortalität und Morbidität geführt. Um diesen Ansprüchen weiterhin gerecht zu werden und sie bestenfalls zu übertreffen, erfordert eine ständige Weiterentwicklung der HAART mit neuen und ausgefeilteren Alternativen. Ein weiterer Schritt in diese Richtung ist die Entwicklung einer neuen Formulierung des Kombinationspräparates LPV/r (Kaletra®) von der „lipophilen Kapselform“ zur „hydrophilen Tablettenform“, aus der Wirkstoffgruppe der Proteasehemmer. Lopinavir (LPV) ist ein HIV-Proteasehemmer der mit Ritonavir (r oder RTV) als fixe Kombination (LPV/r) hergestellt wird. Der Proteasehemmer Ritonavir wird dabei in subtherapeutischer Dosierung als Booster verwendet, dadurch wird eine Verbesserung der pharmakokinetischen Eigenschaften erzielt. Der Vorteil hierbei sind die höheren Lopinavir-Plasmaspiegel die erreicht werden. Diese Kombination wird als Kaletra® (LPV/r) vermarktet.
LPV/r ist erhältlich als lipophile Kapselform (133,3/33,3mg) oder in Flüssigform (80/20mg pro ml). Beide erfordern eine kühle Lagerung und müssen mit einer fettreichen Mahlzeit eingenommen werden, um optimale Lopinavir Plasmaspiegel zu erzielen.
Durch das „Melt Extrusion (Meltrex)“ Produktionsverfahren gelang die Herstellung einer „hydrophilen Tabletteform“ (200/50mg und 100/25mg) mit verbesserter Bioverfügbarkeit. Dadurch reduzierte sich die einzunehmende Anzahl von 6 Kapseln pro Tag auf 4 Tabletten pro Tag. Zudem bedarf die LPV/r Tablette keiner Kühlung und kann nahrungsunabhängig eingenommen werden.
Ziel dieser Untersuchung war es zu prüfen, welche LPV/r (Kaletra®) Darreichungsform, Kapsel oder Tablette, in einer HAART von HIV-Patienten bevorzugt wird. Es sollte ermittelt werden, ob bei gleichbleibender Wirksamkeit kombiniert mit einer verbesserten Verträglichkeit und Handhabung (weniger Tabletten, nahrungsunabhängige Einnahme und keine Kühlung), die überwiegende Mehrzahl der HIV-Patienten sich zugunsten der LPV/r Tablette, im Sinne einer verbesserten Lebensqualität bzw. Gemütszustandes, entscheiden werden.
Dies geschah anhand einer prospektiven, nicht randomisierten Studie mit 238 HIV-infizierten Patienten, die über mindesten 16 Wochen oder länger eine LPV/r Kapsel haltige antiretrovirale Kombinationstherapie einnahmen und am Tag 0 auf LPV/r Tabletten umgestellt wurden, ohne weitere Änderungen in ihrer bisherigen HAART vorzunehmen. Der darauffolgende Beobachtungszeitraum betrug 32 Wochen. Es wurden Vorher-, Nachher-Fragebogen ausgefüllt und die Patienten unterzogen sich einer Vorher-, Nachher-Laboruntersuchung (CD4 und HI-Viruslast). Zudem wurde nach der subjektiven Präferenz gegenüber beiden Darreichungsformen (Kapsel oder Tablette) gefragt.
Zusammenfassend lässt sich sagen, dass unter der LPV/r Tablette bei gleichbleibender antiretroviraler Wirksamkeit, signifikant weniger intestinale Nebenwirkungen auftraten und daran geknüpft signifikant weniger Medikamente gegen intestinale Beschwerden eingenommen wurden. Was bei den Patienten zu einer deutlichen Präferenz der LPV/r-Tablette (71,2 %) gegenüber der LPV/r Kapsel (3,0 %) führte. Die Ergebnisse zu Lebensqualität zeigten zwar eine tendenzielle Besserung aber zusammen mit den Gemütszuständen ergaben sich hier keine signifikanten Unterschiede.
Nach der vorliegenden Untersuchung muss die LPV/r Tablette im Vergleich zur LPV/r-Kapsel, als die überlegene antiretrovirale Therapieoption in Betracht gezogen werden. Angesichts zahlreicher Einschränkungen durch die Infektion und die Notwendigkeit einer lebenslangen Therapie, kann dies, ein bedeutender Beitrag zur Therapietreue sein und dadurch den Erfolg einer HIV-Therapie wesentlich mitbestimmen.
Die Arbeit befasst sich auf dem Weg einer qualitativ empirischen Studie mit dem Thema „informelles Lernen“. Im Mittelpunkt steht die Erforschung der unterschiedlichen Phänomene informellen Lernens – der Lerninhalte, -formen und -modalitäten sowie die Bedeutung des Kontextes für diese Lernform. Darüber hinaus wird auf einer theoretischen Ebene eine Auseinandersetzung mit dem Diskurs um das informelle Lernen angestrebt. Neben einem Literaturbericht – dessen Ergebnis die theoretische wie empirische Unterbelichtung des informellen Lernens ist – wird nach einem systematischen Verständnis vom Lernen in informellen Kontexten gesucht. Im Fokus der Arbeit liegt aber die empirische Befassung mit dem Phänomen des informellen Lernens. Zu diesem Zweck wurden – verortet im Kontext eines kommunalen Wildtiermanagementprojektes – zweistufige Interviews sowie teilnehmende Beobachtungen durchgeführt und analysiert. Auf Basis dieser empirischen Daten konnten unterschiedliche Lernergebnisse und -formen informellen Lernens sowie unterschiedliche lernrelevante (Kontext-)Faktoren rekonstruiert werden. Darüber wurden spezifische Merkmale und Besonderheiten des Lernens in informellen Kontexten erarbeitet.
My study examined MMA training, and thereby the ‘back region’ of MMA, where the ‘everyday life’ of MMA takes place. I enquired into how MMA training corresponds with MMA’s self-description, namely the somehow self-contradicting notion that MMA fights would be dangerous combative goings-on of approximately real fighting, but that MMA fighters would be able to approach these incalculable and uncontrolla-ble combative dangers as calculable and controllable risks.235 Conducting an ethnog-raphy in which I focused on the combination of participation and observation, I stud-ied how the specific interaction organisations of the three core training practices of MMA training provide the training students with specific combative experiences and how they thereby construct the social reality that is MMA training....
Die in vivo MR-Protonenspektroskopie (1H-MRS) ist ein nichtinvasives Verfahren, das die Untersuchung biochemischer Substanzen beim Lebenden ermöglicht. In einer prospektiven Studie wurden Patienten, die an einer Demenz vom Alzheimer-Typ (DAT) litten, und altersentsprechende Probanden mit der 1H-MRS untersucht. Im Hirngewebe wurden Konzentrationen von Molekülen bestimmt, die Aussagen über die zelluläre Zusammensetzung ermöglichen. Das Hauptinteresse galt der Untersuchung von Glutamat und Glutamin, da ein Überangebot des Neurotransmitters Glutamat im synaptischen Spalt möglicherweise für die Neurodegeneration beim M. Alzheimer mitverantwortlich ist. Bei 29 Patienten mit einer DAT sowie 19 Probanden wurden zwei Volumina in Kortex und Marklager des Parietallappens bei 1,5 Tesla Magnetfeldstärke mit einer PRESS-Sequenz (TE = 22 ms, TR = 3 s) untersucht. Die Patienten waren kognitiv leicht bis mittelschwer beeinträchtigt (Mini Mental State Examination, MMSE, 11-27 Punkte). Die quantitative Auswertung der Spektren erfolgte nach der "phantom replacement method" mit dem Softwareprogramm LCModel. Als Kriterium für die Zuverlässigkeit der Konzentrationsangaben diente die vom Programm als %SD-Wert angegebene Auswertegenauigkeit der Einzelmessungen. Neben dem Glutamat- und Glutamingehalt wurden der Liquorgehalt im kortikalen Messvolumen und die Konzentrationen der Moleküle N-Acetyl-Aspartat und N-Acetyl-Aspartyl- Glutamat (tNAA), myo-Inositol (mI), Kreatin und Kreatinphosphat (tCr) sowie der cholinhaltigen Substanzen (tCh) bestimmt. Bei den Patienten konnten 25 aussagekräftige Spektren aus der Rindenregion und 19 aus dem Marklager des Parietallappens gemessen werden, bei den Probanden 17 Kortex- und 13 Marklager-Spektren. Glutamat und Glutamin können mit der in vivo-Spektroskopie wegen ihrer sich überlappenden Resonanzen nicht separat bestimmt werden und wurden deshalb als „Glx“ zusammengefasst. Der Glx-Gehalt betrug in der Rindenregion bei den Patienten im Durchschnitt 15,48 ± 5,15 mmol/l, bei den Probanden 13,98 ± 3,14 mmol/l. Die um 11% höhere Konzentration bei den Patienten war nicht signifikant. Die Glx-Konzentrationen im Marklager betrugen 8,16 ± 3,79 mmol/l bei den Patienten und 8,14 ± 3,71 mmol/l bei den Probanden. Nach dem Kriterium der %SD war die Zuverlässigkeit der Konzentrationsbestimmung von Glutamat und Glutamin eingeschränkt, was auf die protonenspektroskopischen Eigenschaften von Glutamat und Glutamin zurückzuführen ist. Sie erzeugen wegen ihrer gekoppelten Resonanzen breite und mehrgipflige Protonensignale, die wegen der resultierenden niedrigen Signalamplitude für LCModel von Makromolekülresonanzen oder von Artefakten, die durch ungenügende Wasserunterdrückung entstehen, schwierig abzugrenzen sind. Die %SD-Werte der Einzelmessungen von tNAA, mI, tCr und tCh waren gering, die Messergebnisse können daher als zuverlässig angesehen werden. Die tNAA-Konzentrationen in beiden Gruppen unterschieden sich weder in der grauen noch in der weißen Substanz signifikant voneinander. Im Hirnrindenvolumen zeigte sich bei den Patienten jedoch eine positive Korrelation von tNAA und MMSE-Ergebnis, also eine Reduktion von tNAA mit zunehmenden kognitiven Einbußen. Dies spricht für eine Abnahme des neuronalen Volumenanteils mit fortschreitender Erkrankung. Der durchschnittliche myo-Inositolgehalt im Marklagervolumen lag in der Patientengruppe um 20% höher als bei den Probanden. Der Unterschied erreichte jedoch kein Signifikanzniveau (p = 0,09). Im Rindenvolumen war die mittlere myo-Inositolkonzentration bei den Patienten um 7% höher als in der Kontrollgruppe, auch hier war der Unterschied nicht signifikant. Der nichtsignifikante myo-Inositolanstieg lässt sich als mäßige entzündliche oder reaktive Gliaproliferation interpretieren. Die tCr-Konzentrationen in beiden Gruppen unterschieden sich nicht, jedoch bestand bei den DAT-Patienten eine positive Korrelation des tCr-Gehalts mit der MMSE-Punktzahl in der grauen Substanz des Parietallappens, die Konzentration nahm also mit zunehmendem Schweregrad der Demenz ab. Bei der durchschnittlichen tCh-Konzentration bestanden keine Gruppenunterschiede in den untersuchten Regionen. Die Patienten wiesen eine signifikante Zunahme des mittleren Liquoranteils um 16% im kortikalen Volumen auf. Dies ist als kortikale Hirngewebeatrophie in frühen und mittleren Stadien der DAT zu werten. Während die in vivo-Konzentrationen von tNAA, mI, tCr und tCh zuverlässig bestimmt werden konnten, war die Messung von Glutamat und Glutamin bei 1,5 T mit technischen Schwierigkeiten verbunden. Wegen der hohen Standardabweichungen konnte aus dieser Untersuchung keine gesicherte Aussage zu einer möglichen Konzentrationsänderung dieser Aminosäuren bei der DAT abgeleitet werden. Es ist zu erwarten, dass hier durch MR-Geräte mit 3 T Feldstärke sowie durch den Einsatz der parallelen Bildgebung ein erheblich höheres Signal/Rausch-Verhältnis und damit genauere Ergebnisse erzielt werden können.
Ziel der Nachuntersuchung war es, 10 Jahres Ergebnisse nach arthroskopischer vorderer Kreuzbandplastik mittels Patellarsehne zu erhalten. Dafür wurden 74 Patienten, 55 Männer und 19 Frauen mit einem durchschnittlichen Alter von 38 Jahren im Mittel 113 Monaten nach arthroskopischer vorderer Kreuzbandplastik mit Interferenzschraubenfixation nachuntersucht. Evaluiert wurden die IKDC Evaluation, die Tegner - Aktivitätsskala und der Lysholm - Score. Die Bandstabilität wurde instrumentell mit dem Rolimeter getestet. Die statistische Auswertung erfolgte mittels c² Test. Die Tegner - Aktivitätsskala ergab ein durchschnittliches Aktivitätsniveau von 5,2. Vor der Verletzung lag der Wert bei 6,4. Der Lysholm - Score erreichte 93,6 von 100 Punkten. Hinsichtlich der Funktion wurden 74% und hinsichtlich der Stabilität 72% der Patienten in der IKDC Evaluation als normal bzw. als fast normal bewertet. Der mit dem Rolimeter bestimmte Lachman Test war in 88% normal und in 12% fast normal. Der pivot-shift Test war in 95% der Fälle negativ. 30% der Patienten zeigten in den Röntgenaufnahmen zum Nachuntersuchungszeitpunkt deutlich degenerative Veränderungen. Es ergibt sich eine signifikante Korrelation zwischen der Zeitdauer vom Unfall bis zur operativen Versorgung und dem Arthrosegrad. Die Beschwerden an der Transplantatentnahmestelle korrelieren signifikant mit den allgemeinen Symptomen. Das Ausmaß der Arthrose korreliert signifikant mit der Mensikusschädigung. Zur Vermeidung der Folgearthrose sollte daher bei gegebener Indikation eine frühzeitige Kreuzbandversorgung und im Falle der Begleitmeniskusverletzung dessen Erhalt mittels Refixation angestrebt werden.
The subject of this thesis is the experimental investigation of the neutron-capture cross sections of the neutron-rich, short-lived boron isotopes 13B and 14B, as they are thought to influence the rapid neutron-capture process (r process) nucleosynthesis in a neutrino-driven wind scenario.
The 13;14B(n,g)14;15B reactions were studied in inverse kinematics via Coulomb dissociation at the LAND/R3B setup (Reactions with Relativistic Radioactive Beams). A radioactive beam of 14;15B was produced via in-flight fragmentation and directed onto a lead-target at about 500 AMeV. The neutron breakup of the projectile within the electromagnetic field of the target nucleus was investigated in a kinematically complete measurement. All outgoing reaction products were detected and analyzed in order to reconstruct the excitation energy.
The differential Coulomb dissociation cross sections as a function of the excitation energy were obtained and first experimental constraints on the photoabsorption and the neutron-capture cross sections were deduced. The results were compared to theoretical approximations of the cross sections in question. The Coulomb dissociation cross section of 15B into 14B(g.s.) + n was determined to be s(15B;14B(g:s:)+n) CD = 81(8stat)(10syst) mb ; while the Coulomb dissociation cross section of 14B into a neutron and 13B in its ground state was found to be s(14B;13B(g:s:)+n) CD = 281(25stat)(43syst) mb: Furthermore, new information on the nuclear structure of 14B were achieved, as the spectral shape of the differential Coulomb dissociation cross section indicates a halolike structure of the nucleus.
Additionally, the Coulomb dissociation of 11Be was investigated and compared to previous measurements in order to verify the present analysis. The corresponding Coulomb dissociation cross section of 11Be into 10Be(g.s.) + n was found to be 450(40stat)(54syst ) mb, which is in good agreement with the results of Palit et al.
In einer prospektiven Studie wurden 68 Patienten mit Ersatz des vorderen und/oder hinteren Kreuzbands 2, 12, 24 Wochen, 1, 1,5 und 2 Jahre postoperativ kontrastmittelunterstützt magnetresonanztomographisch und klinisch untersucht, insgesamt wurden 160 MR-Untersuchungen durchgeführt. Sagittale, parasagittale und koronale Bilder wurden nativ mittels T1- und T2 gewichteter Spin Echo (SE) und Turbospinecho- (TSE) Sequenzen und nach Kontrastmittelgabe mit T1- und FS-Sequezen akquiriert. Die Resultate wurden mit den klinischen Untersuchungsergebnissen verglichen. Die Kriterien der MR-Auswertung umfassten die Morphologie, Signalintensität, das Kontrastmittelaufnahmeverhalten des Transplantates und Sekundärzeichen und der Vergleich mit den klinischen Untersuchungen einschließlich Stabilitäts- und Funktionstests entsprechend der Scores nach IKDC, OAK und Lysholm. Zwei Wochen postoperativ zeigten alle Kreuzbandtransplantate ein homogenes niedriges Signal in den T1 und T2 gewichteten SE Sequenzen, eine Unterscheidung zu den Signalen normaler Kreuzbänder sowie der verbliebenen Patellarsehne war nicht möglich. Innerhalb des ersten postoperativen Jahres konnte bei allen Patienten eine kontinuierliche Zunahme der Signalintensität und damit Inhomogenität des Bandersatzes beobachtet werden. Die Werte stiegen von 1,1a.u. auf 6,9 a.u. nach einem Jahr. Eine Beurteilung des Kreuzbandersatzes war nicht möglich. Im darauffolgenden postoperativen zweiten Jahr kam es zu einer Normalisierung des Signalintensitätsverhalten des Transplantates und somit zu einer besseren Abgrenzbarkeit (C/N=3,0). Alle Patienten wiesen postoperative einen unkomplizierten Verlauf mit klinisch stabilem Transplantat auf.
Lineare sowie zyklische 3-Alkylpyridinalkaloide sind vor allem in Schwämmen der Ordnung Haplosclerida, zu der auch Haliclona viscosa zählt, weit verbreitet. Die Synthese der zuvor von C. Volk isolierten Haliclamine C und D, des Viscosamins und des Viscosalin C bildete den Ausgangspunkt dieser Arbeit.[1-4] Sie erfolgte ausgehend von den bekannten Synthesen der Cyclostellettamine und Haliclamine[5-7] und gliedert sich in drei Abschnitte: erstens Synthese eines ω-Hydroxyalkylpyridins aus einem Bromalkohol, zweitens Funktionalisierung der Monomere in Abhängigkeit der gewählten Methode zur Di- bzw. Trimerisierung und drittens Verknüpfung und gegebenenfalls Zyklisierung. Durch Anwendung und Weiterentwicklung der bekannten Synthesewege wurden so insgesamt 14 lineare Monomere, zwei zyklische Monomere, 16 Cyclostellettamine, zwei Isocyclostellettamine, sieben Haliclamine, fünf Viscosaline sowie Viscosamin[8] und ein Analogon mit Heptylkette hergestellt. Dieser synthetische Zugang ermöglichte es, sowohl den finalen Strukturbeweis für die zuvor isolierten Verbindungen zu erbringen, als auch durch die Analyse der Fragmentierungs-muster von synthetischen und natürlichen Verbindungen mehr über das Verhalten dieser Verbindungen unter MS-Bedingungen zu erfahren. Die so gewonnenen Erkenntnisse führten dazu, dass drei unbekannte Verbindungen ohne Isolierung der Reinsubstanz mit einer Kombination von MS- und HPLC-Daten identifiziert werden konnten. So konnten das erste monozyklische 3-Alkylpyridinalkaloid marinen Ursprungs und zwei neue Haliclamine identifiziert und synthetisiert werden Des Weiteren gelang es, für die von C. Volk isolierten, jedoch nicht identifizierten Verbindungen Strukturen zu ermitteln bzw. auf Grund der MS-Daten Strukturvorschläge zu machen. Die durch den synthetischen Zugang große Anzahl verfügbarer 3-Alkylpyridinalkaloide ermöglichte außerdem eine systematische Untersuchung über den Zusammenhang von biologischer Aktivität und Struktur. Die Ergebnisse der am Helmholtz Institut für Infektionsforschung durchgeführten Experimente zu den antibakteriellen sowie cytotoxischen Eigenschaften von natürlichen wie auch rein synthetischen 3-Alkylpyridinalkaloiden zeigten, dass die Aktivität sich schon beim Addieren bzw. Subtrahieren einer Methylengruppe in einer Alkylkette signifikant ändert. [1] C. A. Volk, M. Köck, Org. Lett. 2003, 5, 3567-3569. [2] C. A. Volk, M. Köck, Org. Biomol. Chem. 2004, 2, 1827-1830. [3] C. A. Volk, H. Lippert, E. Lichte, M. Köck, Eur. J. Org. Chem. 2004, 3154-3158. [4] C. A. Volk, Dissertation, Johann Wolfgang Goethe Universität (Frankfurt am Main), 2004. [5] A. Grube, C. Timm, M. Köck, Eur. J. Org. Chem. 2006, 1285-1295 und Referenzen darin. [6] J. E. Baldwin, D. R. Spring, C. E. Atkinson, V. Lee, Tetrahedron 1998, 54, 13655-13680. [7] A. Kaiser, X. Billot, A. Gateau-Olesker, C. Marazano, B. C. Das, J. Am. Chem. Soc. 1998, 120, 8026-8034. [8] C. Timm, M. Köck, Synthesis 2006, 2580-2584.
Ziel der Studie: Die akute alkoholinduzierte Fettleber stellt das erste Stadium alkoholischer Leberer-krankungen dar. Bereits eine akute Alkoholintoxikation führt zu einer signifikanten Ak-kumulation von Fett in den Hepatozyten. Trotz verbesserter serologischer und bildge-bender Diagnoseverfahren ist die Leberbiopsie nach wie vor der Goldstandard zur Di-agnose einer Fettleber. Mögliche Komplikationen als invasives Verfahren, Stichproben-fehler sowie eine geringe Sensitivität im Bereich geringgradiger Verfettung sind die größten Nachteile der Leberbiopsie. Ziel dieser Studie war es, mit Hilfe der 1H-Magnetresonzspektroskopie eine akute alkoholinduzierte Fettleber zu diagnostizieren und quantitativ zu beurteilen. Um die Korrelation zwischen spektroskopisch gemesse-nem Leberfettgehalt und histologischer, biochemischer sowie laborchemischer Analyse zu bestimmen, wurde eine alkoholinduzierte Fettleber im Tiermodell verwendet.
Methodik: In 20 Lewis-Ratten wurde eine alkoholische Fettleber mittels gastraler Ethanol-Applikation induziert; 10 Ratten dienten als Kontrolle. Der intrahepatische Fettgehalt wurde mittels 1H-MRS (3.0 T) als prozentuales Verhältnis zwischen Lipid- und Was-ser-Peak berechnet. Fettgehalt sowie Triglyceride wurden nach Entnahme der Leber histologisch und biochemisch (nach FOLCH) bestimmt. Um spezifische Leberenzyme zu untersuchen, wurde Blut aus dem orbitalen Venenplexus entnommen.
Ergebnisse: In allen 20 Tieren konnte nach Ethanolapplikation eine Leberverfettung mittels 1H-MRS nachgewiesen werden. Histologisch zeigten 16 Tiere eine Fettleber. Ebenso zeigte sich nach Ethanolgabe und folgender biochemischer Analyse im Durschnitt eine Erhö-hung des Triglyceridgehalts, welcher einer Leberverfettung entsprach. Es fanden sich statistisch signifikante Korrelationen zwischen der histologisch bestimmten intrahepati-schen Verfettung und dem spektroskopisch gemessenen Fettgehalt (Pearson-Korrelationskoeffizient r = 0.90, p < 0.01) sowie zwischen der biochemischen Analyse nach FOLCH und 1H-MRS (r = 0.97, p < 0.01). Ebenso zeigte sich eine positive signifi-kante Korrelation zwischen spektroskopisch gemessener Leberverfettung und den Le-berparametern AST (r = 0.91, p < 0.05) und ALT (r = 0.84, p < 0.05).
Schlussfolgerung: Es konnte gezeigt werden, dass bereits geringgradige intrahepatische Verfettungen prä-zise quantitativ mittels 3.0 T-Protonen-MR-Spektroskopie darstellbar sind. Somit kann die Methode – bei Beachtung geeigneter Grenzwerte histologischer Messungen – als verlässliche diagnostische Alternative in Betracht gezogen werden. Bereits 48 Stunden nach Alkoholintoxikation ist mittels 1H-MRS eine exakte Differenzierung gesunder und pathologischer Lebern möglich – entscheidend vor allem im Rahmen einer Prätrans-plantationsdiagnostik bei Verdacht auf eine akute Fettleber. Darüber hinaus ist die 1H-MRS anderen bildgebenden Verfahren wie Ultraschall, CT und MRT in der genauen Quantifizierung intrahepatischen Fettgehalts überlegen. Der Einsatz erscheint auch in der Diagnostik und Verlaufskontrolle alkoholischer Lebererkrankungen in Zukunft sinnvoll. Kommende Untersuchung sollten an einem größeren Probandenkollektiv durchgeführt werden, um den Stellewert der 1H-MRS zu unterstreichen.
The Nodular lymphocyte-predominant Hodgkin lymphoma (NLPHL) as well as the T-cell/histiocyte-rich large B-cell lymphoma (THRLBCL) are rare types of malignant lymphomas. Both NLPHL and THRLBCL are frequently observed in middle-aged men with THRLBCL presenting frequently with an advanced Ann-Arbor stage with B-symptoms and associated with more aggressive courses.3 However, due to the limited number of tumor cells in the tissue of both NLPHL and THRLBCL, limited numbers of studies have been conducted on these lymphomas and current results are mainly based on general molecular genetic studies.
In order to obtain a better understanding for these disease forms as well as possible changes in their nuclear and cytoplasmatic sizes, the following study relied on the comparison of the different NLPHL forms and THRLBCL in terms of nuclear size and nuclear volume. This was carried out using both 2D and 3D analysis. During the 2D analysis of nuclear size and nuclear volume no significant differences could be presented between those groups. However, the 3D analysis of NLPHL and THRLBCL pointed out a slightly enlarged nuclear volume in THRLBCL. Furthermore, the analysis indicated a significantly increased cytoplasmatic size of THRLBCL compared to NLPHL forms. Nevertheless, differences occurred not only between the tumor cells of both disease forms, but also the T cells presented a larger nuclear volume in THRLBCL. B cells, which were considered as the control group, did not demonstrate any significant differences between the different groups. The presented results suggest an increased activity of T cells in THRLBCL, which is most likely to be interpreted as a response against the surrounding tumor cells and probably limits the proliferation of the tumor cells. Based on these results, the importance of 3D analysis is also evident due to the fact that it is clearly superior to 2D analysis. For a better understanding of both disease forms, it is therefore recommended to use the 3D technique in combination with molecular genetic analysis in future research.
Osteosynthesematerialien aus resorbierbaren Materialien finden aufgrund ihrer zunehmenden biomechanischen Stabilität eine immer höhere Akzeptanz. Die vorgelegte Untersuchung vergleicht die knöcherne und okklusale Stabilität von solchen Osteosynthesesystemen aus resorbierbaren Materialien im Vergleich mit konventionellen Titanminiplatten in der orthognathen Chirurgie. Untersucht wurden 100 Patienten in einem Nachsorgezeitraum von bis zu 4 Jahren. Die Beurteilung erfolgte klinisch und röntgenologisch anhand von Fernröntgen-Seiten-Aufnahmen. In die Studie gingen ein fünfzig Patienten, die mit resorbierbaren Platten versorgt worden waren, 16 davon mit Polylactid-Polyglycolid Copolymer Platten und 34 Patienten mit 70:30 Poly-L/DL-Lactid Copolymer Platten; fünfzig weitere Patienten, versorgt mit einem Titanminiplattensystem wurden als Kontrollgruppe gewertet. Zunächst konnte gezeigt werden, dass die Gruppen zueinander homogen waren, es unterschieden sich die effektiven intraoperativen Bewegungen von Studien und Kontrollgruppe statistisch nicht signifikant, gleiches galt im Vergleich der resorbierbaren Platten untereinander. Bei der Datenauswertung konnte nachgewiesen werden, dass die absolute und relative Instabilität weder zwischen den Studiengruppen noch der Kontrollgruppe noch zwischen den resorbierbaren Plattensystemen untereinander signifikant unterschiedlich war. Die postoperative 1-Jahres Stabilität unterschied sich dabei ebenfalls nicht signifikant von der 4-Jahres Stabilität. Alle untersuchten Osteosynthesesysteme zeigten im Oberkiefer eine höhere Stabilität als im Unterkiefer und gleichzeitig eine größere Stabilität in der anterior-posterioren Richtung als in der inferior-superioren Richtung. Es wurden keine signifikanten Unterschiede zwischen der klinischen Stabilität von PLGA oder P(L/DL)LA-Miniplatten gefunden. Allerdings konnte auch belegt werden, dass der Einsatz resorbierbarer Unterkieferosteosynthesen eine sehr gute Compliance des Patienten bezüglich geführter Okklusion und Nachsorge voraussetzte. Als nachteilig bei den resorbierbaren Systemen konnte sowohl für den Oberkiefer als auch für den Unterkiefer eine leicht erhöhte Mobilität bis zu 6 Wochen nach der Operation festgestellt werden, die jedoch in keinem Fall das operative Ergebnis beeinflusste. Vielmehr ermöglichten resorbierbare Osteosynthesen eine bessere postoperative okklusale Einstellung. Weiteren Nachteil der resorbierbaren Osteosynthesesysteme bedeuten die hohen Kosten, die heute noch weit über denen von Titanminiplatten liegen. Zukünftige Entwicklungen gehen dahin, das Plattendesign weiter zu optimieren, wie z.B. neuartige pinbasierte Fixationssysteme einzusetzen, wie sie in der Extremitätenchirurgie teils bereits benutzt werden. Fernziel für die Zukunft ist die Entwicklung eines resorbierbaren Osteosynthesesystems, das sich bei geringen Herstellungskosten und miniaturisiertem Plattendesign auch minimalinvasiv einbringen lässt.
Most elements heavier than iron are synthesized in stars during neutron capture reactions in the r- and s-process. The s-process nucleosynthesis is composed of the main and weak component. While the s-process is considered to be well understood, further investigations using nucleosynthesis simulations rely on measured neutron capture cross sections as crucial input parameters. Neutron capture cross sections
relevant for the s-process can be measured using various experimental methods. A prominent example is the activation method relying on the 7Li(p,n)7Be reaction as a neutron source, which has the advantage of high neutron intensities and is able to create a quasi-stellar neutron spectrum at kBT = 25 keV. Other neutron sources able to provide quasi-stellar spectra at different energies suffer from lower neutron intensities. Simulations using the PINO tool suggest the neutron activation of samples with different neutron spectra, provided by the 7Li(p,n)7Be reaction, and a subsequent linear combination of the obtained spectrum-averaged cross sections
to determine the Maxwellian-averaged cross section (MACS) at various energies of astrophysical relevance. To investigate the accuracy of the PINO tool at proton energies between the neutron emission threshold at Ep = 1880.4 keV and 2800 keV,
measurements of the 7Li(p,n)7Be neutron fields are presented, which were carried out at the PTB Ion Accelerator Facility at the Physikalisch-Technische Bundesanstalt in Braunschweig. The neutron fields of ten different proton energies were measured.
The presented neutron fields show a good agreement at proton energies Ep = 1887, 1897, 1907, 1912 and 2100 keV. For the other proton energies, E p = 2000, 2200, 2300, 2500, and 2800 keV, differences between measurement and simulation were found and discussed. The obtained results can be used to benchmark and adapt the PINO tool and provide crucial information for further improvement of the neutron activation method for astrophysics.
An application for the 7Li(p,n)7Be neutron fields is presented as an activation experiment campaign of gallium, an element that is mostly produced during the weak s-process in massive stars. The available cross section data for the 69,71Ga(n,γ)
reactions, mostly determined by activation measurements, show differences up toa factor of three. To improve the data situation, activation measurements were carried out using the 7Li(p,n)7Be reaction. The neutron capture cross sections for
a quasi-stellar neutron spectrum at kBT = 25 keV were determined for 69Ga and 71Ga.
Zusammenfassung der Dissertation "9,10-Dihydro-9,10-diboraanthracen: Ein neuartiges ditopes Hydroborierungsreagenz zum Aufbau photolumineszenter pi-konjugierter Organylborane" von Andreas Lorbach (2011) Borhaltige pi-konjugierte Verbindungen eignen sich u.a. als Chemosensoren zur Detektion von Lewis-Basen sowie als Materialien für optoelektronische Bauteile, wie z.B. organische Leuchtdioden. Vertreter dieser Substanzklasse sind Vinylborane, welche sich sehr effizient durch Addition von Hydroboranen an terminale Alkine erzeugen lassen. Diese Reaktivität nutzten Chujo et al. zum Aufbau pi-konjugierter Polymere, wobei sie Aryldiine mit sterisch anspruchsvollen Organylboranen RBH2 (R = 2,4,6-Trimethylphenyl; 2,4,6-Triisopropylphenyl; 1,1,2-Trimethylpropyl) umsetzten. Zur Detektion von Lewis-Basen sind sterisch weniger anspruchsvolle Substituenten R, die einen freien Zugang zum Boratom ermöglichen, von Vorteil. Untersuchungen unserer Arbeitsgruppe haben jedoch gezeigt, dass sich die entsprechenden Organylborane RBH2 nicht als Hydroborierungsreagenzien eignen, da sie stattdessen unter Abspaltung von Diboran spontan zu Diorganylboranen kondensieren. Im Rahmen der vorliegenden Arbeit wurde gezeigt, dass sich diese unerwünschte Substituentenübertragung durch Einbindung des Borzentrums in ein cyclisches Molekülgerüst verhindern lässt und 9,10-Dihydro-9,10-diboraanthracen (1) somit ein isolierbares ditopes Hydroboran darstellt. Mittels eines in dieser Dissertation entwickelten dreistufigen Synthesewegs kann 1 in guten Ausbeuten aus 1,2-Dibrombenzol gewonnen werden. Im Festkörper bildet 1 eine polymere supramolekulare Struktur [1]n aus, in der die 9,10-Dihydro-9,10-diboraanthracen-Einheiten über 2-Elektronen-3-Zentren-BHB-Bindungen miteinander verknüpft sind. Durch Umsetzung von schwerlöslichem [1]n mit Dimethylsulfid lässt sich das supramolekulare Aggregat aufbrechen und man erhält das lösliche Addukt 1(Me2S)2, das als kristallines Material in hoher Reinheit isoliert werden kann. Bei 1(Me2S)2 handelt es sich um ein hervorragendes Hydroborierungsreagenz, welches bei Raumtemperatur mit terminalen Alkinen zu den entsprechenden Vinylboranen reagiert. Aus 1 lassen sich mit Diethinylarenen außerdem lumineszente pi-konjugierte Hydroborierungspolymere erzeugen. Die Umsetzung mit bidentaten Lewis-Basen, wie z.B. Pyridazin, führt zu sehr stabilen symmetrischen Addukten, in denen die Base die beiden aziden Borzentren des Diboraanthracens verbrückt. Um einen Einblick in die elektronischen Eigenschaften des 9,10-Dihydro-9,10-diboraanthracens (1) zu erhalten, wurde im Rahmen der vorliegenden Arbeit das zu Anthracen isoelektronische dianionische Diborataanthracen ([1]2-) isoliert und hinsichtlich seiner Festkörperstruktur und Reaktivität untersucht.
Die eingereichte Dissertation liefert fundamentale Erkenntnisse zur Chemie nucleophiler Borzentren, die unter B•B-, B–B- und B=B-Bindungsbildungen reagieren. Zusammen mit den aufgedeckten Prinzipien zu (e–)-induzierten Umlagerungen des 9-Borafluorengrundgerüsts und Übertragungen von Hydridionen liegt nun ein umfassendes mechanistisches Wissen vor, das die effiziente Synthese neuartiger Moleküle ermöglicht. Im Folgenden ist eine Übersicht über bearbeitete Teilprojekte gegeben.
Durch Reduktion des Bis(9-borafluorenyl)methans 7 wurde über [7•]– (B•B-Einelektron-Zweizentrenbindung) und [7]2– (B–B-Zweielektronen-Zweizentrenbindung) das Tetraanion [7]4– dargestellt, das bei Zugabe von Elektrophilen unter Oxidation reagiert.
Die Injektion von Elektronen in das B(µ-H)2B dotierte Dibenzo[g,p]chrysen 12 führt in Abhängigkeit der Natur und der Stöchiometrie des eingesetzten Reduktionsmittels zu unterschiedlichen Hauptprodukten (bordotierte Dibenzo[g,p]chrysen- oder 9,9‘-Bifluorenylgrundkörper) mit verschiedenen Bindungsmodi (B–B-, B=B- oder (µ-H)B-B-Bindungen), deren Entstehung mechanistisch über Gerüstumlagerungen und Hydridübertragungen dargelegt wurde.
Durch die Zugabe etherischer HCl kann die B=B-Bindung in [37]2– quantitativ zu [116]– [(µ-H)B–B] oder 12 (B(µ-H)2B) protoniert werden. Umgekehrt lässt sich das scheinbar hydridische Diboran 12 durch sterisch anspruchsvolle Basen selektiv zu [116]– deprotonieren. Die kleine Base H3CLi führt neben der Deprotonierung von 12 auch zu einem Bis(9-borafluorenyl)methan, das ein verbrückendes Hydridion trägt ([125]–). Der Mechanismus wurde detailliert untersucht (z. B. wurde eine C–H-Aktivierung aufgeklärt), was u. a. genutzt werden konnte, um einen atomökonomischen Pfad von [37]2– zu [125]– zu etablieren.
Die Intermediate [132Cn,X]– (formale Addukte eines 9-Borafluorenyl-Anions an borständig substituierte 9-Borafluorene), gebildet durch die Zugabe von Halogenalkanen zu [37]2–, reagieren in Abhängigkeit der borständigen Alkylkette unter: (i) intramolekularer C–H-Aktivierung, (ii) intramolekularer Substitutionen oder (iii) intermolekularer Substitution.
Die Reduktion des 9-Borafluorens 6∙THF mit Lithium erzeugt das B=B-gebundene Dibenzo[g,p]chrysen-Dianion [37]2–, das 9-Borafluoren-Dianion [6]2–, das 9,9-Dihydroboratafluoren [34]– und das tetraanionische Bis(9-borafluorenyl) [146]4–.
Das 9-Borafluoren-Dianion [6]2–, das durch Reduktion von 6∙THF bei –78 °C mit Alkalimetallen selektiv dargestellt wurde, reagiert als formales Nucleophil. Über eine Reaktionskaskade gelang die selektive Synthese unterschiedlicher Produkte, die bei der literaturbekannten Reduktion des unsymmetrischen 9-Borafluoren-Dimers (6)2 mit Lithium in Toluol in Gegenwart von Et3SiBr beschrieben wurden. Hierüber konnte u. a. die Bildung eines organischen Derivats von [B3H8]– erklärt werden.
Das Philadelphia-Chromosom (Ph) ist das zytogenetische Korrelat der Translokation t(9;22). 95% der chronisch myeloischen Leukämien (CML) und 20-25% der akuten lymphatischen Leukämien (ALL) des Erwachsenen sind Ph-positiv (Ph+). Bei der t(9;22) kommt es zur Fusion des abl -locus auf Chromosom 9 und des bcr-locus auf Chromosom 22. Dies führt zur Bildung des chimären bcr/abl Gens, welches für das BCR/ABL Fusionsprotein kodiert, das für die Pathogenese der Ph+ Leukämien verantwortlich gemacht wird. Das ABL-Protein ist eine nicht-Rezeptor Tyrosinkinase, die eine wichtige Rolle in der Signaltransduktion und der Regulation des Zellwachstums spielt. Im BCR/ABL-Fusionsprotein wird die Kinase-Aktivität von ABL, die im Normalfall streng reguliert ist, durch die Fusion mit BCR konstitutiv, das heißt andauernd, aktiviert. Dadurch kommt es zur Deregulierung vielfältiger intrazellulärer Signalwege, was die maligne Transformation hämopoetischer Zellen zur Folge hat. Mit dem spezifischen ABL-Kinaseinhibitor Imatinib steht seit wenigen Jahren ein tumorzellspezifischer Wirkstoff für die Therapie der Ph+ Leukämien zur Verfügung, der bei der Mehrzahl der Patienten zur hämatologischen Vollremission führt. Insbesondere bei Patienten mit CML-Blastenkrise und Ph+ ALL kommt es durch klonale Expansion Imatinib-resistenter Zellen jedoch zu einem frühen Therapie-refraktären Rezidiv der Krankheit. Aufgrund der Problematik Imatinib-resistenter Rezidive wurden und werden "Nachfolger" von Imatinib mit dem Ziel entwickelt, die hohe Spezifität beizubehalten und wesentlich höhere Affinitäten zu erreichen. Derzeit befinden sich vielversprechende Substanzen in klinischen Studien: Nilotinib (Nilotinib, Novartis, Basel) ist ein spezificher ABL-Kinase Inhibitor der eine ca. 20-mal höhere Affinität gegenüber BCR/ABL hat als Imatinib. Dasatinib (BMS-354825, Bristol-Myers Squibb; New York) hat eine 325-fach höhere Affinität als Imatinib und wurde ursprünglich als Src-Kinase Inhibitor entwickelt. Die sehr hohe Affinität für die ABL-Kinase wurde erst später festgestellt (O'Hare et al., 2005b). Bei beiden Substanzen konnte eine Wirksamkeit auf die meisten klinisch relevanten Imatinib-resistenten BCR/ABL-Mutationen gezeigt werden (O'Hare et al., 2005b). Die Mutation T315I bildet die wichtigste Ausnahme. Ziel dieser Arbeit war es, die Grundlagen für neue, tumorzellspezifiche Therapiestrategien für die Behandlung BCR/ABL-positiver Leukämien, sowie deren imatinibresistenten Mutationen zu legen. Die Oligomerisierung spielt für die Aktivierung von BCR/ABL eine grundlegende Rolle und wird durch die N-terminale BCR-coiled-coil Region vermittelt. In unserer Arbeitsgruppe konnte eindeutig gezeigt werden, dass die Oligomerisierungsdomäne von BCR/ABL ein therapeutischer Angriffspunkt für ein kleines Peptid, der Helix-2, für die Behandlung Ph+ Leukämien darstellt. Der Einfluss der Helix-2 auf die Oligomerisierung des BCR/ABL Wildtyps und der damit verbundenen Sensitivitätssteigerung gegenüber Imatinib wurde in unserer Arbeitsgruppe genauestens untersucht und führte zu folgender Fragestellung: Welchen Einfluss hat die Helix-2 auf BCR/ABL Mutationen? Inwieweit ist es möglich die Imatinibresistenz bestimmter Mutationen durch Helix-2 Peptide zu vermindern oder zu überwinden? Welchen Einfluss hat die Helix-2 auf die Wirkung des Kinaseinhibitors Dasatinib verglichen mit Imatinib? Von den drei ausgewählten Punktmutationen Y253F, E255K und T315I war es bei zweien, nämlich den Mutationen Y253F und E255K, möglich die Imatinibresistenz nach Einbringen der Helix-2 in die Zellen zu überwinden. In Gegenwart von Dasatinib konnte durch die Helix-2 Peptide keine Sensitivitätssteigerung erreicht werden. Dies ist durch das verschieben des Gleichgewichtes von der aktiven hin zur inaktiven Konformation der ABL-Kinase durch die Helix-2 Peptide und durch die unterschiedlichen Angriffspunkte der zwei Tyrosinkinaseinhibitoren zu erklären. So bindet Dasatinib an der aktiven ABL-Kinase, Imatinib an der inaktiven ABL-Kinase. Die Mutation T315I warf durch ihre Resistenz gegenüber den Helix-2 Peptiden und ihrer Unabhängigkeit von der Tyrosinkinaseaktivität, eine neue Fragestellung bezüglich ihrer Arbeitsweise auf, welche im zweiten Teil dieser Arbeit untersucht wurde: Ist die 185(BCR=ABL)-T315I Mutation unabhängig von ihrer Tyrosinkinaseaktivität? Um dieser Fragestellung nach zu gehen untersuchten wir das Transformationpotential von unmutiertem p185(BCR=ABL) Deletionsmutanten, denen die Oligomerisierungsdomäne, die Coiled-Coil Domäne fehlt, und deren dazugehörigen Mutationen Y253F, E255K und T315I, denen ebenfalls die CC-Domäne fehlt. Nach Analyse aller Ergebnisse zeigte sich, dass die Mutation T315I in allen Versuchen eine Ausnahme darstellte und in allen Zellsystemen trotz fehlender CC-Domäne in der Lage ist die Zellen zu transformieren. Diese Tatsache beweist, dass die Mutation T315I unabhängig von ihrer Tyrosinkinaseaktivität das Potential zur Transformation besitzt. Die weitere Untersuchung dieser Mutation und ihrer Arbeitsweise könnte in Zukuft neue Wege aufweisen um die Aktivität dieser Mutation anzugreifen und therapeutisch gegen sie vorzugehen.
In this work the flexibility requirements of a highly renewable European electricity network that has to cover fluctuations of wind and solar power generation on different temporal and spatial scales are studied. Cost optimal ways to do so are analysed that include optimal distribution of the infrastructure, large scale transmission, storage, and dispatchable generators. In order to examine these issues, a model of increasing sophistication is built, first considering different flexibility classes of conventional generation, then adding storage, before finally considering transmission to see the effects of each.
To conclude, in this work it was shown that slowly flexible base load generators can only be used in energy systems with renewable shares of less than 50%, independent of the expansion of an interconnecting transmission network within Europe. Furthermore, for a system with a dominant fraction of renewable generation, highly flexible generators are essentially the only necessary class of backup generators. The total backup capacity can only be decreased significantly if interconnecting transmission is allowed, clearly favouring a European-wide energy network. These results are independent of the complexity level of the cost assumptions used for the models. The use of storage technologies allows to reduce the required conventional backup capacity further. This highlights the importance of including additional technologies into the energy system that provide flexibility to balance fluctuations caused by the renewable energy sources. These technologies could for example be advanced energy storage systems, interconnecting transmission in the electricity network, and hydro power plants.
It was demonstrated that a cost optimal European electricity system with almost 100% renewable generation can have total system costs comparable to today's system cost. However, this requires a very large transmission grid expansion to nine times the line volume of the present-day system. Limiting transmission increases the system cost by up to a third, however, a compromise grid with four times today's line volume already locks in most of the cost benefits. Therefore, it is very clear that by increasing the pan-European network connectivity, a cost efficient inclusion of renewable energies can be achieved, which is strongly needed to reach current climate change prevention goals.
It was also shown that a similarly cost efficient, highly renewable European electricity system can be achieved that considers a wide range of additional policy constraints and plausible changes of economic parameters.
A framework for the analysis and visualization of multielectrode spike trains / von Ovidiu F. Jurjut
(2009)
The brain is a highly distributed system of constantly interacting neurons. Understanding how it gives rise to our subjective experiences and perceptions depends largely on understanding the neuronal mechanisms of information processing. These mechanisms are still poorly understood and a matter of ongoing debate remains the timescale on which the coding process evolves. Recently, multielectrode recordings of neuronal activity have begun to contribute substantially to elucidating how information coding is implemented in brain circuits. Unfortunately, analysis and interpretation of multielectrode data is often difficult because of their complexity and large volume. Here we propose a framework that enables the efficient analysis and visualization of multielectrode spiking data. First, using self-organizing maps, we identified reoccurring multi-neuronal spike patterns that evolve on various timescales. Second, we developed a color-based visualization technique for these patterns. They were mapped onto a three-dimensional color space based on their reciprocal similarities, i.e., similar patterns were assigned similar colors. This innovative representation enables a quick and comprehensive inspection of spiking data and provides a qualitative description of pattern distribution across entire datasets. Third, we quantified the observed pattern expression motifs and we investigated their contribution to the encoding of stimulus-related information. An emphasis was on the timescale on which patterns evolve, covering the temporal scales from synchrony up to mean firing rate. Using our multi-neuronal analysis framework, we investigated data recorded from the primary visual cortex of anesthetized cats. We found that cortical responses to dynamic stimuli are best described as successions of multi-neuronal activation patterns, i.e., trajectories in a multidimensional pattern space. Patterns that encode stimulus-specific information are not confined to a single timescale but can span a broad range of timescales, which are tightly related to the temporal dynamics of the stimuli. Therefore, the strict separation between synchrony and mean firing rate is somewhat artificial as these two represent only extreme cases of a continuum of timescales that are expressed in cortical dynamics. Results also indicate that timescales consistent with the time constants of neuronal membranes and fast synaptic transmission (~10-20 ms) appear to play a particularly salient role in coding, as patterns evolving on these timescales seem to be involved in the representation of stimuli with both slow and fast temporal dynamics.
The fungal interaction with plants is a 400 million years old phenomenon, which presumably assisted in the plants’ establishment on land. In a natural ecosystem, all plant-ranging from large trees to sea-grasses-are colonized by fungal endophytes, which can be detected inter- and intracellularly within the tissues of apparently healthy plants, without causing obvious negative effects on their host. These ubiquitous and diverse microorganisms are likely playing important roles in plant fitness and development. However, the knowledge on the ecological functions of fungal root endophytes is scarce. Among possible functions of endophytes, they are implicated in mutualisms with plants, which may increase plant resistance to biotic stressors like herbivores and pathogens, and/or to abiotic factors like soil salinity and drought. Also, endophytes are fascinating microorganisms in regard to their high potential to produce a great spectrum of secondary metabolites with expected ecological functions. However, evidences suggest that the interactions between host plants and endophytes are not static and endophytes express different symbiotic lifestyles ranging from mutualism to parasitism, which makes difficult to predict the ecological roles of these cryptic microorganisms. To reveal the ecological function of fungal root endophytes, this doctoral thesis aims at assessing fungal root endophytes interactions with different plants and their effects on plant fitness, based on their phylogeny, traits, and competition potential in settings encompassing different abiotic contexts. To understand the cryptic implication of nonmycorrhizal endophytes in ecosystem processes, we isolated a diverse spectrum of fungal endophytes from roots of several plant species growing in different natural contexts and tested their effects on different model plants under axenic laboratory conditions. Additionally,we aimed at investigating the effect of abiotic and biotic variables on the outcome of interactions between fungal root endophytes and plants.
In summary, the morphological and physiological traits of 128 fungal endophyte strains within ten fungal orders were studied and artificial experimental systems were used to reproduce their interactions with three plant species under laboratory conditions. Under defined axenic conditions, most endophytes behaved as weak parasites, but their performance varied across plant species and fungal taxa. The variation in the interactions was partly explained by convergent fungal traits that separate groups of endophytes with potentially different niche preferences. According to my findings, I predict that the functional complementarity of strains is essential in structuring natural root endophytic communities. Additionally, the responses of plant-endophyte interactions to different abiotic factors, namely nutrient availability, light intensity, and substrate’s pH, indicate that the outcome of plant-fungus relationships may be robust to changes in the abiotic environment. The assessment of the responses of plant endophyte interactions to biotic context, as combinations of selected dominant root fungal endophytes with different degrees of trait similarity and shared evolutionary history, indicates that frequently coexisting root-colonizing fungi may avoid competition in inter-specific interactions by occupying specific niches, and that their interactions likely define the structure of root-associated fungal communities and influence the microbiome impacts on plant fitness.
In conclusion, my findings suggest that dominant fungal lineages display different ecological preferences and complementary sets of functional traits, with different niche preferences within root tissues to avoid competition. Also, their diverse effects on plant fitness is likely host-isolate dependent and robust to changes in the abiotic environment when these encompass the tolerance range of either symbiont.
The experiments presented in my thesis were performed to resolve the following major questions: i. Initial experiments are based on the systematic characterization of the C-terminal domains of all 21 HSFs of Arabidopsis with respect to their transactivation potential as well as intracellular localization. This led to the identification of a signature motif for class A HSFs, that consists of an AHA motif (essential for activator potential), and a C-treminal NES (nuclear export signal). With this signature motif, we could identify homologues sequences of more than 90 HSFs in various plant species. ii. Analysis of developmental expression profiles of HSFs using AtGenExpress microarray data led to the identification of the unique expression of HsfA9 during late seed developmental stages. This was the starting point for the investigation of the regulation of HsfA9 as well as its function during seed development. iii. The seed specific transcription factor ABI3 was identified to be responsible for the regulation of HsfA9 by using knock out mutant lines and ectopically expressing transgenic lines for ABI3 gene. Furthermore, the importance of a RY/Sph motif, as binding site for ABI3 on HsfA9 promoter has been analyzed with transient GUS reporter assays. In addition, contribution of component(s) of ABA (abscisic acid) signaling cascade as a functional interacting partner of ABI3 on HsfA9 promoter has been shown and discussed. iv. The essential role of HsfA9 as master regulator for the expression of seed specific members of of HSP encoding genes and GolS1 was shown by analyzing transgenic plants ectopically expressing HsfA9 as well as, by carrying out transient GUS reporter assays. Correlating with this, transgenic plants with ectopic expression of HsfA9 showed a thermotolerent phenotype. Furthermore, a model where HsfA9 plays a key function for the regulation of seed expressed genes which might involved in providing dessication tolerance during seed maturation has been proposed.
A fundamental work on THz measurement techniques for application to steel manufacturing processes
(2004)
The terahertz (THz) waves had not been obtained except by a huge system, such as a free electron laser, until an invention of a photo-mixing technique at Bell laboratory in 1984 [1]. The first method using the Auston switch could generate up to 1 THz [2]. After then, as a result of some efforts for extending the frequency limit, a combination of antennas for the generation and the detection reached several THz [3, 4]. This technique has developed, so far, with taking a form of filling up the so-called THz gap . At the same time, a lot of researches have been trying to increase the output power as well [5-7]. In the 1990s, a big advantage in the frequency band was brought by non-linear optical methods [8-11]. The technique led to drastically expand the frequency region and recently to realize a measurement up to 41 THz [12]. On the other hand, some efforts have yielded new generation and detection methods from other approaches, a CW-THz as well as the pulse generation [13-19]. Especially, a THz luminescence and a laser, originated in a research on the Bloch oscillator, are recently generated from a quantum cascade structure, even at an only low temperature of 60 K [20-22]. This research attracts a lot of attention, because it would be a breakthrough for the THz technique to become widespread into industrial area as well as research, in a point of low costs and easier operations. It is naturally thought that a technology of short pulse lasers has helped the THz field to be developed. As a background of an appearance of a stable Ti:sapphire laser and a high power chirped pulse amplification (CPA) laser, instead of a dye laser, a lot of concentration on the techniques of a pulse compression and amplification have been done. [23] Viewed from an application side, the THz technique has come into the limelight as a promising measurement method. A discovery of absorption peaks of a protein and a DNA in the THz region is promoting to put the technique into practice in the field of medicine and pharmaceutical science from several years ago [24-27]. It is also known that some absorption of light polar-molecules exist in the region, therefore, some ideas of gas and water content monitoring in the chemical and the food industries are proposed [28-32]. Furthermore, a lot of reports, such as measurements of carrier distribution in semiconductors, refractive index of a thin film and an object shape as radar, indicate that this technique would have a wide range of application [33-37]. I believe that it is worth challenging to apply it into the steel-making industry, due to its unique advantages. The THz wavelength of 30-300 ¼m can cope with both independence of a surface roughness of steel products and a detection with a sub-millimeter precision, for a remote surface inspection. There is also a possibility that it can measure thickness or dielectric constants of relatively high conductive materials, because of a high permeability against non-polar dielectric materials, short pulse detection and with a high signal-to-noise ratio of 103-5. Furthermore, there is a possibility that it could be applicable to a measurement at high temperature, for less influence by a thermal radiation, compared with the visible and infrared light. These ideas have motivated me to start this THz work.
This dissertation is devoted to the study of thermodynamics for quantum gauge theories.The poor convergence of quantum field theory at finite temperature has been the main obstacle in the practical applications of thermal QCD for decades. In this dissertation I apply hard-thermal-loop perturbation theory, which is a gauge-invariant reorganization of the conventional perturbative expansion for quantum gauge theories to the thermodynamics of QED and Yang-Mills theory to three-loop order. For the Abelian case, I present a calculation of the free energy of a hot gas of electrons and photons by expanding in a power series in mD/T, mf /T and e2, where mD and mf are the photon and electron thermal masses, respectively, and e is the coupling constant.I demonstrate that the hard-thermal-loop perturbation reorganization improves the convergence of the successive approximations to the QED free energy at large coupling, e ~ 2. For the non-Abelian case, I present a calculation of the free energy of a hot gas of gluons by expanding in a power series in mD/T and g2, where mD is the gluon thermal mass and g is the coupling constant. I show that at three-loop order hard-thermal-loop perturbation theory is compatible with lattice results for the pressure, energy density, and entropy down to temperatures T ~ 2 - 3 Tc. The results suggest that HTLpt provides a systematic framework that can be used to calculate static and dynamic quantities for temperatures relevant at LHC.
I derive a general effective theory for hot and/or dense quark matter. After introducing general projection operators for hard and soft quark and gluon degrees of freedom, I explicitly compute the functional integral for the hard quark and gluon modes in the QCD partition function. Upon appropriate choices for the projection operators one recovers various well-known effective theories such as the Hard Thermal Loop/ Hard Dense Loop Effective Theories as well as the High Density Effective Theory by Hong and Schaefer. I then apply the effective theory to cold and dense quark matter and show how it can be utilized to simplify the weak-coupling solution of the color-superconducting gap equation. In general, one considers as relevant quark degrees of freedom those within a thin layer of width 2 Lambda_q around the Fermi surface and as relevant gluon degrees of freedom those with 3-momenta less than Lambda_gl. It turns out that it is necessary to choose Lambda_q << Lambda_gl, i.e., scattering of quarks along the Fermi surface is the dominant process. Moreover, this special choice of the two cutoff parameters Lambda_q and Lambda_gl facilitates the power-counting of the numerous contributions in the gap-equation. In addition, it is demonstrated that both the energy and the momentum dependence of the gap function has to be treated self-consistently in order to determine the imaginary part of the gap function. For quarks close to the Fermi surface the imaginary part is calculated explicitly and shown to be of sub-subleading order in the gap equation.
‘The whole is more than the sum of its parts.’ This idea has been brought forward by psychologists such as Max Wertheimer who formulated Gestalt laws that describe our perception. One law is that of collinearity: elements that correspond in their local orientation to their global axis of alignment form a collinear line, compared to a noncollinear line where local and global orientations are orthogonal. Psychophysical studies revealed a perceptual advantage for collinear over non-collinear stimulus context. It was suggested that this behavioral finding could be related to underlying neuronal mechanisms already in the primary visual cortex (V1). Studies have shown that neurons in V1 are linked according to a common fate: cells responding to collinearly aligned contours are predominantly interconnected by anisotropic long-range lateral connections. In the cat, the same holds true for visual interhemispheric connections. In the present study we aimed to test how the perceptual advantage of a collinear line is reflected in the anatomical properties within or between the two primary visual cortices. We applied two neurophysiological methods, electrode and optical recording, and reversibly deactivated the topographically corresponding contralateral region by cooling in eight anesthetized cats. In electrophysiology experiments our results revealed that influences by stimulus context significantly depend on a unit’s orientation preference. Vertical preferring units had on average a higher spike rate for collinear over non-collinear context. Horizontal preferring units showed the opposite result. Optical imaging experiments confirmed these findings for cortical areas assigned to vertical orientation preference. Further, when deactivating the contralateral region the spike rate for horizontal preferring units in the intact hemisphere significantly decreased in response to a collinear stimulus context. Most of the optical imaging experiments revealed a decrease in cortical activity in response to either stimulus context crossing the vertical midline. In conclusion, our results support the notion that modulating influences from stimulus context can be quite variable. We suggest that the kind of influence may depend on a cell’s orientation preference. The perceptual advantage of a collinear line as one of the Gestalt laws proposes is not uniformly represented in the activity of individual cells in V1. However, it is likely that the combined activity of many V1 neurons serves to activate neurons further up the processing stream which eventually leads to the perceptual phenomenon.
"The whole is more than the sum of its parts." This idea has been brought forward by psychologists such as Max Wertheimer who formulated Gestalt laws that describe our perception. One law is that of collinearity: elements that correspond in their local orientation to their global axis of alignment form a collinear line, compared to a noncollinear line where local and global orientations are orthogonal. Psychophysical studies revealed a perceptual advantage for collinear over non-collinear stimulus context. It was suggested that this behavioral finding could be related to underlying neuronal mechanisms already in the primary visual cortex (V1). Studies have shown that neurons in V1 are linked according to a common fate: cells responding to collinearly aligned contours are predominantly interconnected by anisotropic long-range lateral connections. In the cat, the same holds true for visual interhemispheric connections. In the present study we aimed to test how the perceptual advantage of a collinear line is reflected in the anatomical properties within or between the two primary visual cortices. We applied two neurophysiological methods, electrode and optical recording, and reversibly deactivated the topographically corresponding contralateral region by cooling in eight anesthetized cats. In electrophysiology experiments our results revealed that influences by stimulus context significantly depend on a unit’s orientation preference. Vertical preferring units had on average a higher spike rate for collinear over non-collinear context. Horizontal preferring units showed the opposite result. Optical imaging experiments confirmed these findings for cortical areas assigned to vertical orientation preference. Further, when deactivating the contralateral region the spike rate for horizontal preferring units in the intact hemisphere significantly decreased in response to a collinear stimulus context. Most of the optical imaging experiments revealed a decrease in cortical activity in response to either stimulus context crossing the vertical midline. In conclusion, our results support the notion that modulating influences from stimulus context can be quite variable. We suggest that the kind of influence may depend on a cell’s orientation preference. The perceptual advantage of a collinear line as one of the Gestalt laws proposes is not uniformly represented in the activity of individual cells in V1. However, it is likely that the combined activity of many V1 neurons serves to activate neurons further up the processing stream which eventually leads to the perceptual phenomenon.
A graph theoretical approach to the analysis, comparison, and enumeration of crystal structures
(2008)
As an alternative approach to lattices and space groups, this work explores graph theory as a means to model crystal structures. The approach uses quotient graphs and nets - the graph theoretical equivalent of cells and lattices - to represent crystal structures. After a short review of related work, new classes of cycles in nets are introduced and their ability to distinguish between non-isomorphic nets and their computational complexity are evaluated. Then, two methods to estimate a structure’s density from the corresponding net are proposed. The first uses coordination sequences to estimate the number of nodes in a sphere, whereas the second method determines the maximal volume of a unit cell. Based on the quotient graph only, methods are proposed to determine whether nets consist of islands, chains, planes, or penetrating, disconnected sub-nets. An algorithm for the enumeration of crystal structures is revised and extended to a search for structures possessing certain properties. Particular attention is given to the exclusion of redundant nets and those, which, by the nature of their connectivity, cannot correspond to a crystal structure. Nets with four four-coordinated nodes, corresponding to sp3 hybridised carbon polymorphs with four atoms per unit cell, are completely enumerated in order to demonstrate the approach. In order to render quotient graphs and nets independent from crystal structures, they are reintroduced in a purely graph-theoretical way. Based on this, the issue of iso- and automorphism of nets is reexamined. It is shown that the topology of a net (that is the bonds in a crystal) constrains severely the symmetry of the embedding (that is the crystal), and in the case of connected nets the space group except for the setting. Several examples are studied and conclusions on phases are drawn (pseudo-cubic FeS2 versus pyrite; α- versus β- quartz; marcasite- versus rutile-like phases). As the automorphisms of certain quotient graphs stipulate a translational symmetry higher than an arbitrary embedding of the corresponding net would show, they are examined in more detail and a method to reduce the size of such quotient graphs is proposed. Besides two instructional examples with 2-dimensional graphs, the halite, calcite, magnesite, barytocalcite, and a strontium feldspar structures are discussed. For some of the structures it is shown that the quotient graph which is equivalent to a centred cell is reduced to a quotient graph equivalent to the primitive cell. For the partially disordered strontium feldspar, it is shown that even if it could be annealed to an ordered structure, the unit cell would likely remain unchanged. For the calcite and barytocalcite structures it is shown that the equivalent nets are not isomorphic.
Spin waves in yttrium-iron garnet has been the subject of research for decades. Recently the report of Bose-Einstein condensation at room temperature has brought these experiments back into focus. Due to the small mass of quasiparticles compared to atoms for example, the condensation temperature can be much higher. With spin-wave quasiparticles, so-called magnons, even room temperature can be reached by externally injecting magnons. But also possible applications in information technologies are of interest. Using excitations as carriers for information instead of charges delivers a much more efficient way of processing data. Basic logical operations have already been realized. Finally the wavelength of spin waves which can be decreased to nanoscale, gives the opportunity to further miniaturize devices for receiving signals for example in smartphones.
For all of these purposes the magnon system is driven far out of equilibrium. In order to get a better fundamental understanding, we concentrate in the main part of this thesis on the nonequilibrium aspect of magnon experiments and investigate their thermalization process. In this context we develop formalisms which are of general interest and which can be adopted to many different kinds of systems.
A milestone in describing gases out of equilibrium was the Boltzmann equation discovered by Ludwig Boltzmann in 1872. In this thesis extensions to the Boltzmann equation with improved approximations are derived. For the application to yttrium-iron garnet we describe the thermalization process after magnons were excited by an external microwave field.
First we consider the Bose-Einstein condensation phenomena. A special property of thin films of yttrium-iron garnet is that the dispersion of magnons has its minimum at finite wave vectors which leads to an interesting behavior of the condensate. We investigate the spatial structure of the condensate using the Gross-Pitaevskii equation and find that the magnons can not condensate only at the energy minimum but that also higher Fourier modes have to be occupied macroscopically. In principle this can lead to a localization on a lattice in real space.
Next we use functional renormalization group methods to go beyond the perturbation theory expressions in the Boltzmann equation. It is a difficult task to find a suitable cutoff scheme which fits to the constraints of nonequilibrium, namely causality and the fluctuation-dissipation theorem when approaching equilibrium. Therefore the cutoff scheme we developed for bosons in the context of our considerations is of general interest for the functional renormalization group. In certain approximations we obtain a system of differential equations which have a similar transition rate structure to the Boltzmann equation. We consider a model of two kinds of free bosons of which one type of boson acts as a thermal bath to the other one. Taking a suitable initial state we can use our formalism to describe the dynamics of magnons such that an enhanced occupation of the ground state is achieved. Numerical results are in good agreement with experimental data.
Finally we extend our model to consider also the pumping process and the decrease of the magnon particle number till thermal equilibrium is reached again. Additional terms which explicitly break the U(1)-symmetry make it necessary to also extend the theory from which a kinetic equation can be deduced. These extensions are complicated and we therefore restrict ourselves to perturbation theory only. Because of the weak interactions in yttrium-iron garnet this provides already good results.
In literary translation 'correctness' is rarely ratified by linguistic rules; it is more often a question of what a sensitive translator feels to be correct. Intuition will therefore play a major part. This intuition is seen here neither as instinctive reaction prompted by experience, nor as native competence, but as an inquiring, self-moderating influence inspired by the language itself. It is treated in this respect as an informed intuition, that is, as having a linguistic base for sensitive judgement. This assumes that the literary translator is both a creative writer and his own critical reader as well as a fine judge of language potential. This line is applied to translating meaning and sense, transferring the very language, imitating the form and style, re-creating the features, and above all, to capturing those unique qualities of the original. After dealing with word-accuracy, the question of literary input demanded by form and style is examined. The treatment of language used for effect features in a section on Kafka. The merits and the problems of translating dialect as dialect for its own sake are looked at closely and in a positive way as are the possibilities of reproducing 'oddities' of language. The immense task of translating the language of Joyce ('Ulysses ') with all its vagaries and skilful manipulation of words is examined for the possibility of providing an accurate copy. The ultimate test of reproducing a uniqueness of artistic creation together with the profound thought which inspired it, is reserved for a section on Hopkins. While it is recognized that, owing to the constrictions imposed by the extreme and sensitive use of language, no translation can fully include all that there is in his poems, it might be possible to capture enough of their essence to give an impression of a 'German' Hopkins at work. A major objective throughout is the establishment of a linguistic base for the part played by intuition in literary translation.
This thesis examines the literary output of German servicemen writers writing from the occupied territories of Europe in the period 1940-1944. Whereas literary-biographical studies and appraisals of the more significant individual writers have been written, and also a collective assessment of the Eastern front writers, this thesis addresses in addition the German literary responses in France and Greece, as being then theatres of particular cultural/ideological attention. Original papers of the writer Felix Hartlaub were consulted by the author at the Deutsches Literatur Archiv (DLA) at Marbach. Original imprints of the wartime works of the subject writers are referred to throughout, and citations are from these. As all the published works were written under conditions of wartime censorship and, even where unpublished, for fear of discovery written in oblique terms, the texts were here examined for subliminal authorial intention. The critical focus of the thesis is on literary quality: on aesthetic niveau, on applied literary form, and on integrity of authorial intention. The thesis sought to discover: (1) the extent of the literary output in book-length forms. (2) the auspices and conditions under which this literary output was produced. (3) the publication history and critical reception of the output. The thesis took into account, inter alia: (1) occupation policy as it pertained locally to the writers’ remit; (2) the ethical implications of this for the writers; (3) the writers’ literary stratagems for negotiating the constraints of censorship.
Synchronized neural activity in the visual cortex is associated with small time delays (up to ~10 ms). The magnitude and direction of these delays depend on stimulus properties. Thus, synchronized neurons produce fast sequences of action potentials, and the order in which units tend to fire within these sequences is stimulusdependent, but not stimulus-locked. In the present thesis, I investigated whether such preferred firing sequences repeat with sufficient accuracy to serve as a neuronal code. To this end, I developed a method for extracting the preferred sequence of firing in a group of neurons from their pair-wise preferred delays, as measured by the offsets of the centre peaks in their cross-correlation histograms. This analysis method was then applied to highly parallel recordings of neuronal spiking activity made in area 17 of anaesthetized cats in response to simple visual stimuli, like drifting gratings and moving bars. Using a measure of effect size, I then analyzed the accuracy with which preferred firing sequences reflected stimulus properties, and found that in the presence of gamma oscillations, the time at which a unit fired in the firing sequence conveyed stimulus information almost as precisely as the firing rate of the same unit. Moreover, the stimulus-dependent changes in firing rates and firing times were largely unrelated, suggesting that the information they carry is not redundant. Thus, despite operating at a time scale of only a few milliseconds, firing sequences have the strong potential to provide a precise neural code that can complement firing rates in the cortical processing of stimulus information.
The aim of this work is to develop an effective equation of state for QCD, having the correct asymptotic degrees of freedom, to be used as input for dynamical studies of heavy ion collisions. We present an approach for modeling an EoS that respects the symmetries underlying QCD, and includes the correct asymptotic degrees of freedom, i.e. quarks and gluons at high temperature and hadrons in the low-temperature limit. We achieve this by including quarks degrees of freedom and the thermal contribution of the Polyakov loop in a hadronic chiral sigma-omega model. The hadronic part of the model is a nonlinear realization of an sigma-omega model. As the fundamental symmetries of QCD should also be present in its hadronic states such an approach is widely used to describe hadron properties below and around Tc. The quarks are introduced as thermal quasi particles, coupling to the Polyakov loop, while the dynamics of the Polyakov loop are controlled by a potential term which is fitted to reproduce pure gauge lattice data. In this model the sigma field serves a the order parameter for chiral restoration and the Polyakov loop as order parameter for deconfinement. The hadrons are suppressed at high densities by excluded volume corrections. As a next step, we introduce our new HQ model equation of state in a microscopic+macroscopic hybrid approach to heavy ion collisions. This hybrid approach is based on the Ultra-relativistic Quantum Molecular Dynamics (UrQMD) transport approach with an intermediate hydrodynamical evolution for the hot and dense stage of the collision. The present implementation allows to compare pure microscopic transport calculations with hydrodynamic calculations using exactly the same initial conditions and freeze-out procedure. The effects of the change in the underlying dynamics - ideal fluid dynamics vs. non-equilibrium transport theory - are explored. The final pion and proton multiplicities are lower in the hybrid model calculation due to the isentropic hydrodynamic expansion while the yields for strange particles are enhanced due to the local equilibrium in the hydrodynamic evolution. The elliptic and directed flow are shown to be not sensitive to changes in the EoS while the smaller mean free path in the hydrodynamic evolution reflects directly in higher flow results which are consistent with the experimental data. This finding indicates qualitatively that physical mechanisms like viscosity and other non equilibrium effects play an essentially more important role than the EoS when bulk observables like flow are investigated. In the last chapter, results for the thermal production of MEMOs in nucleus-nucleus collisions from a combined micro+macro approach are presented. Multiplicities, rapidity and transverse momentum spectra are predicted for Pb+Pb interaction at different beam energies. The presented excitation functions for various MEMO multiplicities show a clear maximum at the upper FAIR energy regime making this facility the ideal place to study the production of these exotic forms of multistrange objects.
In light of the global sea-level rise and climate change of the 21th century, it is important to look back into the recent past in order to understand what the future might hold. A multi-proxy data set was compiled to evaluate the influence of geomorphological and environmental factors, such as antecedent topography, subsidence, sea level and climate, on reef, sand apron and lagoon development in modern carbonate platforms through the Holocene. Therefore, a combination of remote sensing and morphological data from 122 modern carbonate platforms and atolls in the Atlantic, Indian and Pacific Oceans were conducted, along with a case study from the oceanic (Darwinian) barrier-reef system of Bora Bora, French Polynesia, South Pacific.
The influence of antecedent topography and platform size as factors controlling Holocene sand apron development and extension in modern atolls and carbonate platforms is hypothesized. Antecedent topography describes the elevation and relief of the underlying Pleistocene topography (karst) and determines the distance from the sea floor to the rising postglacial sea level. Maximum lagoon depth and marginal reef thickness, when available in literature, were used as proxies for antecedent topography. Sand apron proportions of 122 atolls and carbonate platforms from the Atlantic, Indian and Pacific Oceans were quantified and correlated to maximum lagoon depth, total platform area and marginal reef thickness. This study shows that sand apron proportions increase with decreasing lagoon depths. Sand apron proportions also increase with decreasing platform area. The interaction of antecedent topography and Holocene sea-level rise is responsible for variations in accommodation space and at least determines the extension of the lateral expansion of sand aprons. In general, sand apron formation started when marginal reefs approached relative sea level. Spatial and regional variations in sea-level history let sand apron formation start earlier in the Indo-Pacific region (transgressive-regressive) than in the Western Atlantic Ocean (transgressive).
The influence of sea level, antecedent topography and subsidence of a volcanic island on late Quaternary reef development was evaluated based on six rotary core transects on the barrier and fringing reefs of Bora Bora. This study was designed to revalue the Darwinian model, the subsidence theory of reef development, which genetically connects fringing reef, barrier reef and atoll development by continuous subsidence of the volcanic basement. Postglacial sea-level rise, and to a minor degree subsidence, were identified as major factors controlling Holocene reef development in that they have created accommodation space and controlled reef architecture. Antecedent topography was also an important factor because the Holocene barrier reef is located on a Pleistocene barrier reef forming a topographic high. Pleistocene soil and basalt formed the pedestal of the fringing reef. Uranium-Thorium dating shows that barrier and fringing reefs developed contemporaneously during the Holocene.
In the barrier–reef lagoon of Bora Bora, the influence of environmental factors, such as sea level and climate, tsunamis and tropical cyclones controlling Holocene sediment dynamics was evaluated based on sedimentological, paleontological, geochronological and geochemical data. The lagoonal succession comprises mixed carbonate-siliciclastic sediments overlying peat and Pleistocene soil. The multi-proxy data set shows variations in grain-size, total organic carbon (proxy for primary productivity), Ca and Cl element intensities (proxies for carbonate availability and lagoonal salinity) during the mid-late Holocene. These patterns could result from event sedimentation during storms and correlate to event deposits found in nearby Tahaa, probably induced by elevated cyclone activity. Accordingly, elevated erosion and runoff from the volcanic island and lower lagoonal salinity would be a result of rainfall during repeated cyclone landfall. However, Ti/Ca and Fe/Ca ratios as proxies for terrigenous sediment delivery peaked out in the early Holocene and declined since the mid-Holocene. Benthic foraminifera assemblages do not indicate reef-to-lagoon transport. Alternatively, higher and sustained hydrodynamic energy is probably induced by stronger trade winds and a higher-than-present sea level during the mid-late Holocene. The increase in mid-late Holocene sediment dynamics within the back-reef lagoon is supposed to display sediment-load shedding of sand aprons due to the oversteepening of slopes at sand apron/lagoon edges during their progradation rather than an increase in tropical storm activity during that time.
The influence of sea-level and climate changes on sediment import, composition and distribution in the Bora Bora lagoon during the Holocene is validated. Lagoonal facies succession comprises siderite-rich marly wackestones, foraminifera-siderite wackestones, mollusk-foraminifera marly packstones and mollusk-rich wackestones during the early-mid Holocene, and mudstones since the mid-late Holocene. During the early Holocene, enhanced weathering and iron input from the volcanic island due to wetter climate conditions led to the formation of siderite within the lagoonal sediments. The geochemical composition of these siderites shows that precipitation was driven by microbial activity and iron reduction in the presence of dissolved bicarbonate. Chemical substitutions at grain margins illustrate changes in the oxidation state and probably reflect changes in pore water chemistry due to sea-level rise and climate change (rainfall). In the late Holocene, sediment transport into the lagoon is hampered by motus on the windward side of the lagoon, which led to early submarine lithification within the lagoon.
A multiple filter test for the detection of rate changes in renewal processes with varying variance
(2014)
The thesis provides novel procedures in the statistical field of change point detection in time series.
Motivated by a variety of neuronal spike train patterns, a broad stochastic point process model is introduced. This model features points in time (change points), where the associated event rate changes. For purposes of change point detection, filtered derivative processes (MOSUM) are studied. Functional limit theorems for the filtered derivative processes are derived. These results are used to support novel procedures for change point detection; in particular, multiple filters (bandwidths) are applied simultaneously in oder to detect change points in different time scales.
The Earth’s surface condition we find today is a result of long exposure to metabolism of life forms. Particularly, molecular oxygen in the atmosphere is a feature which developed over time. The first substantial and lasting rise of atmospheric oxygen level happened ≈ 2.5 Ga ago, but localities are reported where transiently elevated oxygen levels appeared before this time-point. To trace the timing and circumstances of the earliest availability of free oxygen in the atmosphere is important to understand the habitats of early microbial life forms on Earth.
This thesis focuses to obtain information of oxygen levels and the related atmospheric cycling of metals in sediments of the 3.5 to 3.2 Ga Barberton Greenstone Belt. First, as iron was a ubiquitous constituent of Archean seawater, I investigated its isotopic composition in minerals of chemical sediments. Hereby, I tried to resolve the changes within the water basin on small scale sedimentary sequence cycles. Second, I focused on the minor constituents of Archean seawater. The Re-Os geochronologic system and the abundance patterns of the platinum-group elements were chosen to integrate information of oxygen promoted weathering of a large source area. To integrate information of a large time interval, the isotopes of uranium were investigated over a large stratigraphic section.
The two key findings of this thesis are:
• Quantitative oxidation of ferrous iron in surface layers of Paleoarchean seawater occurred during the onset and termination of hydrothermal FeIIaq delivery into shallow waters.
• Paleoarchean sedimentary successions of the Barberton Greenstone Belt lack any evidence of transient basin-scale oxygenation.
The Manzimnyama Iron Formation (IF, Fig Tree Group, Barberton Greenstone Belt, South Africa) has been deciphered to exist of cyclic stacks of lithostratigraphic units with varying amounts of iron oxide and carbonate minerals. In-situ femtosecond-Laser-Ablation ICP-MS iron isotope measurements showed that the majority of siderite (γ56Fe ≈ −0.5 ‰) precipitated directly from seawater of γ56Fe ≈ 0 ‰. Ferric iron from the surface layers is preserved in ≤ 1μ m hematite and in magnetite that has been grown within the consolidated sediment. During FeIIaq events, fine-grained hematite (γ56Fe ≈ 2.2 ‰) and magnetite (γ56Fe 0.5 to 0.8 ‰) indicate oxygen levels in surface waters of lower than 0.0002 μM. Upon onset and termination of iron oxide abundance, magnetite with γ56Fe ≈ 0 ‰ indicates that low concentrations of FeIIaq in surface waters were oxidized quantitatively. These observations demonstrate the existence of iron oxidation in Paleoarchean surface waters independent of FeIIaq concentration. This is the first investigation of Paleoarchean IF showing that lithostratigraphic cyclicity can be traced in iron isotopic composition of oxide minerals.
ID-ICP-MS measurement of Re, Ir, Ru, Pt and Pd, trace element (SF-ICP-MS) and ID-MCICP- MS uranium isotope determination have been applied to carbonaceous shale of the Mapepe Fm. (Fig Tree Group) after inverse Aqua Regia leaching and bulk digestion. The sediments reveal a silicified fraction which exhibits a seawater REE signature and a mixture of detrital and meteoritic PGE. Neither enrichment of the redox-sensitive elements Re or Mo nor fractionated uranium isotopes have been found on a stratigraphic interval of several hundred meters. The non-silica fraction shows no depletion of Re which indicates that the detrital material had no contact to oxidizing fluids. ID-TIMS measurements of Re and Os after the CrO3-SO4 Carius Tube method of two sample intervals showed that the Re-Os isotopic systems of the non-silica fractions are identical to two komatiite occurrences. Weltevreden Fm. and Komati Fm. rocks were uplifted, eroded and transported to the deep part of the sedimentary basin without any change to the Re-Os system. Negative fractionated uranium isotopes (γ238U = −0.41 ± 0.01 ‰) associated with detrital Ba-Cr-U occurrences suggest the existence of distal redox-processes that involve uranium species. This study demonstrates that over the time of exposure and deposition of the Mapepe Fm. sedimentation, free oxygen was not available for weathering in the catchment area.
Many hominin species are best physically represented and understood by the sum of their dental morphologies. Generally, taxonomic affinities and evolutionary trends in development (ontogeny) and morphology (phylogeny) can be deduced from dental analyses. More specifically, the study of dental remains can yield a wealth of information on many facets of hominin evolution, life history, physiology and ecological adaptation; in short, the organisms paleobiomics. Functionally, teeth present information about dietary preferences, that is, the dietary niche in ecological context and, in turn, masticatory function. As the amount and types of information that can be gleaned from 2-dimensional tooth measurement exhaust themselves, 3-dimensional microscopic modeling and analysis presents a largely fertile ground for reexamination and reinterpretation of dental characteristics (Bromage et al., 2005). As such, a novel, non-destructive approach has been developed which combines the work of two established technologies (confocal microscopy and 3D modeling) adapted specifically for the purpose of mineralized tissue imaging. Through this method, 3D functional masticatory and therefore occlusal molar microwear is able to be visualized, quantified and comparatively analyzed to assess dietary preference in Javanese Homo erectus. This method differs from other microwear investigative techniques (defining 'pits'- vs- 'scratches', microtexture analysis etc.) in that it defines a molars masticatory microwear functional interactions in 3-dimensions as its baseline dataset for further interpretations and analyses. Due to poor specimen collection techniques employed during the first half of the 20th century, the very complex geologic nature of the Sangiran Dome and disagreements over its chronostratigraphy, only very few scientific works have addressed the Sangiran 7 (S7) Homo erectus molar collection (n=25) (e.g. Grine and Franzen, 1994; Kaifu, 2006). Grine and Franzen's (1994) work was a predominantly qualitative initial assessment of the specimens and identified five specimens that might better be ascribed to a fossil pongid rather than H. erectus. They also noted several molars to which tooth position (M1 or M2) was unable to be ascribed (Grine and Franzen, 1994). Kaifu (2006) comparatively examined crown sizes in several S7 molars.
The Sangiran 7 collection originates from two distinct geologic horizons: ten from the older Sangiran Formation (S7a, ~1.7 to 1.0mya) and fifteen from the younger, overlying Bapang Formation (S7b, ~1.0 to .7mya). During this million year period, Java was connected to the mainland during various glacio-eustatic low-stands in sea level. These mainland connections varied in size, extent, climatic condition and therefore in faunal and floral composition. As the S7 sample may be representative of the earliest Homo erectus migrants into Java and spans long durations of occupation, its investigation yields potential to understand the various influences climatic and ecogeographic fluctuations had on these populations. Since the sample consists only of teeth, an ecodietary approach has been deemed the most logical and appropriate investigative approach. Questions regarding the intra- and inter- S7 sample
relationships will also be addressed.
By comparing various aspects of the H. erectus dentition against that of hunter/ gatherer's (H/G) whose diet is known, functional dietary similarity can be directly correlated. Thus a comparative molar sample consisting of the below historic hunter/ gather's (n=63) has been included in order to assess H. erectus's diet in ecological context: Inuit (n=9), Pacific Northwest Tribes (n=11), Fuegians (n=11), Australian Aborigines (n=12) and Bushman (n=20). Methodologically, this approach produces a 3D facet microwear vector (fmv) signature for each molar which can then be compared for statistical similarity.
Microwear (and, as such, the fmv signatures) was defined by the regular, parallel striations found on specific cusp facets known to arise from patterned, directional masticatory movements. This differs significantly from post-mortem or taphonomic microwear which produces striations at irregular angles on multiple, non-masticatory surfaces (Peuch et al.1985, Teaford, 1988). A 'match value' is produced to determine the similarity of two molars fmv's. The 'match values' are ranked (high to low) and these rankings are used to statistically analyze and infer dietary preference: between Sangiran 7 (as an entire sample) compared against that of the historic hunter/ gatherer H. sapiens whose diet and ecogeography is known; within S7a and S7b and then among the S7 sample (eg. S7a-vs-S7b); whether the purported Pongo molars actually affiliate well with H. erectus, the hunter-gatherer's or if they demonstrate distinctly different fmv signatures altogether; whether fmv signatures are useful in distinguishing molars whose tooth position is in doubt (eg. M1 or M2).
When compared against individual H/G molars, the results show that Sangiran 7 H. erectus most closely correlates with Bushmen across all areas of fmv signature analysis. However, within broader dietary categories (yearly reliant on proteinaceous foods; seasonally reliant on proteinaceous foods; not reliant on proteinaceous foods), it was found that H. erectus most closely allied with the two hunter/ gatherer subpopulations associated with the 'Seasonally reliant on proteinaceous foods' (Australian Aboriginals and Pacific Northwest Tribes). There was also evidence for dietary change or specialization over time. As the environment changed during occupation by the earlier Sangiran to the later Bapang individuals, the dietary preference shifted from a focus on vegetative foods to a diet much more inclusive of proteinaceous resources.
These results are considered logical within the larger ecogeographic and chronostratigraphic context of the Sangiran Dome during the Pleistocene. However, a larger sample would be needed to confirm this. Although general dietary preferences can be drawn from this method, it is not possible at present to define specific foods consumed on a daily basis (eg. tubers or tortoise meat).
Out of the five specimens possibly allied with Pongo, S7-14 matched at the 'high' designation with a hunter/ gatherer, S7-62 matched 'moderately', S7-20 matched 'low' while the remaining two were not able to be matched with any other teeth for various reasons. Although designation to Pongo cannot be ruled on at this time using this method, it does demonstrate that at least two of the teeth correlate well with various hunter/ gatherer's who do not share dietary similarity with Pongo. This suggests their designation as Pongo should be more closely reevaluated. As for the four specimens whose tooth position was unsure, S7-14 matched 'highly' with 1st molars, S7-62 and S7-78 matched 'moderately' with 2nd and 1st molars respectively while S7-20 only matched at the 'low' designation. Although this approach is still exploratory, it adds another analytical tool for use in defining tooth position.
In sum, this method has demonstrated its usefulness in defining and functionally analyzing a novel 3D molar microwear dataset to interpret dietary preference. Future work would include a pan- H. erectus molar sample in order to illuminate broader populational, taxonomic and dietary correlations within and amoung all H. erectus specimens. A larger, more heterogenous historic H/G sample would also be included in order to provide a wider dietary comparative population. This method can be further extended to include and compare any and all hominins as well as any organism which produces micro wear upon it molars. Also, the data obtained and resultant fmv signature diagrams have the potential to be incorporated into 3D VR reconstructions of mandibular movement thus recreating mastication in extinct organisms and leading to more robust anatomical and physiological investigations especially when viewed in the context of larger environmental conditions or changes.
This work is concerned with two topics at the intersection of convex algebraic geometry and optimization.
We develop a new method for the optimization of polynomials over polytopes. From the point of view of convex algebraic geometry the most common method for the approximation of polynomial optimization problems is to solve semidefinite programming relaxations coming from the application of Positivstellensätze. In optimization, non-linear programming problems are often solved using branch and bound methods. We propose a fused method that uses Positivstellensatz-relaxations as lower bounding methods in a branch and bound scheme. By deriving a new error bound for Handelman's Positivstellensatz, we show convergence of the resulting branch and bound method. Through the application of Positivstellensätze, semidefinite programming has gained importance in polynomial optimization in recent years. While it arises to be a powerful tool, the underlying geometry of the feasibility regions (spectrahedra) is not yet well understood. In this work, we study polyhedral and spectrahedral containment problems, in particular we classify their complexity and introduce sufficient criteria to certify the containment of one spectrahedron in another one.
Seit einigen Jahrzehnten ist Lysozym eines der am meisten erforschten Proteine in der Literatur und wird hauptsächlich als Modell Protein zur Aufklärung der Faltungs- und Entfaltungsprozesse genutzt. Da die Frage nach Fehlfaltung und deren Verknüpfung mit neurodegenerativen Krankheiten bis zum heutigen Tag nicht vollständig geklärt ist, besteht hier ein großer Spielraum für weitere Forschungsansätze. In der vorliegenden Arbeit wurden daher zwei Modellsysteme verwendet, Hühereiweiß-Lysozym und menschliches Lysozym, jeweils in ihrem nicht-nativen ungefalteten Zustand. Diese ungefalteten Ensembles wurden mit Hilfe NMR spektroskopischer Methoden untersucht und ergaben sehr detaillierte, zum Teil auch überraschende neue Einblicke in Struktur und Dynamik der beiden Proteine und liefern somit wichtige Erkenntnisse zu Faltungs- und Aggregationsprozessen. ...
In this dissertation a non-deterministic lambda-calculus with call-by-need evaluation is treated. Call-by-need means that subexpressions are evaluated at most once and only if their value must be known to compute the overall result. Also called "sharing", this technique is inevitable for an efficient implementation. In the lambda-ND calculus of chapter 3 sharing is represented explicitely by a let-construct. Above, the calculus has function application, lambda abstractions, sequential evaluation and pick for non-deterministic choice. Non-deterministic lambda calculi play a major role as a theoretical foundation for concurrent processes or side-effected input/output. In this work, non-determinism additionally makes visible when sharing is broken. Based on the bisimulation method this work develops a notion of equality which respects sharing. Using bisimulation to establish contextual equivalence requires substitutivity within contexts, i.e., the ability to "replace equals by equals" within every program or term. This property is called congruence or precongruence if it applies to a preorder. The open similarity of chapter 4 represents a new concept, insofar that the usual definition of a bisimulation is impossible in the lambda-ND calculus. So in section 3.2 a further calculus lambda-Approx has to be defined. Section 3.3 contains the proof of the so-called Approximation Theorem which states that the evaluation in lambda-ND and lambda-Approx agrees. The foundation for the non-trivial precongruence proof is set out in chapter 2 where the trailblazing method of Howe is extended to be capable with sharing. By the use of this (extended) method, the Precongruence Theorem proves open similarity to be a precongruence, involving the so-called precongruence candidate relation. Joining with the Approximation Theorem we obtain the Main Theorem which says that open similarity of the lambda-Approx calculus is contained within the contextual preorder of the lambda-ND calculus. However, this inclusion is strict, a property whose non-trivial proof involves the notion of syntactic continuity. Finally, chapter 6 discusses possible extensions of the base calculus such as recursive bindings or case and constructors. As a fundamental study the calculus lambda-ND provides neither of these concepts, since it was intentionally designed to keep the proofs as simple as possible. Section 6.1 illustrates that the addition case and constructors could be accomplished without big hurdles. However, recursive bindings cannot be represented simply by a fixed point combinator like Y, thus further investigations are necessary.
A novel role for mutant mRNA degradation in triggering transcriptional adaptation to mutations
(2020)
Robustness to mutations promotes organisms’ well-being and fitness. The increasing number of mutants in various model organisms, and humans, showing no obvious phenotype (Bouche and Bouchez, 2001; Chen et al., 2016b; Giaever et al., 2002; Kok et al., 2015) has renewed interest into how organisms adapt to gene loss. In the presence of deleterious mutations, genetic compensation by transcriptional upregulation of related gene(s) (also known as transcriptional adaptation) has been reported in numerous systems (El-Brolosy and Stainier, 2017; Rossi et al., 2015; Tondeleir et al., 2012); however, the molecular mechanisms underlying this response remained unclear. To investigate this phenomenon, I develop and study multiple models of transcriptional adaptation in zebrafish and mouse cell lines. I first show that transcriptional adaptation is not caused by loss of protein function, indicating that the trigger lies upstream, and find that the response involves enhanced transcription of the related gene(s). Furthermore, I observe a correlation between levels of mutant mRNA degradation and upregulation of related genes. To investigate the role of mutant mRNA degradation in triggering the response, I generate mutant alleles that do not transcribe the mutated gene and find that they fail to induce a transcriptional response and display stronger phenotypes. Transcriptome analysis of alleles displaying mutant mRNA degradation revealed upregulation of a significant proportion of genes displaying sequence similarity with the mutated gene’s mRNA, suggesting a model whereby mRNA degradation intermediates induce transcriptional adaptation via sequence similarity. Further mechanistic analyses suggested RNA-decay factors-dependent chromatin remodeling, and repression of antisense RNAs to be implicated in the response. These results identify a novel role for mutant mRNA degradation in buffering against mutations. Besides, they hold huge implications on understanding disease-causing mutations and shall help in designing mutations that lead to minimal transcriptional adaptation-induced compensation, facilitating studying gene function in model organisms.
The miniaturization of electronics is reaching its limits. Structures necessary to build integrated circuits from semiconductors are shrinking and could reach the size of only a few atoms within the next few years. It will be at the latest at this point in time that the physics of nanostructures gains importance in our every day life. This thesis deals with the physics of quantum impurity models. All models of this class exhibit an identical structure: the simple and small impurity only has few degrees of freedom. It can be built out of a small number of atoms or a single molecule, for example. In the simplest case it can be described by a single spin degree of freedom, in many quantum impurity models, it can be treated exactly. The complexity of the description arises from its coupling to a large number of fermionic or bosonic degrees of freedom (large meaning that we have to deal with particle numbers of the order of 10^{23}). An exact treatment thus remains impossible. At the same time, physical effects which arise in quantum impurity systems often cannot be described within a perturbative theory, since multiple energy scales may play an important role. One example for such an effect is the Kondo effect, where the free magnetic moment of the impurity is screened by a "cloud" of fermionic particles of the quantum bath.
The Kondo effect is only one example for the rich physics stemming from correlation effects in many body systems. Quantum impurity models, and the oftentimes related Kondo effect, have regained the attention of experimental and theoretical physicists since the advent of quantum dots, which are sometimes also referred to as as artificial atoms. Quantum dots offer a unprecedented control and tunability of many system parameters. Hence, they constitute a nice "playground" for fundamental research, while being promising candidates for building blocks of future technological devices as well.
Recently Loss' and DiVincenzo's p roposal of a quantum computing scheme based on spins in quantum dots, increased the efforts of experimentalists to coherently manipulate and read out the spins of quantum dots one by one. In this context two topics are of paramount importance for future quantum information processing: since decoherence times have to be large enough to allow for good error correction schemes, understanding the loss of phase coherence in quantum impurity systems is a prerequisite for quantum computation in these systems. Nonequilibrium phenomena in quantum impurity systems also have to be understood, before one may gain control of manipulating quantum bits.
As a first step towards more complicated nonequilibrium situations, the reaction of a system to a quantum quench, i.e. a sudden change of external fields or other parameters of the system can be investigated. We give an introduction to a powerful numerical method used in this field of research, the numerical renormalization group method, and apply this method and its recent enhancements to various quantum impurity systems.
The main part of this thesis may be structured in the following way:
- Ferromagnetic Kondo Model,
- Spin-Dynamics in the Anisotropic Kondo and the Spin-Boson Model,
- Two Ising-coupled Spins in a Bosonic Bath,
- Decoherence in an Aharanov-Bohm Interferometer.
Computational oral absorption models, in particular PBBM models, provide a powerful tool for researchers and pharmaceutical scientists in drug discovery and formulation development, as they mimic and can describe the physiologically processes relevant to the oral absorption. PBBM models provide in vivo context to in vitro data experiments and allow for a dynamic understanding of in vivo drug disposition that is not typically provided by data from standard in vitro assays. Investigations using these models permit informed decision-making, especially regarding to formulation strategies in drug development. PBBM models, but can also be used to investigate and provide insight into mechanisms responsible for complex phenomena such as food effect in drug absorption. Although there are obviously still some gaps regarding the in silico construction of the gastrointestinal environment, ongoing research in the area of oral drug absorption (e.g. the UNGAP, AGE-POP and InPharma projects) will increase knowledge and enable improvement of these models.
PBBM can nowadays provide an alternative approach to the development of in vitro–in vivo correlations. The case studies presented in this thesis demonstrate how PBBM can address a mechanistic understanding of the negative food effect and be used to set clinically relevant dissolution specification for zolpidem immediate release tablets. In both cases, we demonstrated the importance of integrating drug properties with physiological variables to mechanistically understand and observe the impact of these parameters on oral drug absorption.
Various complex physiological processes are initiated upon food consumption, which can enhance or reduce a drug’s dissolution, solubility, and permeability and thus lead to changes in drug absorption. With improvements in modeling and simulation software and design of in vitro studies, PBBM modeling of food effects may eventually serve as a surrogate for clinical food effect studies for new doses and formulations or drugs. Furthermore, the application of these models may be even more critical in case of compounds where execution of clinical studies in healthy volunteers would be difficult (e.g., oncology drugs).
In the fourth chapter we have demonstrated the establishment of the link between biopredictive in vitro dissolution testing (QC or biorelevant method) PBBM coupled with PD modeling opens the opportunity to set truly clinically relevant specifications for drug release. This approach can be extended to other drugs regardless of its classification according to the BCS.
With the increased adoption of PBBM, we expect that best practices in development and verification of these models will be established that can eventually inform a regulatory guidance. Therefore, the application of Physiologically Based Biopharmaceutical Modelling is an area with great potential to streamline late-stage drug development and impact on regulatory approval procedures.
A stochastic model for the joint evaluation of burstiness and regularity in oscillatory spike trains
(2013)
The thesis provides a stochastic model to quantify and classify neuronal firing patterns of oscillatory spike trains. A spike train is a finite sequence of time points at which a neuron has an electric discharge (spike) which is recorded over a finite time interval. In this work, these spike times are analyzed regarding special firing patterns like the presence or absence of oscillatory activity and clusters (so called bursts). These bursts do not have a clear and unique definition in the literature. They are often fired in response to behaviorally relevant stimuli, e.g., an unexpected reward or a novel stimulus, but may also appear spontaneously. Oscillatory activity has been found to be related to complex information processing such as feature binding or figure ground segregation in the visual cortex. Thus, in the context of neurophysiology, it is important to quantify and classify these firing patterns and their change under certain experimental conditions like pharmacological treatment or genetical manipulation. In neuroscientific practice, the classification is often done by visual inspection criteria without giving reproducible results. Furthermore, descriptive methods are used for the quantification of spike trains without relating the extracted measures to properties of the underlying processes.
For that reason, a doubly stochastic point process model is proposed and termed 'Gaussian Locking to a free Oscillator' - GLO. The model has been developed on the basis of empirical observations in dopaminergic neurons and in cooperation with neurophysiologists. The GLO model uses as a first stage an unobservable oscillatory background rhythm which is represented by a stationary random walk whose increments are normally distributed. Two different model types are used to describe single spike firing or clusters of spikes. For both model types, the distribution of the random number of spikes per beat has different probability distributions (Bernoulli in the single spike case or Poisson in the cluster case). In the second stage, the random spike times are placed around their birth beat according to a normal distribution. These spike times represent the observed point process which has five easily interpretable parameters to describe the regularity and the burstiness of the firing patterns.
It turns out that the point process is stationary, simple and ergodic. It can be characterized as a cluster process and for the bursty firing mode as a Cox process. Furthermore, the distribution of the waiting times between spikes can be derived for some parameter combination. The conditional intensity function of the point process is derived which is also called autocorrelation function (ACF) in the neuroscience literature. This function arises by conditioning on a spike at time zero and measures the intensity of spikes x time units later. The autocorrelation histogram (ACH) is an estimate for the ACF. The parameters of the GLO are estimated by fitting the ACF to the ACH with a nonlinear least squares algorithm. This is a common procedure in neuroscientific practice and has the advantage that the GLO ACF can be computed for all parameter combinations and that its properties are closely related to the burstiness and regularity of the process. The precision of estimation is investigated for different scenarios using Monte-Carlo simulations and bootstrap methods.
The GLO provides the neuroscientist with objective and reproducible classification rules for the firing patterns on the basis of the model ACF. These rules are inspired by visual inspection criteria often used in neuroscientific practice and thus support and complement usual analysis of empirical spike trains. When applied to a sample data set, the model is able to detect significant changes in the regularity and burst behavior of the cells and provides confidence intervals for the parameter estimates.
Das Gehirn ist die wohl komplexeste Struktur auf Erden, die der Mensch erforscht. Es besteht aus einem riesigen Netzwerk von Nervenzellen, welches in der Lage ist eingehende sensorische Informationen zu verarbeiten um daraus eine sinnvolle Repräsentation der Umgebung zu erstellen. Außerdem koordiniert es die Aktionen des Organismus um mit der Umgebung zu interagieren. Das Gehirn hat die bemerkenswerte Fähigkeit sowohl Informationen zu speichern als auch sich ständig an ändernde Bedingungen anzupassen, und zwar über die gesamte Lebensdauer. Dies ist essentiell für Mensch oder Tier um sich zu entwickeln und zu lernen. Die Grundlage für diesen lebenslangen Lernprozess ist die Plastizität des Gehirns, welche das riesige Netzwerk von Neuronen ständig anpasst und neu verbindet. Die Veränderungen an den synaptischen Verbindungen und der intrinsischen Erregbarkeit jedes Neurons finden durch selbstorganisierte Mechanismen statt und optimieren das Verhalten des Organismus als Ganzes. Das Phänomen der neuronalen Plastizität beschäftigt die Neurowissenschaften und anderen Disziplinen bereits über mehrere Jahrzehnte. Dabei beschreibt die intrinsische Plastizität die ständige Anpassung der Erregbarkeit eines Neurons um einen ausbalancierten, homöostatischen Arbeitsbereich zu gewährleisten. Aber besonders die synaptische Plastizität, welche die Änderungen in der Stärke bestehender Verbindungen bezeichnet, wurde unter vielen verschiedenen Bedingungen erforscht und erwies sich mit jeder neuen Studie als immer komplexer. Sie wird durch ein komplexes Zusammenspiel von biophysikalischen Mechanismen induziert und hängt von verschiedenen Faktoren wie der Frequenz der Aktionspotentiale, deren Timing und dem Membranpotential ab und zeigt außerdem eine metaplastische Abhängigkeit von vergangenen Ereignissen. Letztlich beeinflusst die synaptische Plastizität die Signalverarbeitung und Berechnung einzelner Neuronen und der neuronalen Netzwerke.
Der Schwerpunkt dieser Arbeit ist es das Verständnis der biologischen Mechanismen und deren Folgen, die zu den beobachteten Plastizitätsphänomene führen, durch eine stärker vereinheitlichte Theorie voranzutreiben.Dazu stelle ich zwei funktionale Ziele für neuronale Plastizität auf, leite Lernregeln aus diesen ab und analysiere deren Konsequenzen und Vorhersagen.
Kapitel 3 untersucht die Unterscheidbarkeit der Populationsaktivität in Netzwerken als funktionales Ziel für neuronale Plastizität. Die Hypothese ist dabei, dass gerade in rekurrenten aber auch in vorwärtsgekoppelten Netzwerken die Populationsaktivität als Repräsentation der Eingangssignale optimiert werden kann, wenn ähnliche Eingangssignale eine möglichst unterschiedliche Repräsentation haben und dadurch für die nachfolgende Verarbeitung besser unterscheidbar sind. Das funktionale Ziel ist daher diese Unterscheidbarkeit durch Veränderungen an den Verbindungsstärke und der Erregbarkeit der Neuronen mithilfe von lokalen selbst-organisierten Lernregeln zu maximieren. Aus diesem funktionale Ziel lassen sich eine Reihe von Standard-Lernenregeln für künstliche neuronale Netze gemeinsam abzuleiten.
Kapitel 4 wendet einen ähnlichen funktionalen Ansatz auf ein komplexeres, biophysikalisches Neuronenmodell an. Das Ziel ist eine spärliche, stark asymmetrische Verteilung der synaptischen Stärke, wie sie auch bereits mehrfach experimentell gefunden wurde, durch lokale, synaptische Lernregeln zu maximieren. Aus diesem funktionalen Ansatz können alle wichtigen Phänomene der synaptischen Plastizität erklärt werden. Simulationen der Lernregel in einem realistischen Neuronmodell mit voller Morphologie erklären die Daten von timing-, raten- und spannungsabhängigen Plastizitätsprotokollen. Die Lernregel hat auch eine intrinsische Abhängigkeit von der Position der Synapse, welche mit den experimentellen Ergebnissen übereinstimmt. Darüber hinaus kann die Lernregel ohne zusätzliche Annahmen metaplastische Phänomene erklären. Dabei sagt der Ansatz eine neue Form der Metaplastizität voraus, welche die timing-abhängige Plastizität beeinflusst. Die formulierte Lernregel führt zu zwei neuartigen Vereinheitlichungen für synaptische Plastizität: Erstens zeigt sie, dass die verschiedenen Phänomene der synaptischen Plastizität als Folge eines einzigen funktionalen Ziels verstanden werden können. Und zweitens überbrückt der Ansatz die Lücke zwischen der funktionalen und mechanistische Beschreibungsweise. Das vorgeschlagene funktionale Ziel führt zu einer Lernregel mit biophysikalischer Formulierung, welche mit etablierten Theorien der biologischen Mechanismen in Verbindung gebracht werden kann. Außerdem kann das Ziel einer spärlichen Verteilung der synaptischen Stärke als Beitrag zu einer energieeffizienten synaptischen Signalübertragung und optimierten Codierung interpretiert werden.
ADHS im Erwachsenenalter ist eine komplexe Erkrankung, die durch verschiedene diagnostische Instrumente erfasst wird. Aktuell spielen dabei vor allem die klinische Exploration, Interview- und Fragebogendaten eine Rolle.
Obwohl bei Patient*innen vielfältige kognitive Einschränkungen bestehen, wird die Verwendung neuropsychologischer Daueraufmerksamkeitstests (CPTs) in den klinischen Leitlinien nur ergänzend erwähnt. Validität und Nützlichkeit von CPTs bei ADHS Patient*innen wird aufgrund der mangelnden Sensitivität und
Spezifität immer wieder kritisch diskutiert. Multidimensionale Ansätze, in denen verschiedene neuropsychologische Beurteilungen mit klinischen Parametern kombiniert werden, sollen das Aufstellen einer ADHS Diagnose im Erwachsenenalter verbessern. Die vorliegende Studie untersucht zwei verschiedene CPTs bezüglich deren Vergleichbarkeit und deren Verknüpfung mit klinischen Parametern. Ein direkter Vergleich innerhalb derselben Stichprobe ist bisher nicht durchgeführt worden, könnte jedoch wichtige Implikationen für die Testauswahl und darauffolgende klinische Interventionen haben. Die klinische Stichprobe besteht aus zufällig ausgewählten erwachsenen Patient*innen, die sich in der ADHS Ambulanz der Klinik für Psychiatrie, Psychosomatik und Psychotherapie des Universitätsklinikums Frankfurt zur diagnostischen ADHS Beurteilung zwischen Mai und November 2019 vorstellten. Die Patient*innen wurden von erfahrenen Ärzt*innen mithilfe des strukturierten diagnostischen Interviews für ADHS bei Erwachsenen (DIVA 2.0) befragt. Au§erdem wurden Schulzeugnisse bewertet und die medizinische Vorgeschichte erhoben. Anschließend wurden die Patient*innen mit dem Wender-Reimherr Interview (WRI) von einer unabhängigen Interviewerin befragt und füllten die folgenden Selbstbeurteilungsfragebögen aus: Kurzform der Wender-Utah Rating Scale (WURS-k), Impulsive Behavior Scale (UPPS) und General Health Questionnaire (GHQ-28). Alle Patient*innen nahmen anschließend an der Testung mit zwei CPTs teil: dem Quantified Behavior Test (Qb-Test) und Nesplora Aquarium [9]. Der Qb-Test misst neben Unaufmerksamkeit und Impulsivität auch Hyperaktivität mithilfe einer Infrarot Kamera und eines Reflektors, welche das Bewegungsmuster während der Testung aufzeichnen. In Nesplora Aquarium wird virtuelle Realität genutzt, um das Bewegungsmuster mithilfe eines optischen Gerätes, das mit Sensoren und Lautsprechern ausgestattet ist, aufzuzeichnen. Es zeigte sich, dass die übergreifende Vergleichbarkeit beider Tests begrenzt ist. Trotz der kongruenten Messung von Unaufmerksamkeit in beiden Tests konnten keine Korrelationen mit den klinischen Parametern festgestellt werden. Hyperaktivität ist in beiden Tests positiv mit aktuellen ADHS Symptomen assoziiert, wobei der Qb-Test darüber hinaus noch Korrelationen mit ADHS Symptomen aus der Kindheit aufweist. Impulsivität stellte sich als ein unabhängiges Konstrukt heraus, sowohl die Korrelation zwischen beiden Tests als auch die Assoziation mit klinischen Parametern betreffend. Dies stellt in Frage, ob ein homogenes mpulsivitätskonstrukt existiert, welches sich in neuropsychologischen Tests und klinischen Symptomen abbildet. Insgesamt ermöglicht die Studie einen guten Vergleich beider CPTs und zeigt detaillierte Informationen über die
Kompatibilität mit klinischen Symptomen auf. Unaufmerksamkeit stellte sich als ein basaler Faktor heraus, der zwischen beiden Tests über alle Patient*innen hinweg überlappt. Da dieser Faktor jedoch nicht mit klinischen Parametern korreliert, unterstreicht dies die Problematik, subjektive mit objektiven Methoden in der ADHS Diagnostik zu verbinden. Die aktuellen Ergebnisse bezweifeln die einfache Anwendung sogenannter objektiver Messverfahren in der klinischen ADHS Diagnostik aufgrund ihrer fragwürdigen Validität. Die Ergebnisse der Studie verdeutlichen die Notwendigkeit eines neuen diagnostischen Ansatzes im Sinne der Präzisionsmedizin, welcher über die konventionellen Klassifikationssysteme hinaus passende individuelle Lösungen für Diagnostik und Behandlung ermöglicht.
In der vorliegenden Dissertation wird auf diesen Ergebnissen basierend der Goldstandard der aktuellen ADHS-Diagnostik unter Beachtung der Leitlinien diskutiert. Die untersuchten CPTs werden unter Berücksichtigung der Gütekriterien guter diagnostischer Verfahren überprüft. Das Potenzial neuropsychologischer Testverfahren im Hinblick auf die Steigerung von Objektivität, Validität und Differenziertheit der Diagnosen wird untersucht und Empfehlungen für die klinische Anwendung formuliert.
Bei endogenen Retroviren handelt es sich um feste Bestandteile des Genoms. Im Fall von PERV (porzine endogene Retroviren) existieren zusätzlich infektiöse, xenotrope Vertreter. Aufgrund dieser Tatsache ist es notwendig, diese replikationskompetenten Proviren aus dem Genom potentieller Donortiere für die Xenotransplantation zu entfernen. Mit dem Wissen um die chromosomale Lage und der damit verbundenen Möglichkeit des Nachweises per PCR wurde im Rahmen dieser Arbeit gezeigt, dass aufgrund einer polymorphen Verteilung ein Ausschluss dieser funktionellen Proviren, mittels konventioneller Züchtung, möglich ist. Allerdings stellen sowohl die deletierten und mutierten proviralen Sequenzen durch eine Rekombination oder eine Komplementation, als auch ekotrope PERV-C ein Restrisiko im Falle einer Xenotransplantation dar. Es ist eine PERV-A/C Rekombinante beschrieben ex vivo worden, welche eine höhere Infektiösität aufweist als alle bisher untersuchten PERV. Bis auf die Rezeptor-Bindedomäne stellt dieses Virus ein PERV-C dar. Deshalb sollten chromosomal PERV-C identifiziert werden, um bei polymorpher Verteilung im Schweinegenom durch entsprechende Züchtung diese aus dem Genom heraushalten zu können. Im Rahmen dieser Arbeit ist es mit Hilfe einer speziellen PCR gelungen sieben Integrationsorte von PERV-C zu identifizieren. Da das Genom des Schweins bisher noch nicht komplett sequenziert ist, war es noch nicht möglich die gefundenen chromosomalen Bereiche zu kartieren. Dies wäre wiederum die Basis für eine Durchmusterung von Schweinen auf die Anwesenheit der gefundenen Proviren. Des Weiteren ist noch nicht bekannt, ob es sich bei diesen PERV-C um vollständige Proviren handelt, da aufgrund der verwendeten PCR und der sehr hohen Homologie verschiedener PERV untereinander nur provirale 3'Enden mit entsprechenden Flanken identifiziert werden konnten. Zusätzlich wurden in den Proben transgener Schweine PERV-C env spezifische Anteile nachgewiesen. Die Verteilung dieser Sequenzen, welche ebenfalls polymorph ist, gibt zwar keinen Aufschluss über die Anwesenheit eines Volllängen Provirus, jedoch ist aufgrund dieser Verteilung gleichfalls ein Ausschluss dieses Virus durch herkömmliche Züchtung möglich. Auf der anderen Seite besteht ein weiteres Risiko nach einer Xenotransplantation, wenn ein infektiöses PERV durch Komplementation gebildet wird, welches als Erbinformation ein env-deletiertes Provirus trägt. Das komplementierte PERV könnte potentiell, nach erfolgter Xenotransplantation, menschliche Zellen infizieren. Daraufhin wäre es zwar nicht mehr in der Lage infektiöse Partikel zu bilden, jedoch besteht noch das Risiko einer Retrotransposition, welche an sich schon mutagen wirkt. Zusätzlich könnten durch diesen Vorgang Gene zerstört oder Onkogene angeschaltet werden. Um dieses Risiko abschätzen zu können, wurden im Rahmen dieser Arbeit modifizierte Proviren von PERV-B(33) und MoMLV (Positivkontrolle) hergestellt und in einem Retrotranspositions Assay getestet. Die Modifikation der Proviren beinhaltete die Deletion des für die Retrotransposition nicht notwendigen env-Leserahmens, im Austausch gegen eine inserierte Indikatorkassette für die Retrotransposition (neoint). Im Rahmen der in dieser Arbeit durchgeführten Experimente konnte im Fall des Molekularklons PERV-B(33) eine Frequenz der Retrotransposition von maximal 1,2*10-6 pro Zelle und Generation ermittelt werden. Demzufolge stellt eine Retrotransposition von env-deletierten proviralen porzinen Sequenzen nach erfolgter Xenotransplantation ein minimales Risiko dar.
First-principles modeling techniques offer the ability to simulate a wide range of systems under different physical conditions, such as temperature, pressure, and composition, without relying on empirical knowledge. Density functional theory (DFT), a quantum mechanical method, has become an exceptionally successful framework for materials science modeling. Employing DFT makes it possible to gain valuable insights into the fundamental state of a system, enabling the reliable determination of equilibrium crystal structures. Over time, DFT has become an essential tool that can be incorporated into various schemes for predicting the properties of a material related to its structure, insulating/metallic behavior, magnetism, and optics. DFT is regularly applied in numerous fields, spanning from fundamental subjects in condensed matter physics to the study of large-scale phenomena in geosciences. In the latter, the effectiveness of DFT stems from its ability to simulate the properties found on the Earth, other planets, and meteorites, which may pose challenges for their direct study or laboratory investigation.
In this thesis, a comprehensive examination of a family of monosulfides and a perovskite heterostructure was conducted. These materials are relevant for their potential applications in technology, energy harvesting, and in the case of monosulfides, their speculated abundance on the planet Mercury.
Firstly, a DFT approach was used to analyze two non-magnetic monosulfides, CaS and MgS. We determined their structural properties and then focused on the modeling of their reflectivity in the infrared region. The calculation of the reflectivity considered both harmonic and anharmonic contributions. In the harmonic limit, the non-analytic correction was employed to accurately determine the LO/TO splitting, which is necessary to delimit the retstrahlend band, that is, the maximum of the reflectivity. The anharmonic effects given by up to three-phonon and isotopic scatterings, which were included using perturbation theory, primarily smeared the reflectivity spectra edges in the high-wave region.
Secondly, four polymorphs of MnS were studied using a combination of first-principles methods to simulate their antiferromagnetic (AFM) and paramagnetic (PM) states. The integration of DFT+$U$ with special quasirandom structures (SQS) supercells, and occupation matrix control techniques was crucial for achieving convergence, structural optimization accuracy, and obtaining finite energy band gaps and local magnetic moments in the PM phases. The addition of the Hubbard $U$ correction was necessary to treat the highly-correlated Mn $d$-electrons. The success of our approach was clear based on our electronic structure predictions for the PM rock-salt B1-MnS polymorph. Experimentally this phase has been observed to be an insulator, but multiple \emph{ab initio} works resulted previously in metallic behavior. Our computations, on the other hand, predicted insulating and magnetic properties that compare well with available measurements. Additionally, the pressure-field stability of the four MnS polymorphs was studied. In the case of the PM phases, B1-MnS was identified to be the most stable up to about 21 GPa, then transforming into the B31-MnS polymorph. This finding was in close agreement with high-pressure experiments reporting a similar phase transformation. The optical properties of B1-, B4-, and B31-MnS were also simulated. The SQS technique was used to obtain soft-mode-free phonon band structures within the harmonic approximation. Then, the anharmonic effects were included, and the reflectivity was calculated for B1-MnS and B4-MnS. In both cases, a good agreement for the LO/TO splitting was achieved in comparison to experimental results.
Lastly, the oxygen-deficient heterostructure of LaAlO$_{3-\delta}$ /SrTiO$_{3-\delta}$ was investigated also employing DFT+$U$, with a particular emphasis on the potential impact of vacancy clustering at the interface. Six distinct configurations of pairs of vacancies were studied and their energies were compared to find the most stable one. The orbital reconstruction of Ti orbitals was also examined based on their location with respect to the vacancies and the local magnetic moments were calculated. The final results showed that linearly arranged vacancies located opposite to Ti ions give the most energetically stable configuration.
The ab-initio molecular dynamics framework has been the cornerstone of computational solid state physics in the last few decades. Although it is already a mature field it is still rapidly developing to accommodate the growth in solid state research as well as to efficiently utilize the increase in computing power. Starting from the first principles, the ab-initio molecular dynamics provides essential information about structural and electronic properties of matter under various external conditions. In this thesis we use the ab-initio molecular dynamics to study the behavior of BaFe2As2 and CaFe2As2 under the application of external pressure. BaFe2As2 and CaFe2As2 belong to the family of iron based superconductors which are a novel and promising superconducting materials. The application of pressure is one of two key methods by which electronic and structural properties of iron based superconductors can be modified, the other one being doping (or chemical pressure). In particular, it has been noted that pressure conditions have an important effect, but their exact role is not fully understood. To better understand the effect of different pressure conditions we have performed a series of ab-initio simulations of pressure application. In order to apply the pressure with arbitrary stress tensor we have developed a method based on the Fast Inertial Relaxation Engine, whereby the unit cell and the atomic positions are evolved according to the metadynamical equations of motion. We have found that the application of hydrostatic and c axis uniaxial pressure induces a phase transition from the magnetically ordered orthorhombic phase to the non-magnetic collapsed tetragonal phase in both BaFe2As2 and CaFe2As2. In the case of BaFe2As2, an intermediate tetragonal non-magnetic tetragonal phase is observed in addition. Application of the uniaxial pressure parallel to the c axis reduces the critical pressure of the phase transition by an order of magnitude, in agreement with the experimental findings. The in-plane pressure application did not result in transition to the non-magnetic tetragonal phase and instead, rotation of the magnetic order direction could be observed. This is discussed in the context of Ginzburg-Landau theory. We have also found that the magnetostructural phase transition is accompanied by a change in the Fermi surface topology, whereby the hole cylinders centered around the Gamma point disappear, restricting the possible Cooper pair scattering channels in the tetragonal phase. Our calculations also permit us to estimate the bulk moduli and the orthorhombic elastic constants of BaFe2As2 and CaFe2As2.
To study the electronic structure in systems with broken translational symmetry, such as doped iron based superconductors, it is necessary to develop a method to unfold the complicated bandstructures arising from the supercell calculations. In this thesis we present the unfolding method based on group theoretical techniques. We achieve the unfolding by employing induced irreducible representations of space groups. The unique feature of our method is that it treats the point group operations on an equal footing with the translations. This permits us to unfold the bandstructures beyond the limit of translation symmetry and also formulate the tight-binding models of reduced dimensionality if certain conditions are met. Inclusion of point group operations in the unfolding formalism allows us to reach important conclusions about the two versus one iron picture in iron based superconductors.
And finally, we present the results of ab-initio structure prediction in the cases of giant volume collapse in MnS2 and alkaline doped picene. In the case of MnS2, a previously unobserved high pressure arsenopyrite structure of MnS2 is predicted and stability regions for the two competing metastable phases under pressure are determined. In the case of alkaline doped picene, crystal structures with different levels of doping were predicted and used to study the role of electronic correlations.
Im Rahmen dieser Dissertation sollte der Effekt der Zelldichte auf Proliferation und Apoptose bei der RKO-Rektumkarzinomzelllinie untersucht werden. Neben Invasion, Entdifferenzierung und Metastasierung kann bei Krebserkrankungen auch eine hohe Wachstumsgeschwindigkeit zu den Charakteristika der Malignität gezählt werden. Bei Leukämien, Lymphomen und bestimmten soliden Tumoren, bei denen eine chirurgische Resektion nur eingeschränkt möglich ist, bedeutet jedoch ein langsames Wachstum, d.h. eine geringe Proliferation der Tumorzellen, in der Regel keine verbesserte Prognose, da sie mit schlechterem Ansprechen auf Chemotherapie und Bestrahlung einhergeht. Die molekularen Ursachen dieser Behandlungsresistenz sind bisher nicht vollständig geklärt und wahrscheinlich nicht bei allen Krebserkrankungen auf identischen Mechanismen beruhend. Vorstellbar ist, dass sich das Gesamtsystem der Zelle während des Teilungsprozesses sensibler gegenüber Schädigungen der DNA, wie sie durch Bestrahlung und die meisten Chemotherapeutika ausgelöst werden, präsentiert. Dies kann durch unterschiedlichste molekulare Mechanismen verursacht sein. Um den möglichen Einfluss des Proliferationsverhaltens einer Zellpopulation auf das Apoptose-Verhalten zu untersuchen, wurde im Rahmen dieser Arbeit versucht, die Proliferationsgeschwindigkeit einer Zellkultur mittels Dichte-Arretierung zu senken. Hierzu wurden RKO-Zellen in konfluenter und subkonfluenter Dichte kultiviert. Ebenfalls wurden Unterschiede bei der Verteilung der Zellen auf die verschiedenen Zellzyklusphasen ermittelt. Durch Inkubation mit CD95L konnte dann ein Zusammenhang von Proliferation und Apoptosesensitivität ermittelt werden, d.h. die „Zellzyklusabhängigkeit“ der CD95L-induzierte Apoptose untersucht werden. Hierbei zeigten sich Zellen mit geringerer Proliferationsrate resistenter gegenüber CD95L. Verschiedene Methoden (z.B. Western-Blot-Analyse, FACS-Messungen) wurden zur Aufklärung der molekularen Ursachen genutzt. Die Arbeit zeigte auch das Vorhandensein eines molekular nicht identifizierten, autokrin in das Medium sezernierten Faktors, der zu verstärkter Resistenz gegenüber CD95L führte. Dieser Faktor erhöhte auch die Migration und Invasivität der RKO-Zellen und verstärkte damit die malignen Eigenschaften der Tumorzellen. Die zukünftige molekulare Identifikation dieses Faktors könnte therapeutisch bedeutsam sein.
Der 300 km breite Eucla Schelf Südaustraliens gehört zu den weltgrößten modernen nicht-tropischen Ablagerungssystemen. Während des Pleistozäns wurde hier ein etwa 500 m mächtiger pleistozäner Sedimentstapel abgelagert, der sich aus progradierenden Klinoformen zusammensetzt. Die Ocean Drilling Program Sites 1127, 1129 und 1131 bilden ein proximal-distal Profil entlang des Eucla Shelfs-Kontinentalhangs. Die dabei erbohrten pleistozänen Periplattform-Ablagerungen bestehen überwiegend aus bioklastenreichen, fein- bis grobkörnigen, unlithifizierten bis teilweise lithifizierten Pack-, Wacke- und Grainstones. Eine ausgeprägte sedimentäre Zyklizität der analysierten Ablagerungen drückt sich in Fluktuationen der Korngröße und der mineralogischen Zusammensetzung, der natürlichen Radioaktivität, der stabilen Isotope sowie in Veränderungen der Fazies aus. Zur Untersuchung der sedimentären Zyklizität dieser nicht-tropischen Sedimente wurden sechs Sedimentintervalle früh- bis mittelpleistozänen Alters innerhalb der Bohrungen Site 1127, 1129 und 1131 ausgewählt. Die früh- bis mittelpleistozäne Periplattform-Sedimentabfolge des Eucla Schelfs wird durch die Stapelung genetischer Sequenzen gebildet. Diese entstehen als eine Folge hochfrequenter Meeresspiegelschwankungen, die unmittelbare Auswirkungen auf den Grad der Überflutung und damit auf den Sedimentexport vom Eucla Schelf ins angrenzende Becken haben. Eine genetische Sequenz weist eine Mächtigkeit von etwa 25 m unmittelbar beckenwärts der Schelfkante auf. Die maximale Mächtigkeit von ca. 30 m wird in beckenwärtigeren Bereichen erreicht, bevor die genetische Sequenz erneut auskeilt und in den hier untersuchten distalsten Ablagerungsbereichen Mächtigkeiten von 10-15 m aufweist. Die Begrenzungen der genetischen Sequenzen werden durch abrupte Korngrößenwechsel oder durch Umkehrpunkte in Korngrößentrends gebildet. Innerhalb einer genetischen Sequenz werden Hochstands-Ablagerungen durch grobkörnige bioklastenreiche Pack- bis Grainstones charakterisiert, die wiederum große Mengen an Tunikaten Spikulae, braunen hoch-Mg Bioklasten und Bryozoen-Detritus beinhalten. Tiefstands-Ablagerungen andererseits werden durch feinkörnige Packstones mit erhöhten Gehalten an Schwammnadeln und Mikrit charakterisiert. Die metastabilen Karbonatmodifikationen Aragonit und Hoch-Mg Kalzit können jeweils bis zu 34 % der Gesamtprobe ausmachen und sind in Ablagerungen des Meeresspiegel-Anstiegs und -Hochstands angereichert. Hauptaragonitbildner sind dabei Tunikaten Spikulae. Dolomit ist auf Ablagerungen des beginnenden Meeresspiegel-Anstiegs beschränkt. Die primäre Verteilung der metastabilen Karbonatmodifikationen innerhalb der genetischen Sequenzen führt so während späterer Versenkungsstadien möglicherweise zu einer differentiellen Diagenese. Die sedimentäre Zyklizität der Ablagerungen des späten Mittelpleistozäns unterscheidet sich von der Zyklizität des frühen- bis mittleren Pleistozäns durch eine Zunahme der Häufigkeit allochthoner Schelfkomponenten wie Rotalgen-Detritus und brauner Hoch-Mg Kalzit-Bioklasten. Zugleich zeigt sich ein Häufigkeits-Rückgang autochthoner Schwammnadeln. Diese Variationen während des frühen und mittleren Pleistozäns werden als eine Folge der Progradation der Schelfkante und der sich daraus ergebenden verändernden relativen Position zur Schelfkante sowie des sich verändernden Nährstoffeintrags interpretiert. Site 1127 zeigt darüberhinaus eine Verdopplung der Zyklenmächtigkeiten der mittelpleistozänen Ablagerungen. Dies ist höchstwahrscheinlich auf Veränderungen der Erdorbitalparameter (Milankovitch-Zyklizität) zurückzuführen. Im letzten Teil der Arbeit werden die sedimentären Zyklizitäten dieser nicht-tropischen Periplattform-Karbonate mit pleistozänen tropischen Ablagerungen der westlichen Flanke der Großen Bahama Bank verglichen (ODP Site 1009). Die Gliederung in Coarsening Upward-Zyklen ist dabei ein wesentliches Merkmal sowohl der nicht-tropischen als auch der tropischen Periplattform-Karbonate. Im Gegensatz zu den untersuchten nicht-tropischen Karbonaten werden jedoch tropische Ablagerungen des Meeresspiegel-Anstiegs und -Hochstands durch feinkörniges, mikritreiches Material. Maxima des Aragonit- bzw. Minima des Hoch-Mg Kalzitgehalts charakterisiert. Die Mächtigkeit einzelner Zyklen von ca. 10 m ist darüberhinaus aufgrund geringfügig niedrigerer Sedimentationsraten geringer als in den untersuchten nicht-tropischen Karbonaten, in denen die minimalen Zyklenmächtigkeiten 10-15 m betragen.
Hintergrund: Unter dem zunehmenden Druck gesundheitsökonomischer Aspekte sollen die seit geraumer Zeit diskutierten „Clinical pathways“ einerseits die Qualität der medizinischen Versorgung und andererseits die Effizienz von Krankenhausabläufen verbessern. Ziel der vorliegenden Arbeit war es, die Abläufe der chirurgischen Behandlung der Arteria Carotis-Stenose an zwei europäischen Kliniken (Frankfurt am Main in Deutschland und New Castle in Großbritannien) zu evaluieren. Aus diesen Ergebnissen wurde ein „Clinical pathway“ erstellt, welcher mittels einer prospektiven Untersuchung einer dritten Gruppe auf seine Effizienz überprüft werden sollte. Methoden: Im Zeitraum zwischen Juni 1999 und Oktober 1999 wurden in Frankfurt Gruppe I 26 Patienten, in New Castle im Zeitraum vom 01. bis 30. September 2000 25 Patienten retrospektiv bezüglich demographischer Daten, Risikofaktoren, Begleiterkrankungen, klinischem Insuffizienzstadium, Häufigkeit und Durchführungszeitpunkt (ambulant/ stationär) von Standarduntersuchungen, stationärer Liegedauer (prä- und postoperativ), Anästhesieform, intraoperativem Monitoring und die klinischen Ergebnisse untersucht. Dabei war von Interesse, welchen finanziellen Rahmen dieses Krankheitsbild in den verschiedenen Bereichen in Anspruch nahm und ob es Unterschiede in den aufgezählten Bereichen zwischen Frankfurt I und New Castle gab. Nach der Datenerhebung wurde unter Einsicht der aktuellen Literatur erarbeitet, in welchen Bereichen eine Kosteneinsparung am ergiebigsten wäre. Unter Berücksichtigung aller oben genannten Faktoren wurde von Juli 2002 bis September 2002 prospektiv eine dritte Patientengruppe untersucht (Frankfurt Gruppe II), an der die gewonnenen Ergebnisse im Rahmen eines „clinical pathway“ umgesetzt wurden. Ergebnisse: Das Alter und die Verteilung des Geschlechts waren in den drei Gruppen annähernd gleich. Mit Ausnahme der peripheren vaskulären Gefäßerkrankung, welche in New Castle deutlich höher war, waren auch Risikofaktoren sowie Begleiterkrankungen in den 3 Gruppen vergleichbar. In Frankfurt Gruppe I wurden präoperativ bei 65% der Patienten eine Angiographie und in New Castle standardmäßig bei allen Patienten diese Untersuchung durchgeführt. In Frankfurt Gruppe II lediglich bei 30%. In Frankfurt Gruppe I wurden im Untersuchungszeitraum vorrangig asymptomatische Stenosen Stadium I mit einer hochgradigen bis filiformen Lumeneinengung operiert (61,5%). In New Castle wiesen 68% der Patienten eine symptomatische ACI-Stenose Stadium II mit einer Lumeneinengung >75% auf. In Frankfurt Gruppe II fand man in 60% Stadium IV Patienten. In Frankfurt Gruppe I wurden alle Eingriffe während des Evaluationszeitraums in Intubationsnarkose durchgeführt, wobei in zwei Fällen eine zweite Operation in der gleichen Sitzung durchgeführt wurde. In New Castle wurden 8 Patienten in Regionalanästhesie operiert, wobei in einem Fall auf eine Intubationsnarkose gewechselt werden musste. In Frankfurt Gruppe II wurden alle Patienten in Intubationsnarkose operiert. In Frankfurt Gruppe I wurden 46% der Patienten vorübergehend auf der Intensivstation beaufsichtigt, in New Castle wurde ein Patient intensivmedizinisch versorgt, in Frankfurt Gruppe II waren es 30%. Die stationäre Gesamtaufenthaltsdauer betrug in Frankfurt Gruppe I 10 Tage. Davon waren im Durchschnitt 4,0 ± 3,3 Tage präoperativ und 6,0 ± 2,6 Tage postoperativ. Von insgesamt 5 Tagen war der Patient in New Castle im Durchschnitt 4,0 ± 3,3 Tage präoperativ und 1,0 ± 1,2 Tag postoperativ stationär untergebracht. In Frankfurt Gruppe II war ein Patient im Durchschnitt 6 Tage stationär. Davon 2,0 ± 1,3 Tage präoperativ und 4,0 ± 1,6 Tage postoperativ im Mittelwert. Bei jeweils einem Patienten an beiden Kliniken musste ein Revisionseingriff aufgrund einer Nachblutung vorgenommen werden (Frankfurt Gruppe I und New Castle). Keine Klinik wies einen postoperativen Todesfall auf. In Frankfurt Gruppe I fanden sich postoperativ 4 reversible und keine permanenten neurologischen Defizite. In New Castle waren 1 reversibles und 2 permanente Defizite zu verzeichnen. In Frankfurt Gruppe II fand man 1 passageres Defizit und 6 permanente Defizite. Von diesen Defiziten waren 6 periphere und 1 zentral neurologisch. Die Kosten für eine Standard Carotis-TEA betrugen in der Frankfurt Gruppe I 2.755,10 Euro, in New Castle 2.497,96 Euro und als Ergebnis der Umsetzung des „clinical pathways“ in der Frankfurt Gruppe II 2.372,45 Euro jeweils im Mittelwert. Anhand von Literaturrecherchen und Beurteilung der Ergebnisse aus der Frankfurt Gruppe I und New Castle ergab sich, nach Umsetzung eines „clinical pathway“ in der Frankfurt II Gruppe, dass eine Kosteneinsparung durch eine gezieltere Führung jedes Patienten ohne Erhöhung der Morbidität und Mortalität möglich ist. Diese gezielte Führung beinhaltet die Unterteilung der Patienten in eine von drei Einheiten, je nach zerebralem Insuffizienzstadium der Erkrankung und Compliance des Patienten (erte Einheit für das Insuffizienzstadium I und II, zweite Einheit für das Stadium IV und dritte Einheit für Patienten aus einer neurologischen Klinik). Ziel der Einheit 1 ist die ambulante Diagnostik mit Operation am Aufnahmetag, postoperativer Betreuung über den AWR und Entlassung spätestens am 2. postoperativen Tag. In der Einheit 2 soll der Patient versorgt werden, welcher aufgrund seiner fortgeschrittenen Erkrankung mehr Zuwendung benötigt. Hier erfolgt die gesamte Diagnostik stationär. Die postoperative Betreuung richtete sich individuell nach dem Zustand des Patienten, jedoch mit dem primären Ziel eine Versorgung über den AWR anzustreben. Die Einheit 3 ist für Patienten vorgesehen, welche mit der kompletten präoperativen Diagnostik von einer vornehmlich neurologischen Abteilung zum operativen Eingriff verlegt werden. Für diese Patienten wird postoperativ ein Bett auf der Intensivstation bereit gestellt. Sobald es der Zustand des Patienten erlaubt, wird er zur weiterführenden Behandlung in seine präoperative Klinik zurückverlegt. Durch die Zuteilung der Patienten zu einem der„clinical pathways“/ Einheiten war es möglich, zum einen die Anzahl der stationären Tage und zum anderen die Therapie von Patienten auf der Intensivstation zu reduzieren. Dieses wurde erreicht, obwohl 60% der Patienten der Frankfurt II Gruppe ein Insuffizienzstadium IV aufwiesen, im Vergleich zu „nur“ 10% und 20% in der Frankfurt Gruppe I und in New Castle. Durch die Behandlung nach einem dieser drei „clinical pathways“/ Einheiten konnte bei gleichbleibendem Behandlungserfolg eine Kostenreduktion von 14% erzielt werden.
Zahnfarbene, ästhetisch unauffällige Brackets bestehen meist aus Keramik oder Kunststoff. Besonders Keramikbrackets weisen durch den starken Haftverbund zum Zahn ein gewisses Risiko der Gefährdung von Zahnhartsubstanz beim Debonding auf. Klinisch sollte eine Haftkraft von 5-10 MPa erreicht werden, damit die einwirkenden therapeutischen Kräfte nicht zum Verlust des Brackets führen. Ziel der Studie war es, ein neuartiges selbstligierendes Bracket (Opal/Ultradent) aus glasfaserverstärktem Kunststoff auf die Haftfestigkeit und das Risikopotenzial beim Debonding zu testen und mit Keramik-Brackets und einem weit verbreiteten Standard-Metall-Bracket zu vergleichen. Es wurden neben dem Opal-Bracket (Ultradent) vier Keramik-Brackets (Clarity/ 3M, Fascination2/ Dentaurum, Aspire/ Forestadent, Inspire Ice/ Ormco) und ein Metall-Bracket (Victory/ 3M) mit dem vom Hersteller empfohlenen Adhäsivsystem getestet. Die zur Untersuchung der Haftfestigkeit verwendeten 120 humanen Weisheitszähne wurden für 7 Tage in einer 0.5 % Chloramin T-Lösung und anschließend in Wasser gelagert und danach nochmals mikroskopisch auf Unversehrtheit des Zahnschmelzes überprüft. Mit einer Messschablone wurde der Krümmungsradius der bukkalen Flächen überprüft. Der Krümmungsradius der Zahnoberfläche durfte nicht kleiner als 12,5mm sein. Nach gründlicher Reinigung mit Bimsmehl wurden die Weisheitszähne auf sechs Gruppen mit jeweils 20 Brackets aufgeteilt. Die Brackets wurden mit dem vom Hersteller empfohlenem Adhäsiv- Primer-System nach Herstellerangaben auf die Schmelzoberfläche geklebt. Alle Prüfkörper wurden mit einer Einbetthilfe in Palapress Vario (Heraeus Kulzer) eingebettet und anschließend in einer selbst hergestellten Justierhilfe einheitlich ausgerichtet. Nach einer Lagerungszeit von 24 Stunden in Wasser bei 37° C erfolgte die Abscherung der Prüfkörper nacheinander im rechten Winkel zur Bracketbasis mit der Zwick-Universalprüfmaschine (Ulm, Germany). Die Vorschubgeschwindigkeit betrug 1mm/min. Der Weg bis zum Abscheren und die dazu benötigte Kraft eines jeden Prüfkörpers wurden digital aufgezeichnet. Anhand der Fläche der Bracketbasis, der Abscherkraft und dem dazu benötigten Weg konnten die Haftfestigkeiten in MPa umgerechnet und miteinander verglichen werden. Der Gruppenvergleich erfolgte mit dem ANOVA und Scheffe-Test. Die Zahnoberflächen wurden zusätzlich mikroskopisch auf Schmelzdefekte überprüft. Das Metall-Bracket, das als Vergleichs- und Normierungsgröße diente, zeigte eine mittlere Haftfestigkeit von 10,2 MPa. Das Opal-Bracket wies mit 4,17 MPa die signifikant niedrigste durchschnittliche Haftkraft auf. Es erreichte nicht die klinisch ausreichende Haftkraft von 6 MPa. Die Keramik-Brackets erzielten mit 14.7 MPa (Clarity), 15,3 MPa (Aspire) und 14.7 MPa (Inspire Ice) ähnliche Haftwerte, ohne zu Hartsubstanzdefekten zu führen. Bei Fascination2 mit einer durchschnittlichen Haftkraft von 19,7 MPa konnten nach dem Debonding bei ca. 1/3 der Proben Schmelzausrisse nachgewiesen werden. Fascination2 zeigte im Vergleich zur Kontrollgruppe signifikant höhere Haftwerte (19,7 MPa). Die Haftfestigkeit des Opal-Brackets scheint im Vergleich zu den in der Literatur geforderten Angaben für die sichere klinische Anwendung zu gering. Die Haftkraft von Fascination2 (Dentaurum) ist durch die zeitweise auftretenden Schmelzausrisse für ein sicheres Debonding als zu hoch zu bewerten. Die anderen Keramik-Brackets zeigen ein gutes Verhältnis zwischen sicherer Entfernbarkeit und ausreichendem Haftverbund und bieten eine Alternative zu den Metallbrackets.
Einführung: Eitrige und abszedierende Infektionen sind ein häufiges Problem in der zahnärztlichen, oral- und kieferchirurgischen Praxis. Bei entsprechender Indikation finden Antibiotika zur Therapie von odontogenen Infektionen oder Weichteilinfektionen im Bereich des Kopfes Einsatz. Auch prophylaktische Gaben von Antibiotika sind in diesem Fachgebiet nicht selten. Deswegen sollte die kalkulierte antiinfektive Chemotherapie auf soliden pharmakologischen Daten beruhen.
Material und Methoden: Von 520 Patienten der mund-kiefer-gesichtschirurgischen Praxisklinik Kaufbeuren wurden die 1.182 antibiotischen in vitro Testungen aus dem Zeitraum 22.11.2010 bis 31.12.2016 ausgewertet. Das Durchschnittsalter der 51% weiblichen und 49% männlichen Patienten betrug 49,1 Jahre. Die Patienten wurden stratifiziert nach Diagnosen, Gesundheitszustand und Alter. Es wurden die Ergebnisse der Suszeptibilitätstestungen folgender gängiger Antibiotika ausgewertet: Amoxicillin/Clavulansäure, Ampicillin, Oxacillin, Penicillin G/V, Cefazolin, Cefuroxim, Cefpodoxim, Azithromycin, Clarithromycin, Erythromycin, Ciprofloxacin, Levofloxacin, Moxifloxacin, Ofloxacin, Clindamycin, Gentamycin, Cotrimoxazol, Doxycyclin und Metronidazol.
Ergebnisse: Im Mittel (alle getesteten Keime) liefern Amoxicillin/Clavulansäure (96,6%), Cefpodoxim (95,7%), Cefuroxim (90,1%) und Moxifloxacin (91,0%) durchgängig sehr gute Sensibilitätswerte bei hoher statistischer Signifikanz (p<0,001).
Für Ampicillin (86,3%), Cefazolin (85,5%), Levofloxacin (82,5%), Cotrimoxazol (77,5%), Doxycyclin (75,0%), Penicillin G/V (72,5%), Clindamycin (61,8%), Azithromycin (59,9%), Clarithromycin (59,6%), Oxacillin (54,0%), Erythromycin (51,7%) und Ciprofloxacin (36,2%) lagen die getesteten durchschnittlichen Sensibilitäten deutlich niedriger mit je nach Untergruppe deutlichen Unterschieden.
Konklusion: Die von uns ermittelten in vitro Suszeptibilitäten von Amoxicillin/ Clavulansäure, Cefpodoxim, Cefuroxim und Moxifloxacin unterstützen die Empfehlung zum therapeutischen Einsatz bei odontogenen Infektionen oder Weichteilinfektionen im Kopf-Hals-Bereich sowie deren prophylaktische Verwendung zum Beispiel bei Endokarditis-Risiken in der Zahnmedizin oder Mund-/Kiefer-/Gesichtschirurgie.
Acceleration of Biomedical Image Processing and Reconstruction with FPGAs
Increasing chip sizes and better programming tools have made it possible to increase the boundaries of application acceleration with reconfigurable computer chips. In this thesis the potential of acceleration with Field Programmable Gate Arrays (FPGAs) is examined for applications that perform biomedical image processing and reconstruction. The dataflow paradigm was used to port the analysis of image data for localization microscopy and for 3D electron tomography from an imperative description towards the FPGA for the first time.
After the primitives of image processing on FPGAs are presented, a general workflow is given for analyzing imperative source code and converting it to a hardware pipeline where every node processes image data in parallel. The theoretical foundation is then used to accelerate both example applications. For localization microscopy, an acceleration of 185 compared to an Intel i5 450 CPU was achieved, and electron tomography could be sped up by a factor of 5 over an Nvidia Tesla C1060 graphics card while maintaining full accuracy in both cases.
Mitochondial NADH:ubiquinone oxidoreductase (complex I) the largest multiprotein enzyme of the respiratory chain, catalyses the transfer of two electrons from NADH to ubiquinone, coupled to the translocation of four protons across the membrane. In addition to the 14 strictly conserved central subunits it contains a variable number of accessory subunits. At present, the best characterized enzyme is complex I from bovine heart with a molecular mass of about 980 kDa and 32 accessory proteins. In this study, the subunit composition of mitochondrial complex I from the aerobic yeast Y. lipolytica has been analysed by a combination of proteomic and genomic approaches. The sequences of 37 complex I subunits were identified. The sum of their individual molecular masses (about 930 kDa) was consistent with the native molecular weight of approximately 900 kDa for Y. lipolytica complex I obtained by BN-PAGE. A genomic analysis with Y. lipolytica and other eukaryotic databases to search for homologues of complex I subunits revealed 31 conserved proteins among the examined species. A novel protein named “X” was found in purified Y. lipolytica complex I by MALDI-MS. This protein exhibits homology to the thiosulfate sulfurtransferase enzyme referred to as rhodanese. The finding of a rhodanese-like protein in isolated complex I of Y. lipolytica allows to assume a special regulatory mechanism of complex I activity through control of the status of its iron-sulfur clusters. The second part of this study was aimed at investigating the possible role of one of these extra subunits, 39 kDa (NUEM) subunit which is related to the SDRs-enzyme family. The members of this family function in different redox and isomerization reactions and contain a conserved NAD(P)H-binding site. It was proposed that the 39 kDa subunit may be involved in a biosynthetic pathway, but the role of this subunit in complex I is unknown. In contrast to the situation in N. crassa, deletion of the 39 kDa encoding gene in Y. lipolytica led to the absence of fully assembled complex I. This result might indicate a different pathway of complex I assembly in both organisms. Several site-directed mutations were generated in the nucleotide binding motif. These had either no effect on enzyme activity and NADPH binding, or prevented complex I assembly. Mutations of arginine-65 that is located at the end of the second b-strand and responsible for selective interaction with the 2’-phosphate group of NADPH retained complex I activity in mitochondrial membranes but the affinity for the cofactor was markedly decreased. Purification of complex I from mutants resulted in decrease or loss of ubiquinone reductase activity. It is very likely that replacement of R65 not only led to a decrease in affinity for NADPH but also caused instability of the enzyme due to steric changes in the 39 kDa subunit. These data indicate that NADPH bound to the 39 kDa subunit (NUEM) is not essential for complex I activity, but probably involved in complex I assembly in Y. lipolytica.
Der Begriff psychologische Akkulturation beschreibt jene Veränderungen, die infolge des dauerhaften Aufeinandertreffens verschiedener kultureller Gruppen auf individueller Ebene zu beobachten sind (Berry, 1997). Die vorliegende Arbeit umfasst drei Publikationen, die sich mit Akkulturationsprozessen von Kindern und Jugendlichen mit Migrationshintergrund in Deutschland befassen. Zunächst wird ein Überblick über den aktuellen Stand der Forschung zur Situation junger Migranten in Deutschland vorgelegt. An zentraler Stelle steht dabei die Frage, wie die Migrationsgeschichte und Immigrationspolitik Deutschlands sowie die öffentliche Einstellung gegenüber Migranten die transkulturelle Adaptation von Kindern und Jugendlichen nicht-deutscher ethno-kultureller Herkunft beeinflussen. Bereits bestehende wissenschaftliche Erkenntnisse werden verknüpft mit den Ergebnissen neuerer empirischer Studien um zu einem tieferen Verständnis der Ursachen für die vielfach berichteten problematischen Verläufe psychologischer und soziokultureller Adaptation von Migranten beizutragen. Neben anderen Risiken und protektiven Faktoren wird diskutiert, wie sich Besonderheiten Deutschlands als Aufnahmeland, wie z.B. die Eigenarten des Schulsystems, auf Adaptationsverläufe auswirken können. Unsere eigenen Studien tragen zum Verständnis der Anpassungsprozesse junger Migranten bei, indem sie aufzeigen, dass nicht die Akkulturationsstrategie der Integration, sondern speziell die Orientierung an der deutschen Kultur bei Individuen zu den günstigsten psychologischen und soziokulturellen Ergebnissen zu führen scheint. Im Rahmen dieser Arbeit wird weiterhin ein empirischer und methodologischer Beitrag zur Akkulturationsforschung geleistet, indem ein Messinstrument zur Erfassung psychologischer Akkulturation bei Kindern im deutschen Sprachraum – die Frankfurter Akkulturationsskala für Kinder (FRAKK-K)– entwickelt, validiert und schließlich anhand einer Fragestellung praktisch angewandt wird. Die Skalenentwicklung und –optimierung erfolgte auf der Grundlage von zwei Studien, welche Daten von 387 Grundschülern aus zwei städtischen Regionen in Deutschland umfassen (Frankenberg & Bongard, 2013). Die Ergebnisse konfirmatorischer Faktorenanalysen sprechen für zwei Faktoren, Orientierung an der Aufnahmekultur und Orientierung an der Herkunftskultur, die jeweils mittels 6 Items erfasst werden. Beide Subskalen weisen eine zufriedenstellende interne Reliabilität und Kriteriumsvalidität auf und lassen sich zwecks Erfassung der Akkulturationsstrategie kombinieren (i.e. Assimilation, Integration, Separation und Marginalisierung). In einer ersten praktischen Anwendung der Skala wird der Frage nachgegangen, inwiefern erweiterter Musikunterricht und Orchesterspiel in der Grundschule über verstärkte Gruppenkohäsion zur Förderung kultureller Integration beitragen können.
Grundschüler, die in einem Orchester gespielt haben, zeigen über einen Zeitraum von 1,5 Jahren einen stärkeren Anstieg der Orientierung an der deutschen Kultur als Schüler, die keinen erweiterten Musikunterricht erhielten. Musikschüler fühlen sich außerdem stärker in die Klassengemeinschaft integriert. Dies deutet darauf hin, dass die Erfahrung der Zusammenarbeit und des Musizierens innerhalb einer Gruppengemeinschaft zu einer stärkeren Orientierung an der deutschen Kultur geführt hat. Die Orientierung an der Herkunftskultur blieb unbeeinflusst. Somit können Programme, die jungen Migranten die Gelegenheit bieten Musik innerhalb einer größeren, kulturell heterogenen Gruppe aufzuführen, als eine effektive Intervention zur Förderung der kulturellen Anpassung an die Mehrheitskultur und der Integration innerhalb – und außerhalb – des Klassenzimmers führen.
Abschließend werden die Ergebnisse der empirischen Untersuchungen vor dem Hintergrund des aktuellen Forschungsstandes zu neueren Akkulturationsmodellen sowie zu der Terminologie und den methodischen Herausforderungen des Forschungsfeldes in Beziehung gesetzt und kritisch reflektiert. Daraus abgeleitet werden Implikationen für zukünftige Interventionen und Forschung diskutiert.
Acetaldehydaddukte an Hämoglobin werden als potentieller biochemischer Marker für Alkoholmissbrauch betrachtet, konnten aber bisher in vivo noch nicht eindeutig nachgewiesen werden. Es wurden Methoden entwickelt, um Acetaldehydmodifiziertes Hämoglobin sowohl nach Inkubation in vitro als auch in humanen Blutproben nachzuweisen. Verwendung fanden sowohl chromatographische als auch elektrophoretische Trennmethoden in Kombination mit unterschiedlichen Massenspektrometern zur Detektion. Es wurden unterschiedliche Patienten- und Probandenkollektive betrachtet. Aus Blutproben von Patienten aus Alkoholentzugskliniken, von Probanden eines kontrollierten Trinkversuches und Blutproben von Personen mit moderatem Alkoholkonsumverhalten wurde versucht, modifiziertes Hämoglobin mit Alkoholkonsum zu korrelieren. Desweiteren wurden Blutproben von Kindern untersucht, bei denen keine Alkoholexposition zu erwarten war, um eventuell vorhandenes endogenes modifiziertes Hämoglobin nachzuweisen. Zusätzlich zu den Untersuchungen in vitro und in vivo wurden auch post-mortale Proben analysiert, um modifiziertes Hämoglobin mit einem prämortalem Alkoholkonsum zu korrelieren und auf mögliche andere Einflüsse, insbesondere hinsichtlich post-mortaler Parameter zu untersuchen. Modifizierte Globinketten waren nach Synthese aus Hämoglobin und Acetaldehyd zugänglich und konnten in vitro nachgewiesen werden. Hierbei zeigte sich, dass Acetaldehyd auch mehrfach kovalent an beide Hämoglobinketten binden kann. Weder mehr- noch einfach modifizierte Hämoglobinketten konnten allerdings in authentischen humanen Blutproben nachgewiesen werden. Die Empfindlichkeit konnte jedoch nach proteolytischem Verdau so weit gesteigert werden, dass Acetaldehydmodifizierte Hämoglobinpeptide nicht nur nach Inkubation von Hämoglobin mit Acetaldehyd, sondern auch in authentischen Blutproben sämtlicher untersuchter Kollektive nachweisbar waren. Es wurde gezeigt, dass ein intermolekularer Austausch von Acetaldehyd nach proteolytischem Verdau zur Bildung eines Peptidadduktes am neu entstandenen N-Terminus des jeweiligen Peptides führen kann. Ein Hinweis auf andere mögliche Bindungsstellen ergab die Analyse des in vitro synthetisierten Peptides Hbα(17-31)2Ach mit zwei gebundenen Molekülen Acetaldehyd. Insgesamt konnten in authentischen Proben 10 Peptide mit Acetaldehydmodifikation, welche jeweils als chromatographisch trennbare Stereoisomere auftraten, nachgewiesen werden. Dies geht einher mit einer bereits vorgeschlagenen Bildung diastereomerer Imidazolidinonderivate. Acetaldehydmodifizierte Hämoglobinpeptide waren nicht nur in Proben von Patienten und Probanden mit nachweisbarem Blutalkohol vorhanden, sondern auch in Blutproben von Alkoholikern, Studenten und Kindern ohne akuten Alkoholkonsum. Der Nachweis dieser Addukte auch ohne exogene Alkohol- oder Acetaldehydexposition lässt darauf schliessen, dass diese posttranslationale Modifikation im menschlichen Körper abläuft, Acetaldehydaddukte also auch endogen gebildet werden. Ein erhöhtes Verhältnis von modifizierten Peptiden zu deren unmodifizierten Homologen zeigte sich konzentrationsabhängig nach Inkubation von Hämoglobin mit Acetaldehyd in vitro. Langfristiger zurückliegender Alkoholkonsum konnte in Studien mit Patienten einer Rehabilitationseinrichtung und mit Probanden mit moderatem Alkoholkonsum nicht mit Hämoglobinaddukten korreliert werden. Erhöhte Adduktverhältnisse im Vergleich mit Proben ohne Blutalkoholkonzentration des gleichen Kollektivs konnten bei Patienten einer Alkoholentzugsklinik, in post-mortalen Proben und im Rahmen eines kontrollierten Trinkversuches nachgewiesen werden. Die Kinetik der Bildung und Elimination Acetaldehydmodifizierten Hämoglobins wurde sowohl anhand von Blutproben von Patienten einer Alkoholentzugsklinik untersucht, erhöhte Adduktverhältnisse waren hier nur kürzer als 5 Tage nachweisbar. Diese schnelle Elimination wurde im Rahmen eines kontrollierten Trinkversuches bestätigt. Hierbei fand sich ein signifikanter Anstieg Acetaldehydmodifizierter Hämoglobinpeptide bereits nach einmaligem moderatem Alkoholkonsum, welcher bereits bei Blutalkoholkonzentrationen von durchschnittlich 0,12 g/L auftrat und noch mindestens 6 Stunden, aber nicht mehr 24 Stunden nach Trinkende anhielt. Daher liegt die mögliche Anwendung dieses empfindlichen Assays im Nachweis eines kurzfristigen Alkoholkonsums. Sämtliche Peptide wurden hinsichtlich Empfindlichkeit und Spezifität zur Identifizierung eines Alkoholkonsums sowohl in vivo als auch in post-mortalen Proben anhand unterschiedlicher Schwellenwerte untersucht. Desweiteren wurde für diese Peptide die analytische Präzision betrachtet. Als Markerpeptid eines kurzfristigen Alkoholkonsum sowohl in vivo als auch in post-mortalen Blutproben wird hierbei Hbα(32-40)Ach vorgeschlagen. Der mögliche Vorteil bei der Betrachtung dieses Peptids im Vergleich mit anderen bereits etablierten Markern zum Nachweis eines kurzfristigen Alkoholkonsums liegt in der für den Nachweis benötigten geringen Materialmenge, welche bei der Bestimmung mittels HPLC/TOF-MS 80μg Hämoglobin betrug, was etwa der Hämoglobinmenge entspricht, die in etwa 2,5 Millionen Erythrozyten, entsprechend 0,6 μl Blut enthalten ist. Denkbar ist dadurch die Bestimmung in Blutspuren, aus denen ansonsten kein Nachweis von Ethanol oder anderer Marker eines Alkoholkonsums möglich wäre, z.B. aus getrockneten Blutspuren.
The enzyme acetyl-CoA carboxylase (ACC) plays a fundamental role in the fatty acid metabolism. It regulates the first and rate limiting step in the biosynthesis of fatty acids by catalyzing the carboxylation of acetyl-CoA to malonyl-CoA and exists as two different isoforms, ACC1 and ACC2. In the last few years, ACC has been reported as an attractive drug target for treating different diseases, such as insulin resistance, hepatic steatosis, dyslipidemia, obesity, metabolic syndrome and nonalcoholic fatty liver disease. An altered fatty acid metabolism is also associated with cancer cell proliferation. In general, the inhibition of ACC provides two possibilities to regulate the fatty acid metabolism: It blocks the de novo lipogenesis in lipogenic tissues and stimulates the mitochondrial fatty acid β-oxidation. Surprisingly, the role of ACC in human vascular endothelial cells has been neglected so far. This work aimed to investigate the role of the ACC/fatty acid metabolism in regulating important endothelial cell functions like proliferation, migration and tube formation.
To investigate the function of ACC, the ACC-inhibitor soraphen A as well as an siRNA-based approach were used. This study revealed that ACC1 is the predominant isoform both in human umbilical vein endothelial cells (HUVECs) and in human dermal microvascular endothelial cells (HMECs). Inhibition of ACC via soraphen A resulted in decreased levels of malonyl-CoA and shifted the lipid composition of endothelial cell membranes. Consequently, membrane fluidity, filopodia formation and the migratory capacity were attenuated. Increasing amounts of longer acyl chains within the phospholipid subgroup phosphatidylcholine (PC) were suggested to overcompensate the shift towards shorter acyl chains within phosphatidylglycerol (PG), which resulted in a dominating effect on regulating the membrane fluidity. Most importantly, this work provided a link between changes in the phospholipid composition and altered endothelial cell migration. The antimigratory effect of soraphen A was linked to a reduced amount of PG and to an increased amount of polyunsaturated fatty acids (PUFAs) within the phospholipid cell membrane. This link was unknown in the literature so far. Interestingly, a reduced filopodia formation was observed upon ACC inhibition via soraphen A, which presumably caused the impaired migratory capacity.
This work revealed a relationship between ACC/fatty acid metabolism, membrane lipid composition and endothelial cell migration. The natural compound soraphen A emerged as a valuable chemical tool to analyze the role of ACC/fatty acid metabolism in regulating important endothelial cell functions. Furthermore, regulating endothelial cell migration via ACC inhibition promises beneficial therapeutic perspectives for the treatment of cell migration-related disorders, such as ischemia reperfusion injury, diabetic angiopathy, macular degeneration, rheumatoid arthritis, wound healing defects and cancer.
One of the key functions of blood vessels is to transport nutrients and oxygen to distant tissues and organs in the body. When blood supply is insufficient, new vessels form to meet the metabolic tissue demands and to re-establish cellular homeostasis. Expansion of the vascular network through sprouting angiogenesis requires the specification of ECs into leading (sprouting) tip and following (non-sprouting) stalk cells. Attracted by guidance cues tip cells dynamically extend and retract filopodia to navigate the nascent vessel sprout, whereas trailing stalk cells proliferate to form the extending vascular tube. All of these processes are under the control of environmental signals (e.g. hypoxia, metabolism) and numerous cytokines and peptide growth factors. The Dll4/Notch pathway coordinates several critical steps of angiogenic blood vessel growth. Even subtle alterations in Notch activity can profoundly influence endothelial cell behavior and blood vessel formation, yet little is known about the intrinsic regulation and dynamics of Notch signaling in endothelial cells. In addition, it remains an open question, how different growth factor signals impinging on sprouting ECs are coordinated with local environmental cues originating from nutrient-deprived, hypoxic tissue to achieve a balanced endothelial cell response. Acetylation of lysines is a critical posttranslational modification of histones, which acts as an important regulatory mechanism to control chromatin structure and gene transcription. In addition to histones, several non-histone proteins are targeted for acetylation reversible acetylation is emerging as a fundamental regulatory mechanism to control protein function, interaction and stability. Previous studies from our group identified the NAD+-dependent deacetylase SIRT1 as a key regulator of blood vessel growth controlling endothelial angiogenic responses. These studies revealed that SIRT1 is highly expressed in the vascular endothelium during blood vessel development, where it controls the angiogenic activity of endothelial cells. Moreover, in this work SIRT1 has been shown to control the activity of key regulators of cardiovascular homeostasis such as eNOS, Foxo1 and p53. The present study describes that SIRT1 antagonizes Notch signaling by deacetylating the Notch intracellular domain (NICD). We showed that loss of SIRT1 enhances DLL4-induced endothelial Notch responses as assessed by different luciferase responsive elements as well as transcriptional analysis of Notch endogenous target genes activation. Conversely, SIRT1 gain of function by overexpression of pharmacological activation decreases induction of Notch targets in response to DLL4 stimulation. We also showed that the NICD can be directly acetylated by PC AF and p300 and that SIRT1 promotes deacetylation of NICD. We have identified 14 lysines that are targeted for acetylation and their mutation abolishes the effects of SIRT1 of Notch responses. Furthermore, over-expression or activation of SIRT1 significantly reduces the levels of NICD protein. Moreover, SIRT1-mediated NICD degradation can be reversed by blockade of the proteasome suggesting a mechanism resulting from ubiquitin-mediated proteolysis. Indeed, we have shown that SIRT1 knockdown or pharmacological inhibition decreased NICD ubiquitination. We propose a novel molecular mechanism of modulation of the amplitude and duration of Notch responses in which acetylation increases NICD stability and therefore permanence at the promoters, while SIRT1, by inducing NICD degradation through its deacetylation, shortens Notch responses. In order to evaluate the physiological relevance of our findings we used different models in which the Notch functions during blood vessel formation have been extensively characterized. First, retinal angiogenesis in mice lacking SIRT1 activity shows decreased branching and reduced endothelial proliferation, similar to what happens after Notch gain of function mutations. ECs from these mice exhibit increased expression of Notch target genes. Second, these results were reproducible during intersomitic vessel growth in sirt1-deficient zebrafish. In both models, the defects could be partially rescued by inhibition of Notch activation. Third, we used an in vitro model of vessel sprouting from differentiating embryonic bodies in response to VEGF in a collagen matrix. Our results showed that Sirt1-deficient cells shows impaired sprouting which correlated with increased NICD levels. In addition, when in competition with wild-type cells in this assay, Sirt1-deficient cells are more prone to occupy the stalk cell position. Taken together, our study identifies reversible acetylation of NICD as a novel molecular mechanism to adapt the dynamics of Notch signaling and suggest that SIRT1 acts as a rheostat to fine-tune endothelial Notch responses. The NAD+-dependent feature of SIRT1 activity possibly links endothelial Notch responses to environmental cues and metabolic changes during nutrient deprivation in ischemic environments or upon other cellular stresses.
Über zwei Drittel aller Menschen erleben in ihrem Leben mindestens ein traumatisches Ereignis (Kessler et al., 2017). Gerade nach interpersonellen Traumatisierungen ist die Rate der Betroffenen, welche eine posttraumatische Belastungsstörung (PTBS) entwickeln, sehr hoch (z. B. ca. 50% nach sexuellem Missbrauch; Hauffa et al., 2011). In der Vergangenheit wurden Angst- und Ohnmachtsgefühle als zentrale der PTBS zu Grunde liegende Emotionen aufgefasst (Foa & Kozak, 1986). Neuere Forschungsbefunde legen jedoch nahe, dass traumabezogene Schuld- und Schamgefühle auch eine wichtige Rolle bei der Entstehung und Aufrechterhaltung der PTBS spielen (z. B. Badour et al., 2017). Dabei leiden besonders Betroffene von interpersonellen Gewalterfahrungen unter diesen Gefühlen (z. B. Badour et al., 2017).
Im Hinblick auf die psychotherapeutische Behandlung der PTBS haben sich traumafokussierte Verfahren als wirksam erwiesen (z. B. Lewis et al., 2020). Hohe Drop-out (z. B. Swift & Greenberg, 2014) und Nonresponse Raten (Fonzo et al., 2020) geben jedoch Hinweise darauf, dass nicht allen PTBS Patient*innen mit diesen Verfahren ausreichend geholfen werden kann, wobei insbesondere Patient*innen mit interpersonellen Traumatisierungen weniger gut davon zu profitieren scheinen (z. B. Karatzias et al., 2019). Zudem hat sich gezeigt, dass Schuldgefühle auch nach einer erfolgreichen PTBS Behandlung weiter persistieren (Larsen et al., 2019). Demnach besteht ein Bedarf an alternativen Therapieverfahren für Patient*innen mit interpersonellen Traumatisierungen und/oder Schuld- und Schamgefühlen.
Besonders vielversprechend sind hierbei achtsamkeitsbasierte Interventionen, die bereits in der PTBS Behandlung eine zunehmend bedeutsame Rolle spielen (Hopwood & Schutte, 2017). Eine wichtige Voraussetzung für die weitere Erforschung dieser Interventionen sind valide und reliable Verfahren zur Veränderungsmessung von Achtsamkeit (Isbel et al., 2020). So scheinen bisherige Studien jedoch hauptsächlich fragebogenbasierte Maße zur Erfassung von Veränderungen in Trait-Achtsamkeit eingesetzt zu haben, obwohl diese Interventionen eher auf die Steigerung von State-Achtsamkeit abzielen (Goodman et al., 2017). Darüber hinaus kristallisierten sich methodische Kritikpunkte in Bezug auf die Validität von Fragebögen zur Erfassung von Trait-Achtsamkeit heraus (van Dam et al., 2018). Demgegenüber erfassen Experience-Sampling Ansätze (z. B. Mindful-Breathing Exercise, MBE; Burg & Michalak, 2011) eher Aspekte der State-Achtsamkeit, sind jedoch in klinischen Untersuchungsstichproben bisher kaum untersucht worden. Darauf aufbauend fokussierte die erste Forschungsfrage der Dissertation die Untersuchung der MBE im klinischen Kontext. Ein Hauptbefund der Studie zeigte, dass die MBE bei PTBS Patient*innen hinsichtlich ihres Prädiktionswertes für die PTBS Symptome Übererregung und Intrusionen gegenüber fragebogenbasierter Trait-Achtsamkeit überlegen war. Mögliche Wirkmechanismen achtsamkeitsbasierter Interventionen könnten demnach durch den Einsatz der MBE besonders gut abgebildet werden.
Innerhalb der achtsamkeitsbasierten Interventionen kommt in der Behandlung der PTBS am häufigsten die Mindfulness Based Stress Reduction (MBSR; Kabat-Zinn, 2013) als standardisierte Gruppenintervention zum Einsatz (Boyd et al., 2018). Jedoch scheint die MBSR insbesondere für PTBS Patient*innen mit interpersonellen Traumatisierungen nicht eins-zu-eins anwendbar zu sein (Müller-Engelmann et al., 2017). Buddhistische Metta-Meditationen (dt.: Liebende Güte; Salzberg, 2002) sind vor diesem Hintergrund eine vielversprechende Ergänzung zu achtsamkeitsbasierten Interventionen. Metta-Meditationen zielen darauf ab, sich selbst sowie allen anderen Lebewesen bedingungsloses Wohlwollen und Freundlichkeit entgegen zu bringen (Bodhi, 2010). Metta-Meditationen sind noch weniger gut in der klinischen Forschung etabliert. Erste Befunde deuten jedoch darauf hin, dass sie bei PTBS Patient*innen zu einer Reduktion der PTBS Symptomatik führen können (z. B. Kearney et al., 2021). Folglich wurde im Rahmen der zweiten Forschungsfrage eine neue Intervention entwickelt und evaluiert, welche sich an den Bedürfnissen von PTBS Patient*innen mit interpersonellen Traumatisierungen orientiert. Sie kombiniert kürzere, PTBS spezifische Achtsamkeitsübungen mit angepassten Übungen aus MBSR sowie Metta-Meditationen (= Trauma-MILOKI). Trauma-MILOKI zeigte sich in einer multiplen Baseline Studie wirksam zur Reduktion der PTBS Symptome sowie zur Steigerung des Wohlbefindens.
Ein Wirkmechanismus von Metta-Meditationen ist die Förderung positiver Emotionen sowie des Gefühls sozialer Verbundenheit (Salzberg, 2002), weswegen sie auch besonders gut geeignet scheinen, traumabezogene Schuld- und Schamgefühle zu reduzieren. Darüber hinaus haben sich unter den etablierten Therapieverfahren v. a. kognitive Ansätze zur Reduktion von Schuldgefühlen als wirksam erwiesen (Resick et al., 2008)...
Echolocation allows bats to orientate in darkness without using visual information. Bats emit spatially directed high frequency calls and infer spatial information from echoes coming from call reflections in objects (Simmons 2012; Moss and Surlykke 2001, 2010). The echoes provide momentary snapshots, which have to be integrated to create an acoustic image of the surroundings. The spatial resolution of the computed image increases with the quantity of received echoes. Thus, a high call rate is required for a detailed representation of the surroundings.
One important parameter that the bats extract from the echoes is an object’s distance. The distance is inferred from the echo delay, which represents the duration between call emission and echo arrival (Kössl et al. 2014). The echo delay decreases with decreasing distance and delay-tuned neurons have been characterized in the ascending auditory pathway, which runs from the inferior colliculus (Wenstrup et al. 2012; Macías et al. 2016; Wenstrup and Portfors 2011; Dear and Suga 1995) to the auditory cortex (Hagemann et al. 2010; Suga and O'Neill 1979; O'Neill and Suga 1982).
Electrophysiological studies usually characterize neuronal processing by using artificial and simplified versions of the echolocation signals as stimuli (Hagemann et al. 2010; Hagemann et al. 2011; Hechavarría and Kössl 2014; Hechavarría et al. 2013). The high controllability of artificial stimuli simplifies the inference of the neuronal mechanisms underlying distance processing. But, it remains largely unexplored how the neurons process delay information from echolocation sequences. The main purpose of the thesis is to investigate how natural echolocation sequences are processed in the brain of the bat Carollia perspicillata. Bats actively control the sensory information that it gathers during echolocation. This allows experimenters to easily identify and record the acoustic stimuli that are behaviorally relevant for orientation. For recording echolocation sequences, a bat was placed in the mass of a swinging pendulum (Kobler et al. 1985; Beetz et al. 2016b). During the swing the bat emitted echolocation calls that were reflected in surrounding objects. An ultrasound sensitive microphone traveling with the bat and positioned above the bat’s head recorded the echolocation sequence. The echolocation sequence carried delay information of an approach flight and was used as stimulus for neuronal recordings from the auditory cortex and inferior colliculus of the bats.
Presentation of high stimulus rates to other species, such as rats, guinea pigs, suppresses cortical neuron activity (Wehr and Zador 2005; Creutzfeldt et al. 1980). Therefore, I tested if neurons of bats are suppressed when they are stimulated with high acoustic rates represented in echolocation sequences (sequence situation). Additionally, the bats were stimulated with randomized call echo elements of the sequence and an interstimulus time interval of 400 ms (element situation). To quantify neuronal suppression induced by the sequence, I compared the response pattern to the sequence situation with the concatenated response patterns to the element situation. Surprisingly, although the bats should be adapted for processing high acoustic rates, their cortical neurons are vastly suppressed in the sequence situation (Beetz et al. 2016b). However, instead of being completely suppressed during the sequence situation, the neurons partially recover from suppression at a unit specific call echo element. Multi-electrode recordings from the cortex allow assessment of the representation of echo delays along the cortical surface. At the cortical level, delay-tuned neurons are topographically organized. Cortical suppression improves sharpness of neuronal tuning and decreases the blurriness of the topographic map. With neuronal recordings from the inferior colliculus, I tested whether the echolocation sequence also induced neuronal suppression at subcortical level. The sequence induced suppression was weaker in the inferior colliculus than in the cortex. The collicular response makes the neurons able to track the acoustic events in the echolocation sequence. Collicular suppression mainly improves the signal-to-noise ratio. In conclusion, the results demonstrate that cortical suppression is not necessarily a shortcoming for temporal processing of rapidly occurring stimuli as it has previously been interpreted.
Natural environments are usually composed of multiple objects. Thus, each echolocation call reflects off multiple objects resulting in multiple echoes following the calls. At present, it is largely unexplored how neurons process echolocation sequences containing echo information from more than one object (multi-object sequences). Therefore, I stimulated bats with a multi-object sequence which contained echo information from three objects. The objects were different distances away from each other. I tested the influence of each object on the neuronal tuning by stimulating the bats with different sequences created from filtering object specific echoes from the multi-object sequence. The cortex most reliably processes echo information from the nearest object whereas echo information from distant objects is not processed due to neuronal suppression. Collicular neurons process less selectively echo information from certain objects and respond to each echo.
For proper echolocation, bats have to distinguish between own biosonar signals and the signals coming from conspecifics. This can be quite challenging when many bats echolocate adjacent to each other. In behavioral experiments, the echolocation performance of C. perspicillata was tested in the presence of potentially interfering sounds. In the presence of acoustic noise, the bats increase the sensory acquisition rate which may increase the update rate of sensory processing. Neuronal recordings from the auditory cortex and inferior colliculus could strengthen the hypothesis. Although there were signs of acoustic interference or jamming at neuronal level, the neurons were not completely suppressed and responded to the rest of the echolocation sequence.