Refine
Year of publication
Document Type
- Doctoral Thesis (5741) (remove)
Language
- German (3643)
- English (2069)
- French (9)
- Latin (5)
- Spanish (5)
- Portuguese (4)
- Italian (3)
- Multiple languages (2)
- mis (1)
Is part of the Bibliography
- no (5741)
Keywords
- Deutschland (15)
- Gentherapie (14)
- HIV (13)
- Apoptosis (12)
- Membranproteine (12)
- NMR-Spektroskopie (11)
- RNA (11)
- RNS (10)
- Schmerz (10)
- ALICE (9)
Institute
- Medizin (1531)
- Biowissenschaften (836)
- Biochemie und Chemie (729)
- Physik (597)
- Pharmazie (329)
- Biochemie, Chemie und Pharmazie (311)
- Geowissenschaften (139)
- Neuere Philologien (115)
- Gesellschaftswissenschaften (111)
- Psychologie (97)
Kurz nachdem Jean Paul im Jahr 1796 den letzten Teil des Romanmanuskripts Blumen-, Frucht- und Dornenstücke oder Ehestand, Tod und Hochzeit des Armenadvokaten F. St. Siebenkäs an seinen Verleger abgeschickt hatte, brach er in die damalige Kulturhauptstadt Weimar auf. Dort traf er zum ersten Mal den von ihm mit Distanz bewunderten Goethe. Während dieser Besuch von Goethe selbst unkommentiert blieb, fand eine aus dem gleichen Jahr stammende Äußerung Jean Pauls eine um so größere Resonanz bei dem um sein Image besorgten Dichterfürsten. ...
In Publikationen zur Frauenliteratur der Weimarer Zeit finden sich, direkt oder mittelbar formuliert, zwei Thesen: Dass zum einen die politisch engagierte Frau in den Romanen eine selten anzutreffende Figur sei und dass zum anderen die Schriftstellerinnen jener Zeit sich politisch eher rückwärtsgewandt verhalten und geäußert hätten. In einer differenzierten Untersuchung wird mit einer Fülle von Beispielen belegt, dass tatsächlich aber vom Ersten Weltkrieg bis zum Ende der Republik zahlreiche Schriftstellerinnen die politischen Vorkommnisse beobachteten, direkt kommentierten oder literarisch ausgestalteten. Den Begriff „rückwärts gewandt“ problematisierend wird erläutert, dass diese Einstufung weder ohne weiteres bestätigt noch verneint werden kann, da Wertbegriffe wie „fortschrittlich“ oder „reaktionär“ nicht eindeutig und zweifelsfrei definiert werden können.
Canada’s geographic centre lies in the Territory Nunavut. From here the distance to the geographic North Pole is as far as to the US border. Nunavut takes up about 1/5 of the Canadian land mass but has by far the smallest population with currently about 38,000 residents. 85% of its population are Inuit whose culture dramatically changed within the last 70 years.
As a result, the territory is dealing with several generations of Inuit that are traumatized or at least severely affected by cultural and economic changes that started after World War 2 with the resettlement from the land into permanent communities. No matter if we are talking about the actual elders, mid-age adults or pre-teenagers, each of this generation experienced and still experiences various personal and cultural challenges of identity, financial and housing insecurity, food insecurity, substance abuse education, change of social values ranging from inter-generational and gender relationships to the introduction of a foreign political and legal system.
On the other side, a lot of the traditional societal values are still being practiced in Inuit families. Despite all the tragedies that several generations of Inuit have experienced by now, the society keeps generating the strength and cultural pride that allows many Inuit both, as individuals and as a collective under the umbrella of either Inuit Land Claims or not for profit organizations to advocate on behalf of Inuit culture, to fight for more acknowledgement of Inuit culture and to enhance pride in the historic and present day cultural achievements of Nunavut’s indigenous population.
The social issues, inter- and intra-cultural processes described in my thesis are not exclusive to the situation in Nunavut or to Inuit. Studies from other regions, in Canada or from around the world (LaPrairie 1987; Jensen 1986; Nunatsiaq News 6/30/2010) reveal similar challenges.
Though many structural similarities can be identified by comparing these studies with each other, e.g. marginalization of the indigenous local population, colonization, paternalism and resulting issues like personal and cultural identity loss, it is important to have a more in depth look into the single cases to determine which individual events and developments causes and maybe still cause such a devastating social situation as it is found among many indigenous peoples across the world. From my perspective effective improvements of the situation of a group, a respective community or region can only happen when particularities of socialization, communication and philosophy in the single cultural entities are being considered.
That is why my thesis will exclusively focus on developments in Nunavut and use various case studies of communities. The case studies shall help to identify local differences in historic and recent developments and thus provide starting points for explanations of different developments in different Nunavut communities.
The thesis is looking at both, historic and recent root causes for the many issues in Nunavut.
The data that my my thesis is based on are a combination of literature and about 60 formal and informal interviews that I conducted in three Nunavut communities (Iqaluit, Whale Cove, Kugluktuk) during my 18 months of field work between October 2008 and March 2010. Many more spontaneous unstructured conversations between me and community members added to the pool of first-hand information that I gathered.
Since my field work is limited to those three communities it has a very strong qualitative character. The quantitative side, which allows me to confidently apply my research analyses to entire Nunavut, comes from literature research as well as many informal conversations and a few formal interviews that I conducted with people who had some experience in other communities than Iqaluit, Kugluktuk and Whale Cove.
Furthermore, while I was living at the old residence of the Nunavut Arctic College in Iqaluit, I spend time with college students from across Nunavut. Through them, I obtained „case studies “from following communities: Iqaluit, Qikiqtarjuaq, Kimmirut, Pangnirtung, Clyde River, Pond Inlet, Igloolik, Repulse Bay, Cape Dorset, Chesterfield Inlet, Baker Lake, Rankin Inlet, Whale Cove, Arviat, Taloyoak, Kugluktuk.
My general categorization of “early contact period”, “contact”, “1st generation” and “2nd generation” is very similar to Damas’ terms of “early contact phase”, “contact – traditional”, “resettlement” that he uses to create a timeline that describes the major phases of impact for Inuit society (Damas 2002: 7, 17).
Chapters 2 is meant to provide an inventory of the key aspects of current social issues in Nunavut. In this context I am looking at the four major aspects that in my opinion shape Nunavut’s society:
1) violence and other forms of social dysfunctions
2) the associated services and delivering agencies that try to address those matters
3) Education
4) Inuit cultural particularities in communication and socialization
Those four areas are forming the foundation for the rest of my work. The following chapters will guide the reader through the historic transformation process of Inuit pre-colonial semi-nomadic society to a society that is living in permanent settlements, strongly influenced if not in many ways dominated by Euro-Canadian culture. Each of those chapters will be referring to the social and cultural changes that happened in the different time periods that I labeled with “Pre-settlement, First, Second, and Third Generation”. The relevance of violence and other social dysfunctions, their context and strategies how each generation dealt with those matters will be analyzed while I will be also referring to the impacts that non-Inuit, primarily Euro-Canadians and Euro-Americans had and have on Inuit society.
...
Chemokines play a key role in the cellular infiltration of inflamed tissue. They are released by a wide variety of cell types during the initial phase of host response to injury, allergens, antigens, or invading microorganisms, and selectively attract leukocytes to inflammatory foci, inducing both migration and activation. Monocyte chemoattractant protein-1 (MCP-1), a member of the CC chemokine superfamily, functions in attracting monocytes, T lymphocytes, and basophils to sites of inflammation. MCP-1 is produced by monocytes, fibroblasts, vascular endothelial cells and smooth muscle cells in response to various stimuli such as tumour necrosis factor-a (TNF-a), interferon-g (IFN-g), and interleukin-1b (IL-1b). It also plays an important role in the pathogenesis of chronic inflammation, and overexpression of MCP-1 has been implicated in diseases including glomerulonephritis and rheumatoid arthritis. Oligonucleotide-directed triple helix formation offers a means to target specific sequences in DNA and interfere with gene expression at the transcriptional level. Triple helix-forming oligonucleotides (TFOs) bind to homopurine/homopyrimidine sequences, forming a stable, sequence-specific complex with the duplex DNA. Purine-rich sequences are frequent in gene regulatory regions and TFOs directed to promoter sequences have been shown to prevent binding of transcription factors and inhibit transcription initiation and elongation. Exogenous TFOs that bind homopurine/ homopyrimidine DNA sequences and form triple-helices can be rationally designed, while the intracellular delivery of single-stranded RNA TFOs has not been studied in detail before. In this study, expression vectors were constructed which directed transcription of either a 19 nt triplex-forming pyrimidine CU-TFO sequence targeting the human MCP-1 or two different 19 nt GU- or CA-control sequences, respectively, together with the vector encoded hygromycin resistance mRNA as one fusion transcript. HEK 293 cells were stable transfected with these vectors and several TFO and control cell lines were generated. Functional relevant triplex formation of a TFO with a corresponding 19 bp GC-rich AP-1/SP-1 site of the human MCP-1 promoter was shown. Binding of synthetic 19 nt CUTFO to the MCP-1 promoter duplex was verified by triplex blotting at pH 6.7. Underlining binding specificity, control sequences, including the GU- and CA-sequence, a TFO containing one single mismatch and a MCP-1 promoter duplex containing two mismatches, did not participate in triplex formation. Establishing a magnetic capture technique with streptavidin microbeads it was verified that at pH 7.0 the 19 nt TFO embedded in a 1.1 kb fusion transcript binds to a plasmid encoded MCP-1 promoter target duplex three times stronger than the controls. Finally, cell culture experiments revealed 76 ± 10.2% inhibition of MCP-1 protein secretion in TNF-a stimulated CU-TFO harboring cell lines and up to 88% after TNF-a and IFN-g costimulation in comparison to controls. Expression of interleukin-8 (IL-8) as one TNF-a inducible control gene was not affected by CU-TFO, demonstrating both highly specific and effective chemokine gene repression. Furthermore, another chemokine target, regulated upon activation normal T cell expressed and secreted (RANTES), which plays an essential role in inflammation by recruiting T lymphocytes, macrophages and eosinophils to inflammatory sites, was analysed using the triplex approach. A 28 nt TFO was designed targeting the murine RANTES gene promoter, and gel mobility shift assays demonstrated that the phosphodiester TFO formed a sequencespecific triplex with the double-stranded target DNA with a Kd of 2.5 x 10-7 M. It was analysed whether RANTES expression could be inhibited at the transcriptional level testing the TFO in two different cell lines, T helper-1 lymphocytes and brain microvascular endothelial cells (bend3 cells). Although there was a sequence-specific binding of the TFO detectable in the gel shift assays, there was no inhibitory effect of the exogenously added and phosphorothioate stabilised TFO on endogenous RANTES gene expression visible. Additionally, the small interfering RNA (siRNA) approach was tested as another strategy to inhibit expression of the pro-inflammatory chemokines MCP-1 and RANTES. Two different methods were pursuit, describing transient transfection with vector derived and synthetic siRNA. The vector pSUPER containing the siRNA coding sequence was used to suppress endogenous MCP-1 in HEK 293 cells. An empty vector without RNA sequence served as a control. Inhibition due to the siRNA was measured in stimulated and unstimulated cells. In TNF-a stimulated cells MCP-1 protein synthesis was decreased by 35 ± 11% after siRNA transfection. Using a synthetic double-stranded siRNA, the TNF-a induced MCP-1 protein secretion could be successfully inhibited about 62.3 ± 10.3% in HEK 293 cells, indicating that the siRNA is functional in these cells to suppress chemokine expression. The siRNA approach targeting murine RANTES in Th1 cells and b-end3 cells revealed no inhibition of endogenous gene expression. Gene therapy approaches rely on efficient transfer of genes to the desired target cells. A wide variety of viral and nonviral vectors have been developed and evaluated for their efficiency of transduction, sustained expression of the transgene, and safety. Among them, lentiviruses have been widely used for gene therapy applications. In order to improve the delivery of TFOs or siRNAs into the target cells, cloning of the lentiviral transfer vector SEW, the production of lentiviral particles by transient transfection were performed with the aim to generate lentiviral vector-derived TFOs in further experiments. Here, Th1 cells were transduced with infectious lentiviral particles and transduction efficacy was measured. Transduction efficacy higher than 82% could be achieved using the lentiviral vector SEW, opening optimal possibilities for the TFO or siRNA approach.
Auf dem Weg zur multikulturellen Gesellschaft besteht Bedarf, die psychologischen Komponenten verschiedener Migrantengruppen zu erfassen. In Deutschland sind 83.598 Mitmenschen mit chinesischer Staatsbürgerschaft verzeichnet (StatBA, 2009). Werden die Eingebürgerten Übersee-Chinesen mit einbezogen, beläuft sich die Zahl an gesamtchinesischen Mitmenschen auf 135.000 (OCAC, 2009). Als einzige Anhaltspunkte über im Ausland lebende Chinesen dienen Studien aus dem angloamerikanischen Sprachraum. Menschen chinesischen Ursprungs mit westlichem Intellekt erhalten dort die Bezeichnung „Banane“, welche eine gelbe Hülle mit einem weißen Inneren illustriert. Die vorliegende Studie beschäftigt sich erstmalig mit den psychologischen Komponenten der in Deutschland lebenden chinesischen Mitbürger. Welchen Einfluss nimmt die Anpassung an das europäische Umfeld gekoppelt mit der chinesischen Internalisierung auf erinnertes elterliches Erziehungsverhalten, Persönlichkeitsstruktur, Erleben von Emotionen und Körpererleben? 154 chinesisch-stämmige Studierende aus ganz Deutschland wurden für verschiedene standardisierte psychometrische Testverfahren rekrutiert. Ein eigens konzipierter Fragebogen diente zur Messung der asiatischen und europäischen Identität. Wie vorherige Studien (Chao & Aque, 2009) aussagten, zeigten sich in der vorliegenden Stichprobe Züge des autoritativen Erziehungsstils. Im FEE (Fragebogen zum erinnertenelterlichen Erziehungsverhalten) (Schumacher, Eisemann, & Brähler, 1999) erhielten die Übersee-chinesischen Probanden neben einer höheren mütterlichen Strenge auch höhere Werte in der elterlichen Kontrolle und Überbehütung als die deutsche Normstichprobe. Je mehr mütterliche „Ablehnung und Strafe“ und elterliche „Kontrolle und Überbehütung“ die Probanden perzipierten, desto chinesischer sieht der heutige Lebensstil aus. Kongruent mit den Ergebnissen von McCrae et al. (1998) schnitten Übersee-Chinesen im NEO-FFI (Borkenau & Ostendorf, 1993) mit niedrigeren Werten in der Offenheit und höheren Werten in der Verträglichkeit ab. Anders als bei Eap et al. (2008) zeigten Chinesen in Deutschland höhere Werte in der Gewissenhaftigkeit und Extraversion. Diese hingegen korrelierten positiv mit der europäischen Identität. In der MSWS (Multidimensionale Selbstwertskala) (Schütz & Sellin, 2006) erzielten die Übersee-Chinesen einen niedrigeren allgemeinen Selbstwert als die deutsche Normgruppe. Außerdem empfanden die Übersee-Chinesen weniger eigene Selbstwertschätzung im sozialen Kontakt zu anderen, im Umgang mit Kritik und im leistungsbezogenen Bereich. Überraschenderweise erhielten die Probanden einen höheren Selbstwert in der Sportlichkeit. Die SEE (Skalen zu Erleben von Emotionen) (Behr & Becker, 2004) zeigten, dass die körperliche Symbolisierung von Gefühlen bei der chinesischen Stichprobe niedriger war als bei der deutschen Norm. Dies hing mit der Ausprägung der europäischen Identität zusammen. Negativ korrelierte die europäische Identität auch mit der Regulation von Emotionen. Im FBeK (Fragebogen zur Beurteilung des eigenen Körpers) (Strauß & Richter-Appelt,1995) ging das Körpererleben der Übersee-Chinesen mit weniger Selbstbewusstsein für die eigene Attraktivität einher. Je mehr die Lebensart zum Asiatischen tendierte, desto weniger äußerte sich die Akzentuierung des äußeren Erscheinungsbildes und desto höher erschien die Unsicherheit. Zusammenfassend weisen die Ergebnisse darauf hin, dass die Auslebung einer bikulturellen Identität Folgen für die psychologische Entwicklung eines Individuums mit sich bringen, welche beispielsweise für die Arbeit bei Patienten im psychotherapeutischen Prozess mit berücksichtigt werden sollten.
Ausgangspunkt dieser Dissertation ist die Frage: „Was ist fundamentaler als die Raum-Zeit?“ Nach Immanuel Kant sind aber Raum & Zeit als reine Formen der sinnlichen Anschauung „a priori“ aller Erfahrung und allen Denkens und konstituieren somit die „Bedingungen, unter denen Erfahrung erst möglich ist“. Im Jahre 1941 hat Konrad Lorenz diese Apriori biologisch interpretiert und damit das Konzept einer Evolutionären Erkenntnislehre formuliert. Deren Hauptthese lautet: „Unser Erkenntnis-Apparat ist ein Ergebnis der Evolution. Die Subjektiven Erkenntnisstrukturen passen auf die Welt, weil sie sich im Laufe der Evolution in Anpassung an eben diese reale Welt herausgebildet haben. Sie stimmen mit den realen Strukturen (teilweise) überein, weil nur eine solche Übereinstimmung das Überleben ermöglichte.“ Wendet man dies auf die Erfahrung von Raum & Zeit an, so gelangt man zur Kognitionswissenschaft von Raum & Zeit. Das Ergebnis der Analyse der Kognition von Raum & Zeit lässt sich wie folgt zusammenfassen. Im Kognitiven System des Menschen gibt es mehrere Informationsrepräsentationssysteme. Ein Sprachlichlogisches Repräsentationssystem, ein Nonverbales Repräsentationssystem zur Speicherung von Multimodalen Spatiotemporalen Informationen und ein Internes Repräsentationssystem zur Speicherung von Subjektiven Informationen über interne Körperzustände. Das Multimodal-Spatiotemporale Repräsentationssystem lässt sich dann weiter in Modalitätsspezifische Repräsentationssysteme für die einzelnen Sinnesmodalitäten und ein Amodales Repräsentationssystem für Spatiotemporale Information untergliedern. Letzteres ist weiter in Amodale Repräsentationssysteme für Reinräumliche Informationen, Spatiotemporale Informationen & Reinzeitliche Informationen untergliedert. Mit dem Reintemporalen Repräsentationssystem hat dieses Amodale Repräsentationssystem auch Anteil am Internen Körperrepräsentationssystem. Für die Kognition der Zahlen kommt nur noch ein Zahlenrepräsentationssystem für die Zahlen 1-3 als eigenständiges Repräsentationssystem hinzu. Alle anderen Zahlenrepräsentationen benutzen das Räumliche oder das Sprachlichlogische Repräsentationssystem. Alle diese Repräsentationssysteme sind das Ergebnis von Phylogenetischen, Ontogenetische & Psychogenetischen Entwicklungsprozessen. Aus diesen Erkenntnissen wird anschließend untersucht, naturphilosophische Konsequenzen für die Raum-Zeit-Physik ergeben. Insbesondere geht es um die Frage von Gerhard Vollmer, die lautet: „Nach der Evolutionären Erkenntnistheorie sind die subjektiven Strukturen des Erkenntnis-Apparates für die Erkenntnis konstitutiv. Gilt dies für alle Stufen des Erkenntnis-Prozesses?“ Das Ergebnis dieser Analyse ist, dass das Visuospatiotemporale Informationsrepräsentationssystem die Kognitive Basis der Physikalischen Theorien mit Klassischem Materiekonzept bildet, mit dessen Hilfe das Visuell-Nonverbale Sensomotorische System diese Theorien mit Hilfe von Kognitionsprozessen aus Interaktionen mit der Physikalischen Außenwelt konstruiert hat. Darüber hinaus beruhen diese Theorien auch auf dem Sprachlichlogischen Informationsrepräsentations-System als Kognitiver Basis und sind das Produkt von Kognitiven Math. Basisfähigkeiten, mit deren Hilfe sie ebenfalls aus Interaktionen mit der Physikalischen Außenwelt abgeleitet wurden. Dabei dominiert das Visuospatiotemporale Informationsrepräsentationssystem in der Kognitiven Basis gegenüber dem Sprachlichlogischen Informationsrepräsentationssystem eindeutig! Auch die Quantenmechanik hat diese beiden Informationsrepräsentationssysteme als Kognitive Basis. Allerdings dominiert hier das Sprachlichlogische Informationsrepräsentationssystem gegenüber dem Visuospatiotemporalen Informationsrepräsentationssystem! Da das Sprachlichlogische Informationsrepräsentationssystem aber ein Symbolisches Informationsrepräsentationssystem ist, bedarf es zu seiner Funktionsfähigkeit der Abbildung seiner Symbole auf Informationsstrukturen des Multimodalen Spatiotemporalen Informationsrepräsentationssystems, damit die mit seiner Hilfe repräsentierten Sprachlichlogischen Informationen überhaupt Teil des Informationellen Modells der Außenwelt des Kognitiven Systems sein können. Damit lässt sich die oben gestellte Frage wie folgt beantworten: Ja, diese Kognitiven Strukturen sind nicht nur für die Ebenen der Wahrnehmungs- & Erfahrungserkenntnis konstitutiv, sondern für alle Stufen des Erkenntnisprozesses. Das heißt: „Auch die Wissenschaftliche Erkenntnis ist biologisch/genetisch determiniert!“
"Ciaglia Blue Rhino Punktionstracheotomie" : perioperative Komplikationen und Langzeitergebnisse
(2009)
Im klinischen Alltag der Intensivstationen haben sich in den letzten Jahren verschiedene Verfahren der perkutanen Tracheotomie aufgrund ihrer einfachen Durchführbarkeit und dem geringen Komplikationsrisiko gegenüber dem chirurgischen Verfahren durchgesetzt. Die Blue Rhino Technik nach Ciaglia ist eine Methode, bei der zur Anlage des Tracheostomas nur ein einzelner Dilatationsschritt mittels eines, mit einer speziellen hydrophilen Beschichtung versehenen, gebogenen Dilatators notwendig ist. Die vorliegende Arbeit zeigt die Auswertung der Daten von 50 Patienten, die nach dieser Methode tracheotomiert wurden. Die Evaluation beinhaltet neben der Auswertung der peri- und postoperativen Komplikationen, die Ergebnisse einer telefonischen Befragung von 19 Patienten anhand eines standardisierten Fragebogens, hinsichtlich ihrer subjektiven Einschätzung bezüglich Veränderungen der Stimme, Luftnot, Schluckbeschwerden sowie dem kosmetischen Ergebnis des verschlossenen Tracheostomas. Die Ergebnisse wurden mit den in der Literatur vorhandenen Daten der verschiedenen perkutanen Verfahren verglichen, um potentielle Vorund Nachteile der Blue Rhino Technik zu eruieren. Es konnte gezeigt, dass bei der Blue Rhino Methode im Vergleich zu anderen Verfahren keine signifikant höhere perioperative Komplikationsrate auftrat. Die in verschiedenen Arbeitenbeschriebene Häufung an Trachealspangenfrakuren konnten auch wir in unserem Patientengut finden. Einen Beweis für die klinische Relevanz dieser Beobachtung wurde aber bisher in keiner Studie erbracht. Im Gegensatz dazu kann es als gesichert angesehen werden, dass ein höherer BMI ein Risikofaktor ist, der mit einer Erhöhung der perioperativen Komplikationsrate einhergeht. Auch in unserer Untersuchung traten die beiden einzigen schwerwiegenden Komplikationen bei Patienten mit einem BMI deutlich über 30 kg/m2 auf. Postoperative Komplikationen wie Blutungen oder Infektionen des Stomas konnten wir in unserem Patientenkollektiv nicht beobachten. Nach allgemeiner Studienlage treten diese Komplikationen bei den perkutanen Verfahren auch nur in Einzelfällen auf. Die bei der Befragung ein Jahr nach der Tracheotomie gefundenen Veränderungen der Stimme, Heiserkeit und das Vorliegen von Luftnot in verschiedenen Ausprägungen lassen sich bei den meisten Patienten auf ihre Vorerkrankungen zurückführen oder sind Ausdruck einer Schädigung der Stimmbänder durch die vorangegangene orotracheale Intubation. Nur bei 2 Patienten konnten wir eine Trachealstenose nicht sicher ausschließen. Einen schlüssigen Nachweis, dass eine Stenose bei Patienten nach Tracheotomie ursächlich auf die Tracheotomie alleine zurückzuführen ist, konnten wir bei Durchsicht der Literatur nicht finden. Das kosmetische Ergebnis beurteilten die meisten unserer Patienten (79%) als sehr gut bis gut. Unter Beachtung der absoluten Kontraindikationen, die für alle perkutanen Verfahren gültig sind, erfüllt die Blue Rhino Methode nach Ciaglia hinsichtlich der leichten Durchführbarkeit und der niedrigen peri- und postoperativen Komplikationsraten alle Anforderungen, die an ein perkutanes Verfahren gestellt werden.
Die Untersuchung versucht als Genderstudie eine Antwort auf die Frage nach den Verhaltensweisen, dem Leben und Erleben von Frauen in Krisensituationen des Zwanzigsten Jahrhunderts zu geben. Der politische und soziale Fokus liegt in der Zeit des Nationalsozialismus und des Zweiten Weltkrieges.
Es handelt sich dabei um eine große Spannbreite von unterschiedlichen Biografien. Frauen sind als Zeitzeuginnen besonders tauglich, weil sie nicht nur durch ihr Geschlecht, sondern auch durch viele andere gesellschaftliche Positionen, Situationen und Handlungsspielräume im Alltag, und vor allem im Kriegsalltag und an der Heimatfront, geprägt sind.
Die Arbeit knüpft an wichtige Erkenntnisse der Frauen- und Genderforschung, der historischen Sozialforschung, der Biographie- und gerontologischen Forschung sowie der Oral History an.
Das Sample besteht aus acht Fraueninterviews, vier Gruppen von jeweils zwei Frauen. Da sind zwei adlige Frauen, die beide fast hundert Jahre lang und darüber hinaus gelebt haben. Beide haben ihren besonderen Bezugspunkt durch ihre Brüder als Beteiligte des militärischen Widerstands am 20. Juli 1944. Die anderen sechs Frauenbiografien stehen exemplarisch für ebenfalls drei besondere Gruppen. Da sind zwei jüdische Frauen, die Auschwitz überlebt haben, zwei Russinnen, die in ihren "Großen Vaterländischen Krieg" involviert waren und zwei bei der Wehrmacht dienstverpflichtete deutsche Frauen.
Das Sichtbarmachen von Lebenszusammenhängen kann die Ghettoisierung von Alten verhindern und Verbindungen knüpfen, die einer alternden Gesellschaft die Zukunft erleichtert.
Forschungsarbeiten sowohl zum IT-Zweig als Leitbranche der Digitalisierung als auch zur gesundheitsfördernden Gestaltung neuer Arbeitswelten haben eine hohe gesellschaftliche Relevanz. Die von der Digitalisierung ausgehenden Veränderungen sind in der Arbeitswelt allgegenwärtig. Trotz einer anfänglichen Humanisierungsvermutung mit Blick auf hoch qualifizierte Wissensarbeit in flexiblen Arbeitsstrukturen zeigen neue Forschungsergebnisse eine Zunahme gesundheitlicher Belastungen in der IT-Branche. Diese Belastungskonstellation erfordert neue Gestaltungsansätze zur Gesundheitsbildung, weil flexibel arbeitende Beschäftigte mit bestehenden klassischen Maßnahmen der betrieblichen Gesundheitsförderung schwer oder gar nicht zu erreichen sind.
Ziel der Arbeit ist die lösungsorientierte Erstellung eines branchen- und online-basierten Präventionskonzepts für alle IT-Beschäftigte. Basierend auf dem Modell der Salutogenese wird ein Training entwickelt, das sich auf die Stärkung von personalen, organisationalen und sozialen Gesundheitsressourcen fokussiert.
Im Mittelpunkt der vorliegenden Arbeit, die der Kategorie der didaktischen Entwicklungsforschung (Johannes Weinberg) zuzuordnen ist, steht die Konzeption und Entwicklung eines Lernprogramms. Als Rahmenmodell dient die gestaltungsorientierte Mediendidaktik unter Berücksichtigung didaktischer Eckpunkte. Das Online-Lernangebot ist in acht Lerneinheiten aufgeteilt. Es werden Lerninhalte zum Arbeits- und Gesundheitsschutz mediendidaktisch aufbereitet und den IT-Beschäftigten und Führungskräften auf der Lernplattform Moodle zur Verfügung gestellt. (Eine ursprünglich angedachte Wirkungsmessung der Implementierung des Lernprogramms im Betrieb konnte pandemiebedingt nicht durchgeführt werden.)
Die weiterbildungsbezogene, betriebs- sowie organisationspädagogische Überlegungen aufgreifende Konzeption ist ein wichtiger Baustein im Rahmen einer Gesamtstrategie des betrieblichen Gesundheitsmanagements. Die präsentierten Handlungshilfen und elektronische Unterweisungen sind auf andere Branchen übertragbar.
Die erstellte Lernumgebung ist kein finales „Produkt“, sondern ein kontinuierlich zu optimierendes Entwicklungsvorhaben, was neben einer noch durchzuführenden Evaluation weitere Möglichkeiten zur Verbesserung der Gesundheit in der digital vernetzten Arbeitswelt eröffnet, um das Thema Gesundheitsbildung verstärkt in den betrieblichen Alltag zu integrieren.
Mit ihren so genannten Linsenkästen gelang Mary Bauermeister Anfang der 1960er-Jahre der Durchbruch auf dem New Yorker Kunstmarkt. Bis heute sind die fragilen, leuchtenden Objekte aus Holz, Glas, Leinwand und Papier das Alleinstellungsmerkmal der Künstlerin. Die hier vorliegende Dissertationsschrift erläutert die konsequente Entwicklung der Linsenkästen aus dem Frühwerk und unternimmt erstmals eine stilistische Einordnung in den Kunstkontext der 1960er-Jahre. Dabei wird deutlich, dass Bauermeister mehr den Künstlern der Klassischen Moderne (Duchamp, Schwitters, Klee, Kandinsky) verpflichtet ist denn ihren Zeitgenossen im Rheinland oder in der Kunstmetropole New York.
In diesem Jahr feiert die Bundesrepublik fünfundzwanzig Jahre Deutsche Einheit. Ein vereintes Deutschland ist für jüngere Generationen bereits selbstverständlich und selbst bei vielen Älteren sind die brisanten Entwicklungen und historischen wie geopolitischen Veränderungen dieser Zeit bereits in Vergessenheit geraten. Die meisten Deutschen nehmen ein Leben in einem geeinten Deutschland als selbstverständlich hin! Wenn man sich jedoch mit den Umbrüchen im Herbst 1989 beschäftigt und die damalige Situation analysiert, wird einem schnell bewusst, dass es sich bei dem friedlichen Mauerfall und der anschließenden Vereinigung der beiden deutschen Staaten um ein einschneidendes, ja epochales Ereignis handelt. Nichts von dem, was heute als selbstverständlich und gegeben angesehen wird, war damals absehbar noch zu erwarten. Erst ein politischer Dreiklang – bestehend aus den vier Siegermächten sowie der Bundesregierung und den Resten der politischen Klasse der DDR unter Einflussnahme der dortigen Friedensbewegung – ermöglichte die Umsetzung der damaligen „Road-Map“. Der von Helmut Kohl präsentierte Zehn-Punkte-Plan muss im Nachhinein als vorentscheidender Schritt hin zur Wiedervereinigung betrachtet werden. Das Programm symbolisierte in gewisser Weise auch das Ende der bisherigen Bonner Deutschlandpolitik. Zudem lieferte es, so scheint es zumindest im Nachhinein, die politische Blau-Pause für einen geordneten Zusammenschluss zwischen Ost und West und trug somit de facto zur friedlichen Abwicklung der implodierten DDR bei. Im Zentrum meiner Dissertation stehen nicht die einzelnen Schritte hin zur Wiedervereinigung am 3. Oktober 1990 oder der Weg dorthin – dies ist in vielen Darstellungen bereits erörtert worden. Mein Interesse gilt der Beurteilung der Deutschlandpolitik der Regierung Kohl in ausgewählten Printmedien, um so zu zeigen, wie die öffentliche Resonanz auf einzelne deutschlandpolitische Schritte des neuen Kanzlers war und wie sein Vorgehen in dieser Frage beurteilt wurde. Hiermit soll nicht nur das Meinungsspektrum zu diesem Thema abgesteckt, sondern auch danach gefragt werden, wieweit sich die Beurteilung Kohls im Untersuchungszeitraum verändert hat. Herangezogen wurden 5 Leitmedien im Printbereich: 1. Die Welt 2. Frankfurter Allgemeine Zeitung (FAZ) 3. Süddeutsche Zeitung (SZ) 4. Die Zeit 5. Der Spiegel Wert gelegt wurde darauf, ein breites Meinungsspektrum zu repräsentieren. Bei allen Vorbehalten gegen derartige Etikettierungen können die herangezogenen Printmedien als national-konservativ (Die Welt), bürgerlich-konservativ (FAZ), sozial-liberal (SZ), bürgerlich-liberal (Die Zeit) bis links-alternativ (Der Spiegel) bezeichnet werden. Damals wie heute gelten sie als Leitmedien, was sich nicht nur in ihrer Auflage und Verbreitung, sondern auch in der Qualität und Differenziertheit ihrer Berichterstattung festmachen lässt. Als Untersuchungszeitraum habe ich die Zeit vom Amtsantritt des neuen Kanzlers am 1. Oktober 1982 bis zum Zehn-Punkte-Plan am 28. November 1989 definiert. Nach Kohls Auftritt im Deutschen Bundestag an diesem Tag traten die konkreten Schritte hin zur deutschen Einheit in den Vordergrund, was dann doch eine strategische und inhaltliche Veränderung bedeutete. Deshalb wird der weitere Weg hin zum 3. Oktober 1990 aus der Untersuchung ausgeklammert. Um das Thema wissenschaftlich handhabbar zu machen, habe ich fünf Ereignisse in den Fokus meiner Untersuchung gestellt: 1. Der Kanzlerwechsel von Helmut Schmidt zu Helmut Kohl am 1. Oktober 1982 durch ein konstruktives Misstrauensvotum. Wie beurteilten die fünf Printmedien diesen Schritt und wie schätzten sie Kohls deutschlandpolitische Agenda ein? 2. Der Milliardenkredit der BRD an die DDR, der der Stabilisierung der maroden DDR-Wirtschaft dienen sollte und von Franz-Josef Strauß eingefädelt wurde. Wie wurde diese spektakuläre Aktion in den untersuchten Zeitungen eingeschätzt, insbesondere die Rolle des bayerischen Ministerpräsidenten, der ein scharfer Kritiker der sozialliberalen Deutschlandpolitik gewesen war? 3. Helmut Kohls Besuch in Moskau vom 4. Juli bis zum 7. Juli 1983, also der offizielle Antrittsbesuch des neuen Kanzlers in der Sowjetunion. Wie sah man sein Auftreten dort? 4. Der Besuch von Erich Honecker in der BRD vom 7. September bis zum 11. September 1987, ein Höhepunkt der bisherigen Deutschlandpolitik – und zugleich ein Wendepunkt. Wie wurde die Tatsache dieses Staatsbesuchs beurteilt, aber auch das Agieren des Kanzlers bei dieser Visite? 5. Der Zehn-Punkte-Plan, der am 28. November 1989 im Deutschen Bundestag in Bonn von Helmut Kohl verkündigt wurde.
Bisherige zellfreie Labormethoden und in-vitro-Diagnostik zielen darauf ab, die Zeit von der Auslösung der Gerinnung bis zur Gerinnselbildung zu messen. Sie sind aber nicht für die Messung der Wirksamkeit von rFVIIa als Medikament geeignet, das für seine hämostatische Wirksamkeit die Funktionen von Blutzellen, besonders Plättchen, benötigt. Außerdem erfassen diese Gerinnungsteste nur einen bestimmten Abschnitt der Gerinnung und ein Zeitablauffenster, welches einen geringen Anteil (<5 %) des insgesamt gebildeten Thrombins erfasst und die Dynamik der Thrombingenerierung unberücksichtigt lässt. Die Plättchen und ihre Physiologie spielen aber die Hauptrollle in der Phospholipid-Präsentation die auf der Plättchenmembran erfolgt. Dies ist Voraussetzung für eine individuell ausreichende Thrombinbildung. Die Erfassung des endogenen Thrombinpotentials (ETP) in plättchenreichem Plasma, wie sie in dieser Arbeit verwendet wurde, überwindet diese methodischen Nachteile der etablierten Teste. Damit lässt sich eine individuelle Wirkungs- und Risikovorhersage erstellen, da hämostaserelevante Charakteristika wie z.B. Erkrankungen, Komedikation, Geschlecht, Umwelt- und lebensstilabhängige Faktoren, in die Untersuchungen einbezogen werden. In dieser Arbeit wurde mit dem Thrombingenerierungstest (TGT) eine Methode etabliert und evaluiert, die inter- und intraindivuellen Unterschiede in der Thrombinbildung in plättchenreichem Plasma (PRP) zeigt. Ausgehend von den dargestellten in-vitro Ergebnissen mit gesunden Probanden wurde die Wirksamkeit von rFVIIa im TGT, zusätzlich vergleichend und validierend mit Hilfe der Durchflusszytometrie (FACS), bei Patienten mit Thrombasthenie Glanzmann untersucht. Diese sind aufgrund einer thrombozytenfunktionsstörungsbedingten Blutungsneigung in den plasmatischen Gerinnungstesten unauffällig. Evaluiert wurden hetero- und homozygote Patienten mit unterschiedlichen zugrundeliegenden Mutationen. Zuerst wurden Proben von einer Familie in-vitro untersucht, dann eine Patientin, die im Rahmen eines zahnärztlichen Eingriffs (ex-vivo-in-vitro) unter Einbindung der klinischen Beobachtung überwacht wurde. Der TGT zeigt eine deutliche prohämostatische Wirksamkeit von rFVIIa bei allen Probanden und Patienten, FACS erfasst die zugrundeliegenden Zellfunktionen. Dabei werden Unterschiede zwischen gesunden Probanden, heterozygoten und homozygoten Patienten aufgezeigt, die diagnostisch und therapeutisch verwertbar sind. Unterschiedliche Mutationen und weitere ursächliche thrombozytäre Mechanismen schlagen sich in entsprechenden Änderungen der gemessenen FACS-Parameter nieder, die zum großen Teil mit den TGT-Werten für ETP und PEAK korrelieren. Die TGT-Werte zeigen, gerade für die Patientin EG, deren Behandlung mit rFVIIa überwacht wurde, eine stärkere Korrelation mit der Klinik als die FACSMethode. Diese wiederum erfasst die zellfunktionsbedingten Ursachen analytischer. Die Ergebnisse dieser Arbeit zeigen, dass die Messung und Auswertung der TGT-Parameter ETP und PEAK, in geringerem Maße LT und TTP, die prohämostatische Wirkung Zellfunktions-basierter Medikamente in plättchenreichem Plasma erfasst. Damit erlaubt sie über die Charakterisierung von Gerinnungsstörungen hinaus prädiktive Aussagen über die individuell angemessene Dosierung von rFVIIa (NovoSeven®).
Kraftfelder sind ein vielseitiges Werkzeug zur schnellen Berechnung vielfältiger Moleküleigenschaften. Die Qualität der damit erhaltenen Vorhersagen ist auch ein Maß, wie gut die wichtigen Einflussgrößen verstanden und vor allem in das Kraftfeld-Modell integriert sind. Bei der Parametrisierung müssen viele Effekte gegeneinander ausbalanciert werden, da die Kraftfeldterme nicht unabhängig voneinander betrachtet werden können. Umfangreiche Testrechnungen sind erforderlich, um die notwendige Qualität der Parameter sicher zu stellen. Eine Automatisierung dieses Prozesses bringt nicht nur eine enorme Zeitersparnis, sie zwingt auch zur sorgfältigen Definition von Vorgaben und Qualitätskriterien. Die Formulierung einer Strategie in einem Programm anstelle von „intelligentem Raten“ fördert zudem ein tieferes Verständnis. Bei einer Änderung der Strategie muss nur das entsprechende Programm geändert werden, dem Entwickler bleibt der manuelle Test erspart. Automatische Methoden zur Plausibilitätsprüfung vermeiden Probleme durch Fehler bei der Dateneingabe von Hand. Die programmgesteuerte Erstellung aussagekräftiger Protokolle und Grafiken macht die Fülle der bei der Parametrisierung und Evaluierung eines Kraftfeldes anfallenden Informationen für den Benutzer überschaubar. Probleme und deren Zusammenhang können so leichter erfasst werden. Für das MOMO-Kraftfeld konnten auf diese Weise verbesserte und neue Parameter für Wasserstoffbrücken abgeleitet werden, zwei empirische Punktladungsmodelle und deren Verträglichkeit mit zwei quantenchemischen Modellen verbessert und prinzipielle Probleme bei deren Vereinbarkeit erkannt werden sowie die automatische Parametrisierung von Bindungslängen, Bindungswinkeln und Torsionswinkeln ermöglicht werden. Bei Letzterem konnte jedoch keine Verbesserung gegenüber den Originalparametern erreicht werden, was nicht weiter verwunderlich ist, da diese seit Jahrzehnten entwickelt worden sind, wohingegen Wasserstoffbrücken und Partialladungen erst später hinzugekommen sind und nicht so umfangreich wie die bindenden Kraftfeldterme getestet wurden. Voraussetzung für die hier gewählte Vorgehensweise, alle Arbeiten weitgehend zu automatisieren und Strategien immer in Programme umzusetzen, waren sehr umfangreiche Programmierarbeiten. Ziel war es, auf einfache Weise die Steuerung des Kraftfeldes aus kleineren Programmen, die spezielle Probleme bearbeiten, zuzulassen. Durch die Nutzung zahlreicher Open-Source-Projekte, die gemeinsam die gewünschte Funktionalität zur Verfügung stellen, konnte der Aufwand auf die dazu passende Implementierung des MOMO-Kraftfeldes und das Verbinden mit der von diesen Projekten bereitgestellten Software beschränkt werden. Der Kern des MOMO-Kraftfeldes wurde aus Geschwindigkeitsgründen in der Compilersprache C geschrieben, Datenein- und -ausgabe und die Programme zur Parametrisierung und Auswertung wurden in Python geschrieben.
Paläoklimarekonstruktionen, die es sich zum Ziel gesetzt haben, Klima-Mensch Interaktionen auf lange Zeitreihen betrachtet zu erforschen, nehmen begünstigt durch die aktuell intensiv geführte Klimadebatte, einen immer größer werdenden Stellenwert in der öffentlichen und wissenschaftlichen Wahrnehmung ein. Denn trotz aller wissenschaftlicher Fortschritte, die in den vergangenen Jahrzehnten im Bereich der modernen Klimaforschung gemacht wurden, bleibt die zuverlässige Vorhersage und Modellierung von zukünftigen Klimaveränderungen noch immer eine der größten Herausforderungen unser heutigen Zeit. Betrachtet man die Karibik exemplarisch in diesem Rahmen, dann prognostizieren viele Modellrechnungen, infolge steigender Ozeantemperaturen, ein deutlich häufigeres Auftreten von tropischen Stürmen und Hurrikanen sowie eine Verschiebung hin zu höheren Sturmstärken. Dieser Trend stellt für die Karibik und viele daran angrenzende Staaten eine der größten Gefahren des modernen Klimawandels dar, den es wissenschaftlich über einen langen Zeitrahmen zu erforschen gilt.
Klimaprognosen stützen sich meist vollständig auf hoch-aufgelöste instrumentelle Datensätze. Diese sind aber alle durch einen wesentlichen Aspekt limitiert. Aufgrund ihrer eingeschränkten Verfügbarkeit (~150 Jahre) fehlt ihnen die erforderliche Tiefe, um die auf langen Zeitskalen operierenden Prozesse der globalen Klimadynamik adäquat abbilden zu können. Betrachtet man das Holozän in seiner Gesamtheit, so wurde die globale Klimadynamik über die vergangenen ~11,700 Jahre von periodisch auftretenden Prozessen und Abläufen gesteuert. Diese wirken grundsätzlich über Zeiträume von mehreren Jahrzehnten, teilweise Jahrhunderten und in einigen Fällen sogar Jahrtausenden. Viele dieser natürlichen Prozesse, können in der kurzen Instrumentellen Ära nicht gänzlich identifiziert und angemessen in Klimamodellen berücksichtig werden. Die alleinige Berücksichtigung der Instrumentellen Ära bietet daher nur eine eingeschränkte Perspektive, um die Ursachen und Abläufe von vergangenen sowie mögliche Folgen von zukünftigen Klimaveränderungen zu verstehen. Um diese Einschränkung zu überwinden, ist es somit erforderlich, dass die geowissenschaftliche Forschung mit Proxymethoden ein zusammenfassendes und mechanistisches Verständnis über alle Holozänen Klimaveränderungen erlangt.
Wenn man sich diese Limitierung, die ansteigenden Ozeantemperaturen und das in der Karibik in den vergangen 20 Jahren vermehrte Auftreten von starken tropischen Zyklonen ins Gedächtnis ruft, ist es nachvollziehbar, dass im Rahmen dieser Doktorarbeit ein zwei Jahrtausende langer und jährlich aufgelöster Klimadatensatz erarbeitet werden soll, der spät Holozäne Variationen von Ozeanoberflächenwasser-temperaturen (SST) und daraus resultierende lang-zeitliche Veränderungen in der Häufigkeit tropischer Zyklone widerspiegelt. In Zentralamerika wird das Ende der Maya Hochkultur (900-1100 n.Chr.) mit drastischen Umweltveränderungen (z.B. Dürren) assoziiert, die während der Mittelalterlichen Warmzeit (MWP; 900-1400 n.Chr.) durch eine globale Klimaveränderung hervorgerufen wurde. Die aus einem „Blue Hole“ abgeleiteten Informationen über Klimavariationen der Vergangenheit können als Referenz für die gegenwärtige Klimakriese verwendet werden.
Als „Blue Hole“ wird eine Karsthöhle bezeichnet, die sich subaerisch während vergangener Meeresspiegeltiefstände im karbonatischen Gerüst eines Riffsystems gebildet hat und in Folge eines Meeresspiegelanstiegs vollständig überflutet wurde. In einigen wenigen marinen „Blue Holes“ treten anoxische Bodenwasserbedingungen auf. Die in diesen anoxischen Karsthöhlen abgelagerten Abfolgen mariner Sedimente können als einzigartiges Klimaarchiv verwendet werden, da sie aufgrund des Fehlens von Bioturbation eine jährliche Schichtung (Warvierung) aufweisen.
In dieser kumulativen Dissertation über das „Great Blue Hole“ werden die Ergebnisse eines 3-jährigen Forschungsprojekts vorgestellt, dass das Ziel verfolgte einen wissenschaftlich herausragenden spät Holozänen Klimadatensatz für die süd-westliche Karibik zu erzeugen. Beim „Great Blue Hole“ handelt es sich um ein weltweit einzigartiges marines Sedimentarchiv für diverse spät Holozäne Klima-veränderungen, das im Zuge dieser Dissertation sowohl nach paläoklimatischen als auch nach sedimentologischen Fragestellungen untersucht wurde. Die vorliegende Doktorarbeit befasst sich im Einzelnen mit (1) der Ausarbeitung eines jährlich aufgelösten Archives für tropische Zyklone, (2) der Entwicklung eines jährlich aufgelösten SST Datensatzes und (3) einer kompositionellen Quantifizierung der sedimentären Abfolgen sowie einer faziell-stratigraphischen Charakterisierung von Schönwetter-Sedimenten und Sturmlagen. Zu jedem dieser drei Aspekte, wurde jeweils ein Fachartikel bei einer anerkannten wissenschaftlichen Fachzeitschrift mit „peer-review“ Verfahren veröffentlicht.
Der insgesamt 8.55 m lange Sedimentbohrkern („BH6“), der für diese Dissertation untersucht wurde, stammt vom Boden des 125 m tiefen und 320 m breiten „Great Blue Holes“, das sich in der flachen östlichen Lagune des 80 km vor der Küste von Belize (Zentralamerika) gelegenen „Lighthouse Reef“ Atolls befindet. Durch seine besondere Geomorphologie wirkt das, innerhalb des atlantischen „Hurrikan Gürtels“ positionierte, „Great Blue Hole“ wie eine gigantische Sedimentfalle. Die unter Schönwetter-Bedingungen kontinuierlich abgelagerten Abfolgen feinkörniger karbonatischer Sedimente, werden von groben Sturmlagen unterbrochen, die auf „over-wash“ Prozesse von tropischen Zyklonen zurückzuführen sind.
...
Mit der vorliegenden Arbeit ist der eindeutige experimentelle Nachweis für die Existenz eines 1997 [Ced97] vorhergesagten, neuartigen Zerfallskanals für Van-der-Waals-gebundene Systeme erbracht worden. Die Untersuchungen wurden an einem Neondimer durchgeführt. Erzeugt man in einem Atom dieses Dimers durch Synchrotronstrahlung eine 2s-Vakanz, so wird diese durch ein 2p-Elektron aufgefüllt. Die hierbei freiwerdende Energie wird an das zweite Atom des Dimers in Form eines virtuellen Photons übertragen und löst dort ein Elektron aus einer äußeren Schale. Untersucht wurde dieser Zerfall namens „Interatomic Coulombic Decay” (ICD) durch Koinzidenzimpulsspektroskopie (COLTRIMS) [Doe00, Ull03, Jah04b]. Der Nachweis der Existenz des Effekts erfolgte dadurch, dass die Summe der Energien der Photofragmente - und im Speziellen des ICD-Elektrons und der beiden im Zerfall entstehenden Ne+-Ionen - eine Konstante ist. Durch die koinzidente Messung der Impulse, der im Zerfall entstehenden Teilchen, konnte hierdurch ICD eindeutig identifiziert werden. Die Übereinstimmung der gemessenen Energiespektren mit aktuellen theoretischen Vorhersagen [Sche04b, Jah04c] ist exzellent. Dadurch, dass das Dimer nach dem IC-Zerfall in einer Coulomb-Explosion fragmentiert, konnten des Weiteren Untersuchungen, wie sie in den letzten Jahren an einfachen Molekülen durchgeführt wurden [Web01, Lan02, Jah02, Web03b, Osi03b, Jah04a], auch am Neondimer erfolgen: Durch die Messung der Ausbreitungsrichtung der ionischen Fragmente des Dimers nach der Coulomb-Explosion wird die räumliche Ausrichtung des Dimers zum Zeitpunkt der Photoionisation bestimmt. Die gemessenen Impulse der emittierten Elektronen können dadurch im Bezug zur Dimerachse dargestellt werden. In dieser Arbeit wurden somit Messungen der Winkelverteilung der 2s-Photoelektronen und des ICD-Elektrons im laborfesten und auch dimerfesten Bezugssystem vorgestellt und mit vorhandenen theoretischen Vorhersagen verglichen. Die Winkelverteilung des Photoelektrons ähnelt stark der Verteilung, die man nach der Photoionisation eines einzelnen Neonatoms erhält und hat somit fast reinen Dipolcharakter. Die Präsenz des zweiten Atoms des Dimers verursacht nur leichte Modulationen, so dass auch die Änderung der Ausrichtung der Dimerachse im Bezug zur Polarisationsrichtung des linear polarisierten Lichtes nur geringe Auswirkungen hat. Durch die koinzidente Messung aller vier nach der Photoionisation entstehenden Teilchen konnte außerdem ein weiterer Doppelionisationsmechanismus des Dimers nachgewiesen werden: Ähnlich wie in einzelnen Atomen [Sam90] gibt es auch in Clustern den TS1-Prozess. Hierbei wird ein 2p-Elektron aus dem einen Atom des Dimers herausgelöst. Es streut dann an einem 2p-Elektron des anderen Atoms, das hierdurch ionisiert wird. Diese etwas andere Form des TS1 im Cluster ist also genau wie ICD ein interatomarer Vorgang. Die Summe der Energien der beiden, in diesem Prozess entstehenden Elektronen hat einen festen Wert von h... − 2 · IP(2p) − KER = 12 eV, so dass dieser Prozess hierdurch im Experiment gefunden werden konnte. Die gemessenen Zwischenwinkel zwischen den beiden Elektronen zeigen des Weiteren genau die für zwei sich abstoßende Teilchen typische Verteilung einer Gauss-Kurve mit einem Maximum bei 180 Grad. Da im Falle von interatomarem TS1 die Potentialkurve der Coulomb-Explosion direkt aus dem Grundzustand populiert wird, konnte im Rahmen der „Reflexion Approximation” die Wahrscheinlichkeitsverteilung der Abstände der beiden Dimeratome experimentell visualisiert werden. Das Betragsquadrat des Kernanteils der Dimergrundzustandswellenfunktion wurde somit direkt vermessen. Die Messungen wurden bei drei verschiedenen Photonenenergien durchgeführt, um die Ergebnisse weiter abzusichern und robuster gegen eventuelle systematische Fehler zu machen. Da kein isotopenreines Neongas im Experiment eingesetzt wurde, konnten genauso Ionisations- und ICD-Ereignisse von isotopischen Dimeren (20Ne22Ne) beobachtet und ausgewertet werden. Die gemessenen Spektren sind innerhalb der Messtoleranzen identisch zu denen für 20Ne2.
Das Ziel der vorliegenden Arbeit bestand darin, narrative Identitätsformationen jüdischer Jugendliche in Deutschland zu rekonstruieren. Aufgrund der Analyse des empirischen Materials und anhand des erwähnten Forschungsinteresses wurden in der Arbeit drei unterschiedliche – dennoch zueinander in Beziehung stehende – zentrale Typologien der narrativen Identität jüdischer Jugendlicher erarbeitet.46 Während sich die erste Typologie allein auf die Migrationserfahrung beschränkt, werden in der zweiten und dritten Typologie beide – zugewanderte und ‚alteingesessene‘ – Befragtengruppen in den Blick genommen: (i) Typologie der Akkulturationsnarrative, die der Frage nach der Auseinandersetzung der zugewanderten Jugendlichen mit kulturellen Vorstellungen und Vorbildern im Verlauf des Migrationsprozesses nachgeht. (ii) Typologie der Identitätsentwicklung im Spannungsfeld des Mehrheits-Minderheits-Verhältnisses, welche die Bedeutung der Fähigkeit zur Rollendistanzierung und Ambiguitätstoleranz in der Interaktion mit der Mehrheitsgesellschaft untersucht. (iii) Typologie der jüdischen, religiösen und ethnischen Sozialisation, die danach fragt, woran die Jugendlichen ihre Zugehörigkeit zum jüdischen Kollektiv festmachen und welche Identitätsentwürfe sich dabei feststellen lassen. ....
Based on an original dataset of 100 important pieces of legislation passed during the three presidencies of William J. Clinton, George W. Bush, and Barack H. Obama (1992-2013), this study explores two sets of questions:
(1) How do presidents influence legislators in Congress in the legislative arena, and what factors have an effect on the legislative strategies presidents choose?
(2) How successful are presidents in getting their policy positions enacted into law, and what configurations of institutional and actor-centered conditions determine presidential legislative success?
The analyses show that in an hyper-polarized environment, presidents usually have to fight an uphill-battle in the legislative arena, getting more involved if they face less favorable contexts and the odds are against them.
Moreover, the analyses suggest that there is no silver-bullet approach for presidents' legislative success. Instead, multiple patterns of success exist as presidents - depending on the institutional and public environment - can resort to different combinations of actions in order to see their preferred policy outcomes enacted.
Nachdem zunächst Ziel und Forschungsgegenstand dieses Aufsatzes erläutert (1.2.1) wurden, werden die Definitionen der Leitbilder verdeutlicht, der in diesem Aufsatz eine zentrale Rolle spielen (1.2.2). Danach werden die vorangegangenen Studien über die „Leitbilder“ der deutschen Außenpolitik zusammengefasst und die Fragestellung dieser Arbeit diskutiert (1.2.3). Da ein Ziel dieser Arbeit die Verdeutlichung der Kontinuitätsund Wandelseite des „Leitbildes“ ist, das die deutsche Außenpolitik in der Realität verfolgt, fasst der Verfasser schließlich die Debatte über „Kontinuität und Wandel der deutschen Außenpolitik“ zusammen. Hier wird der Verfasser die Debatte über „Kontinuität und Wandel der deutschen Außenpolitik“ mit der Debatte über „Leitbilder“ der deutschen Außenpolitik konvergieren. Dadurch wird der Verfasser verdeutlichen, dass sich im „Leitbild“ die Essenz der deutschen Außenpolitik widerspiegelt (1.2.4).
In dieser Dissertation wird die diskursive Konstruktion der Übersetzer bzw. der Übersetzung in ausgewählten Chroniken der Eroberung Lateinamerikas untersucht, welche von Autoren unterschiedlicher Herkunft im ungefähren Zeitraum zwischen 1515 bis 1615 verfasst wurden. Im Rahmen einer historisch-deskriptiven Analyse wird erforscht, welchem Zweck die vorgefundenen sprachlichen Aussagen zur Übersetzungsthematik in den verschiedenen Chroniken dienen. Die Analyse zeigt deutlich, dass nicht nur die Erwähnung, sondern auch die Omission der Aussagen zu den Übersetzern bzw. den Übersetzungsprozessen eine wichtige Rolle einnimmt und Brüche und Widersprüche in den einzelnen Darstellungen hervortreten lässt. Es wird deutlich, dass Übersetzer und Übersetzung, aber auch deren Omission, nicht nur der Legitimierung bzw. Humanisierung der Eroberungen dienen, sondern dass vor allem auch die Figur des Übersetzers zum Zweck der Identitätskonstruktion (sowohl der eigenen als auch der des anderen), der Herstellung sowie Aufrechterhaltung asymmetrischer Dominanzverhältnisse und der Konstruktion bzw. Bestätigung bereits bestehender Geschlechterrollen funktionalisiert wird. Es wird gezeigt, dass „Übersetzung“, welche oftmals als völkerverbindendes Mittel der Kommunikation dargestellt wird, vor allem im Kontext der Eroberung nicht unbedingt ein friedliches Instrument darstellt, sondern enormes Macht- und Gewaltpotential in sich birgt. Außerdem gehen aus den Analysen die Konturen einer Forschungslücke hervor, die noch weitere Untersuchen ermöglicht, nicht nur in Bezug auf den Bereich des oralen Übersetzungsprozesses, sondern vor allem auch, was den Bereich der kulturellen Übersetzung betrifft.
Die Dissertation „“Man at the Crossroads“ - “El Hombre Controlador del Universo“ - Diego Rivera zwischen New York und Mexiko 1933/34“, vorgelegt von Elena Stiehr im Fachbereich 9 am Kunstgeschichtlichen Institut der Johann Wolfgang Goethe-Universität, Frankfurt unter Betreuung von Prof. Dr. Hans Aurenhammer und Dr. Antje Krause-Wahl, leistet das erste Mal in der Forschung eine umfangreiche Untersuchung der Zweitversion des Freskos „Man at the Crossroads“. Diese realisierte Diego Rivera 1934 unter dem Titel „El Hombre Controlador del Universo“ etwa ein halbes Jahr nachdem „Man at the Crossroads“ im Rockefeller Center, New York aufgrund seines kommunistischen Bildinhalts zerstört wurde. Ziel der Untersuchung ist es, die verschiedenen Kriterien aufzuzeigen, unter denen Rivera die mexikanische Version verwirklichte, die noch heute im Palacio de Bellas Artes in Mexiko-Stadt zu sehen ist. So soll dargestellt werden, dass sich das Fresko trotz seines auf den ersten Blick hin ähnlichen Erscheinungsbildes prägnant von der Erstversion unterscheidet. Darauf weist auch bereits die Umbenennung des Werkes hin. Gleichzeitig jedoch ist „El Hombre Controlador del Universo“ ganz und gar amerikanisch. Durch die detaillierte Schilderung der Realisierung von „Man at the Crossroads“ von März bis Mai 1933 anhand von Primärquellen, wie das Tagebuch von Riveras Assistentin Lucienne Bloch und Berichte aus der amerikanischen Presse, der Analyse, ob und wie Rivera die Richtlinien des Kunstprogramms des Rockefeller Center befolgte und durch Vergleiche mit Werken anderer Künstler, die wie Rivera im Auftrag der Rockefellers arbeiteten, wird das New Yorker Erbe in „El Hombre Controlador del Universo“ aufgezeigt. Maßgeblich dafür ist überraschenderweise jedoch nicht die Wiederholung der amerikanischen Motive aus der Erstversion, wie der US-amerikanischen Kapitalistenklasse, der desolaten Situation der USamerikanischen Arbeiter und Bauern im Zuge der Weltwirtschaftskrise und der technischen und naturwissenschaftlichen Errungenschaften, die erstmals in der Forschung identifiziert und kontextualisiert werden, sondern vor allem die Integration neuer Motive, die fest mit den USA verbunden sind. So erlebte Rivera in New York einen intensiven Austausch mit den USamerikanischen Trotzkisten Max Shachtman und James Cannon, die der Künstler nun in der Zweitversion zusammen mit Trotzki selbst und dem Aufruf zur IV. Internationalen für die Bekämpfung des Kapitalismus, Imperialismus und Faschismus darstellt. In diesem Kontext steht im Bild weiterhin das Portrait des deutschen Widerstandskämpfers Willi Münzenberg, der erstmals in der Literatur identifiziert wird. Rivera zeigt in der Zweitversion nun aber auch in konkreter Gestalt die zu bekämpfende Gegenposition, die in Joseph Goebbels, Adolf Hitler, Josef Stalin und dem japanischen Kaiser Hirohito zu finden ist. Auch diese Portraits wurden in der Forschung bislang übersehen.
Entgegen der in der Literatur vertretenen These, dass die Zweitversion an Kraft verloren hätte, da sie sich nicht mehr im Herzen des Kapitalismus, also dem Rockefeller Center, befinde, macht die Untersuchung deutlich, dass Rivera mit dem Fresko in Mexiko dringlicher als je zuvor für eine marxistisch-trotzkistische Internationale wirbt. Diese sollte sich von Mexiko aus über den gesamten amerikanischen Kontinent erstrecken und der kapitalistisch-imperialistischen Allianz Einhalt gebieten. Die Arbeit leistet darüber hinaus einen wichtigen Beitrag für den Diskurs über die Rezeption der prähispanischen Kunst im Werk von Diego Rivera. So wird erstmals aufgezeigt, dass Rivera auch in „El Hombre Controlador del Universo“ Motive aus der altmexikanischen Kultur ableitet. Im Gegensatz zu anderen Fresken wurde das Wandbild noch nicht unter dieser Fragestellung untersucht. Grund dafür könnte sein, dass Rivera die ursprünglich mexikanischen Motive, wie die der Sonne und des Mondes, der Nutzpflanzen, der Tiere und des Totenkultes, in einen wissenschaftlichen Kontext einbettet und sie daher nicht auf dem ersten Blick als originär mexikanisch wahrgenommen werden. Der Epilog der Arbeit führt einen Vergleich mit dem für die Pariser Weltausstellung 1952 realisierten Freskos „Friedenstraum und Kriegsalbtraum. Realistische Phantasie“ fort, den 2008 erstmals in der Forschung Ana Isabel Pérez Gavilan Ávila angestoßen hat. Aufgrund der Darstellung von Stalin und Mao als Initiator einer Friedensbewegung und der USA als Atommacht und Folterer von Koreanern und Chinesen hatte dieses Fresko ähnlich wie „Man at the Crossroads“ eine scharfe Zensur erhalten. Rivera behauptete daraufhin sein Bild verteidigend, dass das Fresko eine inhaltliche und formale Fortsetzung von „El Hombre Controlador del Universo“ sei. Ein bislang nicht publizierter Brief, der sich im Archiv des CENIDIAP in Mexiko befindet, legt jedoch dar, dass Rivera mit Hilfe des Wandbildes lediglich versuchte, nach über 20 Jahren wieder von der Kommunistischen Partei aufgenommen zu werden.
"Mir ist so digk vor gesait" : Studien zur erzählerischen Gestaltung des "Meleranz" von dem Pleier
(2024)
In der germanistischen Mediävistik richtet sich das Forschungsinteresse vornehmlich auf die höfische Literatur und dabei insbesondere auf die frühen und späten Artusromane. Vor allem die Werke von Hartmann von Aue und Wolfram von Eschenbach sind zentrale Forschungsobjekte, während Texte wie Pleiers ‚Meleranz‘ bisher nur begrenzt Beachtung fanden.
Die Forschungslücke, die die vorliegende Arbeit adressiert, liegt in der detaillierten Analyse der spezifischen Erzähltechniken des pleierschen Textes, die sich sowohl durch die Verwendung traditioneller arthurischer Motive als auch durch innovative narrative Ansätze auszeichnen. Ausgehend von dem Befund eines stark zurückgenommenen Erzählers wird untersucht, welche narrativen Strategien und Verfahren der Pleier im ‚Meleranz‘ anwendet, um trotz dieser Abkehr von der implizierten poetischen Regelhaftigkeit einer dominanten Erzählerfigur das Erzählen vom Ritter ‚Meleranz‘ gelingen und zugleich an einigen Stellen ausgesprochen konventionell wirken zu lassen.
Um aufzudecken, wie der Text ohne die Stimme eines deutlich hervortretenden Erzählers vermittelt wird, nutze ich im Verlauf der Arbeit eine Typologie der Stoffvermittlung durch (arthurische) Erzähler. In den Einzelstudien zum ‚Meleranz‘ werden seine Motive, Erzählmuster und Figurenkonstellationen in einem close reading erarbeitet und mit der Typologie abgeglichen, um bestimmen zu können, welche Vermittlungsformen im pleierschen Text genutzt werden. Mit Hilfe dieses Vergleichs kann das Erzählverfahren im ‚Meleranz‘ extrapoliert und gleichzeitig offengelegt werden. Mittels dieses Vorgehens wird verdeutlicht werden, dass es sich beim ‚Meleranz‘ um einen Text handelt, der arthurische Konventionen lediglich anders inszeniert, um die vermittelnde Funktion der Stimme des Erzählers zu substituieren oder ihr Fehler auszugleichen.
Die Physiologie des Schmerzes umfasst komplexe immunologische, sensorische und inflammatorische Prozesse im Rückenmark, im Gehirn und in der Peripherie. Wiederholte nozizeptive Stimulation induziert pathophysiologische Veränderungen bei der Schmerzweiterleitung, aus denen eine periphere oder zentrale Sensibilisierung resultiert. Diese kann bei dafür anfälligen Patienten zu der Ausbildung von chronischen Schmerzzuständen führen. Obwohl das Wissen über die genauen molekularen Vorgänge der Schmerz-Chronifizierung noch immer unvollständig ist, sind die Identifizierung von Risikofaktoren vernünftige Schritte, um die individuelle Anfälligkeit für die Entwicklung chronischer Schmerzen zu bestimmen. Das Hauptziel dieser Doktorarbeit bestand daher in der Identifikation humaner genetischer Biomarker für chronische Schmerzzustände.
Bluttransfusionen ermöglichen es jährlich tausenden von Menschen das Leben zu retten. Allerdings bringt ein unreflektierter Einsatz auch zahlreiche Nachteile mit sich. Patient Blood Management (PBM) beschäftigt sich damit, das optimale Kosten-Nutzen-Verhältnis dieser Maßnahme auszuschöpfen.
Das Programm verfolgt einen multimodalen Ansatz zur Reduktion von Transfusionen. Es zielt darauf ab präoperative Anämie zu erfassen und, wenn möglich, zu therapieren, iatrogenen Blutverlust zu reduzieren und die Anämietoleranz des Körpers maximal auszunutzen. Diese Maßnahmen wurden durch Schulungsprogramme und die Bereitstellung von Informationsmaterial begleitet, um die Sensibilität und das Wissen zu diesem Thema zu vergrößern.
Die vorliegende Arbeit befasst sich mit den Einflüssen der Einführung von PBM auf die Mortalität und Morbidität von Malignompatienten in der Viszeralchirurgie. Die retrospektive Analyse war darauf ausgerichtet, einen Unterschied von 10 % im Zweijahresüberleben vor und nach Einführung festzustellen. Hierfür wurden die Daten von 836 Patienten ausgewertet, die sich über einen Zeitraum von vier Jahren einer onkologischen Operation in der Abteilung für Allgemein- und Viszeralchirurgie der Universitätsklinik Frankfurt am Main unterzogen haben. Davon befanden sich 389 vor und 447 nach der Einführung des Projekts in Behandlung.
Das Ziel der Untersuchung bestand darin, die Sicherheit und den Nutzen von PBM in dieser speziellen Patientengruppe näher zu untersuchen. Dazu wurden der primäre Endpunkt des Zweijahresüberlebens und die sekundären Endpunkte 30-Tages- und 90-Tagesüberleben, Prozentsatz an Patienten mit Anämie, Anzahl der transfundierten Erythrozytenkonzentrate (EK) sowie das Auftreten von Komplikationen nach der Dindo-Clavien Klassifikation festgelegt.
Die erhobenen Daten zeigen ein um 13,1 % (p = < 0,001) verbessertes Überleben nach zwei Jahren in den Vergleichsgruppen vor und nach Einführung des Patient Blood Managements. Es haben 21,5 % (p = < 0,001) weniger Patienten Erythrozytenkonzentrate erhalten, zudem wurde die Gesamtsumme der transfundierten Konzentrate signifikant (p = < 0,001) reduziert.
Dabei kam es zu keinem vermehrten Auftreten von Komplikationen. Dies spricht dafür, dass die Einführung von PBM zur Verbesserung der Patientensicherheit beigetragen hat. Es hat sich gezeigt, dass Patienten ohne oder mit moderaten postoperativen Komplikationen (Dindo-Claven < IIIb) von den Veränderungen im besonderen Maße profitieren.
Eine flächendeckende Implementierung des Konzepts in den klinischen Alltag ist als sicher und empfehlenswert zu betrachten. Neben den Patienten profitiert auch das ärztliche Personal, denn im Rahmen von strukturierten Fortbildungsveranstaltungen wird tiefergehendes Wissen vermittelt und klare Handlungsempfehlungen gegeben. Dies reduziert Unsicherheiten, erhöht die Sensibilität und verringert auf diesem Weg Fehler im Transfusionsmanagement. Des Weiteren ergeben sich ökonomische Vorteile. Durch Schulungen, Anämiescreening und der Anschaffung neuer blutsparender Systeme entstehen zwar zunächst zusätzliche Kosten, allerdings stehen diese Einsparungen, durch einen geringeren EK-Verbrauch sowie geringeren Ausgaben durch eine Senkung der Morbidität, gegenüber.
Es wäre von Interesse, in zukünftigen Untersuchungen die genauen Ursachen für den beobachteten Effekt im verbesserten Langzeitüberleben zu analysieren. Mit diesem Wissen kann eine optimale Nutzung der Einflussfaktoren gewährleistet werden. Zudem sollte es auf dieser Basis möglich werden, das Patientenkollektiv, das von einer Transfusion profitiert, genauer einzugrenzen.
Als ich im Alter von etwa zehn Jahren das erste Mal in einem National GeographicMagazin auf die mir damals noch vollkommen unverständlich anmutende Ansammlung von Konsonanten und Vokalen des Begriffs "Powwow" stieß, ahnte ich nichts von ihrer Bedeutung für mein zukünftiges Leben. Zu diesem Zeitpunkt war mir noch nicht einmal bewußt, daß diese einer mir damals noch unbekannten, tonangebenden Konvention entsprechend, nicht etwa, wie für einen deutschen Leser zu vermuten wäre, "POW - WOW", sondern eigentlich "PAU - WAU" ausgesprochen werden. Zudem konnte ich damals natürlich auch nicht ahnen, daß ich mich zwanzig Jahre später im Rahmen einer Dissertation mit der inhaltlichen Vielschichtigkeit dieses Begriffs auseinandersetzen würde. Und so stellt diese Arbeit das vorläufige Zwischenprodukt einer Sinnsuche dar, die damals eher beiläufig mit der Überlegung begann, ob nicht gar der "traditionell" gekleidete Indianer auf dem, eine Werbung für Kanada als Immigrationsland illustrierenden Bild, mit den erläuternden Worten "Powwow in Thunder Bay", eben diesen Namen trägt. ...
Twentieth-century scholars have thought little about the attractions of Descartes’ thinking. Especially in feminist theory, he has a bad press as the ‘instigator’ of the body-mind-split – seen as one of the theoretical bases for the subordination of women in Western culture. Seen from within seventeenth-century discourse it is the dictum that can be inferred from his writings that ‘the mind has no sex’ and which can be seen as an appeal to think about rational capacities in the utopian perspective of a gender neutral discourse. My work analyses this “face” of Cartesianism as it was adapted in favour of English seventeenth-century women. How were the specific tenets of Descartes’ philosophy employed on behalf of English women in the second half of the seventeenth century in England? My focus is on Descartes as a thinker, who – whatever his real or imagined intention might have been – provided women in seventeenth-century England with tools with which to change their status, in other words: with instruments of empowerment. So why were Descartes’ arguments so attractive for women? Descartes had argued for equal rational abilities among individuals in a gender neutral way. He had further critiqued generally accepted truth with his universal doubt. I believe this specific combination of ideas, affirming their rational capabilities, was seen by a number of women as an invitation to become involved in spheres of activity from which they were previously excluded. Moreover, a specific set of Descartes’ arguments provided a number of English women with a strategy to extend female agency. Not only did Descartes’ views legitimate female rationality, they also allowed an acknowledgement that this female intellect was equally connected to “truth” as that of their male contemporaries. As a consequence, women developed an increased self-esteem and inspiration to pursue their own independent study (and in some cases publishing). These ideas eventually helped to bring forward a demand for female education, as girls and women were still excluded from formal education in seventeenth-century England. My general thesis is that Cartesianism, as one of the earliest universalist theories on the nature of human reason, introduced new possibilities into the English debate over the nature and, hence, social position of women. It brought a radical twist to the already existing discussion on women by offering new critical tools which were taken up to argue on behalf of English women. In my work I examine the specific historical conditions of the reception of Descartes’ thought in England, the philosophical appeal of his ideas for women and analyse the writings of two English ‘disciples’ of Descartes: Margaret Cavendish, Duchess of Newcastle and Mary Astell.
Die Fähigkeit der spezifischen und kontextabhängigen zellulären Adaption auf intrinsische und/oder extrinsische Signale ist das Fundament zellulärer Homöostase. Verschiedene Signale werden von Membranrezeptoren oder intrazellulären Rezeptoren erkannt und ermöglichen die molekulare Anpassung zellulärer Prozesse. Komplexe, ineinandergreifende Proteinnetzwerke sind dabei elementar in der Regulation der Zelle. Proteine und deren Funktionen werden dabei nach Bedarf reguliert und unterliegen einem ständigen proteolytischen Umsatz.
Die stimulusabhängige Gentranskription und/oder Proteintranslation nimmt hier eine zentrale Stellung ein, da die zugrundeliegende Maschinerie die Komposition und Funktion der Proteinnetzwerke entsprechend anpassen kann. Zusätzlich zur Regulation der Proteinabundanz werden Proteine posttranslational modifiziert, um deren Eigenschaften rasch zu ändern. Zu posttranslationalen Modifikationen zählen die Ubiquitinierung und/oder Phosphorylierung, welche die Proteinfunktionen hochdynamisch regulieren. Deregulierte Proteinnetzwerke werden oft mit Neurodegeneration und Autoimmun- oder Krebserkrankungen assoziiert. Auch Infektionen mit humanpathogenen Bakterien greifen stark in den Regulierungsprozess von Proteinnetzwerken und deren Funktionen ein. Die zelluläre Homöostase wird dadurch herausgefordert.
Bakterien der Gattung Salmonella sind zoonotische, gramnegative, fakultativ intrazelluläre Pathogene, welche weltweit millionenfach Salmonellen-erkrankungen hervorrufen. Von besonderer Bedeutung ist dabei Salmonella enterica serovar Typhimurium (hiernach Salmonella), welches im Menschen, meist durch mangelnde Hygienemaßnahmen, Gastroenteritis auslöst.
Immunität in Epithelzellen wird über das angeborene Immunsystem vermittelt und dient der Pathogenerkennung und -bekämpfung. Die Toll-like Rezeptoren (TLR) gehören zu den Mustererkennungsrezeptoren (pattern recognition receptors), welche spezifische mikrobielle Strukturen detektieren und eine kontextabhängige zelluläre Antwort generieren. Danger-Rezeptoren erkennen hingegen nicht direkt das Pathogen, sondern zelluläre Perturbationen, welche durch Zellschäden oder bakterielle Invasionen verursacht werden. Die intrinsische Fähigkeit der Wirtszelle, sich gegen Infektionen/Gefahren zu wehren wird dabei als zellautonome Immunität bezeichnet. Dabei nehmen induzierte proinflammatorische Signalwege und zelluläre Stressantworten eine wichtige Stellung ein. Die zelluläre Stressantwort aktiviert unter anderem die selektive Autophagie. Diese kann spezifisch aberrante Organelle, Proteine und invasive Pathogene abbauen. Ein weiterer Stresssignalweg ist die integrated stress response (ISR), welche eine selektive Proteintranslation erlaubt und damit die Auflösung des proteintoxischen Stresses ermöglicht.
Zur Penetration von Epithelzellen benötigt Salmonella ein komplexes System an Virulenzfaktoren, welches die bakterielle Internalisierung und Proliferation in der Wirtszelle ermöglicht. Salmonella nutzt dazu ein Typ-III-Sekretionssystem. Das System sekretiert bakterielle Virulenzfaktoren in die Zelle, sodass eine hochspezifische Modulierung des Wirtes erzwungen wird.
Die Virulenzfaktoren SopE und SopE2 spielen dabei eine Schlüsselrolle, da sie die Pathogenität von Salmonella maßgeblich vermitteln. Durch molekulare Mimikry von Wirts GTP (Guanosintriphosphat) -Austauschfaktoren aktivieren SopE und SopE2 die Rho GTPasen CDC42 und Rac1. GTP-geladenes CDC42 und Rac1 wiederum aktivieren das Aktinzytoskelett und stimulieren die Polymerisierung von Aktinfilamenten über den Arp2/3-Komplex an der Invasionsstelle. Das Pathogen wird dadurch in ein membranumhülltes Vesikel, die sogenannte Salmonella-containing Vakuole (SCV), aufgenommen. Die SCV stellt eine protektive, replikative, intrazelluläre Nische des Pathogens dar und wird permanent durch verschiedene Virulenzfaktoren moduliert.
Im Allgemeinen führt die Aktivierung von Mustererkennungsrezeptoren und Danger-Rezeptoren also zu einer zellulären Stressantwort und Entzündungsreaktion, wodurch es zur Bekämpfung der Infektion kommt. Inflammatorische Signalwege werden meist über den zentralen Transkriptionsfaktor NF-κB (nuclear factor 'kappa-light-chain-enhancer' of activated B-cells) vermittelt. NF-κB bewirkt die Induktion von proinflammatorischen Effektoren und Stressgenen. Zellautonome Immunität wird zusätzlich durch antibakterielle Autophagie ermöglicht, wobei Salmonella selektiv über das lysosomale System abgebaut werden. Das bakterielle Typ-III-Sekretionssystem verursacht an einigen wenigen SCVs Membranschäden, sodass Salmonella das Wirtszytosol penetrieren. Zytosolische Bakterien werden dabei spezifisch ubiquitiniert. Dies erlaubt die Erkennung durch die Autophagie-Maschinerie.
In der vorliegenden Arbeit wurde die zellautonome Immunität von Epithelzellen während einer akuten Salmonella Infektion durch quantitative Proteomik untersucht...
Die Arbeit thematisiert den postulierten Zusammenhang zwischen Informationstechnologie (IT) und gesellschaftlichem Wandel. Von Interesse ist hier, wie das Paradigma technologiegetriebenen Wandels in unterschiedlichen Gesellschaften aufgenommen wird. Grundlage der vorliegenden Ergebnisse sind ethnographische Forschungen zwischen 1999 und 2002 in der Republik Zypern (Nicosia), Kolumbien (Bogotá), Rumänien (Timisoara), Indien (Mumbai, Pune, Bangalore) und den Vereinigten Staaten (San Francisco, Silicon Valley). Es wurden insgesamt achtzig Experten im IT-Sektor als Mitglieder transnationaler Berufsgemeinschaften in Technologiezentren und Innovationsregionen unter einer vergleichenden Perspektive zur Bedeutung von IT für Wandel in ihren Gesellschaften befragt. Aus kulturanthropologischer Perspektive kann der Begriff Informationstechnologie als Teil eines dichten "konzeptionellen Feldes" betrachtet werden, ausgestattet mit "kulturellen Logiken", in denen Konzepte wie Modernität, Entwicklung und Fortschritt zentral sind. Experten machen Eingaben in "konzeptionelle Konfigurationen" von Informationstechnologie und können als Akteure an "kulturellen Schnittstellen" identifiziert werden, die kulturelle Diskurse über Informationstechnologie als Werkzeug zur gesellschaftlichen Restrukturierung herstellen und transportieren. Unter dem Ansatz von akteursgetriebenen Wandlungsdynamiken können sie als konstitutiv für die Erzeugung kultureller Logiken der Veränderung und der Erneuerung, und damit einer "Kultur des Wandels" gelten. Die Untersuchung versteht sich als Beitrag zum Wissensfortschritt in der Kulturanthropologie zur Analyse von gegenwärtigen Modernisierungs- und Entwicklungsprozessen in gegenwärtigen Gesellschaften unter der Perspektive von Transnationalisierung.
The book deals with a comprehensive constellation of narrative and visual, often counterposed representations of the causes, course, and results of the assault on the Palace of Justice of Colombia by a guerrilla commando and the immediate counterattack launched by state security forces on November 6, 1985, as well as with the local memorial traditions in which the production, circulation and reproduction of these representations have taken place between 1985 and 2020. The research on which it is based was grounded in the method and perspective of classical anthropology, in as much as qualitative fieldwork and the search for the perspective of the actors involved have played a central role. Within that context, memory entrepreneurs belonging to diverse sectors, from the far-right to the human rights movement, were followed through multisited fieldwork in various locations of Colombia, as well as in various countries of America and Europe. The analyses of fieldwork data, documental sources, and visual representations that constitute the core of the argument are framed in the field of memory studies and mainly based on theoretical and methodological resources from Pierre Bourdieu’s Field Theory, Jeffrey Alexander’s theory of social trauma, and Ernst Gombrich’s characterization of iconological analysis.
The book is composed of four chapters preceded by an introduction and followed by the conclusions and documental appendices, and substantiates three main theses. The first is that the Palace of Justice events were a radio- and television-broadcasted dispersed tragedy that affected the lives of actors from different social sectors and regions of Colombia, who have launched since 1985 multiple memorial initiatives in different fields of culture, thereby contributing to the formation and intergenerational transmission of a widespread cultural trauma. The second is that the narrative and visual representations at the core of that trauma express a vast universe of local representational traditions that can be traced at least until the early 20th century, and therefore preexists the so-called Colombian “memory boom”, dated to the mid-1990s. As an example of the preexistence and longstanding impact of these traditions, the local usage of the figure of “holocaust” for representing the effects of politically motivated violence is analyzed regarding the Palace of Justice events, but also traced to other representations emerged in the decade of 1920. The third thesis is that analyzing the diverse, frequently counterposed accounts of political violence elaborated within these traditions provides an opportunity to explore a wide variety of understandings of the causes and characteristics of the longstanding Colombian social and armed conflict.
Keywords: Political violence, Cultural trauma, Collective Memory, Iconology, Holocaust, Colombia.
Die vorliegende Arbeit beinhaltet die tierexperimentelle Evaluierung von zwei Fragestellungen innerhalb eines Tiermodels. a) Zum einen sollten die Möglichkeiten der vaskulären MR-gesteuerten Interventionen am Model der Carotis-PTA in vivo evaluiert und optimiert, und zum anderen b) die Auswirkungen von intrakraniellen CO2-Embolien bei Herzoperationen unter CO2-Protektion evaluiert werden. Insgesamt wurden an 22 Hausschweinen Gefäßinterventionen unter MRT-Kontrolle durchgeführt. Die Punktion der A. iliaca communis, als Voraussetzung für beide Fragestellungen erfolgte im Angiographieraum. Hier erfolgte auch die Positionierung der Interventionsmaterialien im Zielgefäß, der A. carotis communis. Über das Hybridsystem erfolgte der Transport in den MRT, in dem die unterschiedlichen Interventionsmaterialien getestet und die MRT-Sequenzen angepasst werden konnten. Im zweiten Teil der Arbeit wurden über einen in der A. carotis communis liegenden Katheter unterschiedliche Mengen CO2 oder Luft intracerebral appliziert. Durch eine Diffusionssequenz (DWI) konnten die hierdurch verursachten Effekte auf das Gehirngewebe beobachtet werden. Eine lokale hyperintense Zunahme in der DWI um mehr als 20% wurde als signifikant, in Bezug auf das Vorliegen einer Gehirnischämie bezeichnet. Im Rahmen der 22 Tierexperimente des interventionell, radiologischen Teils konnten die Interventionsmaterialien gut über die entwickelte Echtzeitsequenz dargestellt werden. Durch die Weiterentwicklung dieser Sequenz konnten letztendlich sowohl die Bewegungen, als auch die Öffnungsvorgänge der Ballonkatheter mittels Echtzeitbildgebung dargestellt werden. Darüber hinaus konnten Inteventionsmaterialien bezüglich ihrer Eignung für die MR-Angiographie bewertet werden. Unsere Studie konnte zeigen, dass Interventionen im Bereich der A.carotis communis unter MR-Kontrolle möglich sind. Dies gelingt bislang jedoch nur durch passive Darstellung der Intervenionsmaterialien durch deren Suszeptibilitätsartefakte. Allerdings bedarf es noch der Entwicklung von Interventionsmaterialien, hier vor allem Führungsdrähte, welche nicht magnetisch leitend sind um eine Gefährdung des Patienten auszuschließen. Im herzchirurgischen Teil konnten 16 Tiere eingeschlossen werden. Diese wurden je nach Aplikationsgas und -menge in 3 Gruppen unterteilt: Gruppe I: Gruppe II: Gruppe III: Bei allen Tieren wurden Signalanhebungen in der Diffusionssequenz in der ipsi- und kontralateralen Hemisphäre, deren Persistenz über 25 Minuten, sowie klinische Symptome registriert. Herauszustellen sind die deutlich unterschiedlichen klinischen Reaktionen der Gruppe I zu den Gruppen II und III in unserer Studie. Die Kreislaufreaktionen, die in der Gruppe I bei 4 von 5 Tieren bis zum Kreislaufstillstand reichten, wurden von deutlichen, bilateralen Signalveränderungen in der DWI begleitet. In diesen Fällen muss von einem irreversiblen, großen cerebralen Insult ausgegangen werden. Lediglich bei 2 von 11 Tieren der beiden CO2 Gruppen, waren die Signalanhebungen progredient und dehnten sich in den späten Messungen auch auf die kontralaterale Hemisphäre aus. Bei allen übrigen Tieren dieser Gruppen waren nur leichte Signalanhebungen nach 10 Minuten zu erkennen. Daraus ist zu schließen, dass mit keinen bleibenden Schädigungen der Gehirnzellen zu rechnen ist, da die Ischämiezeit deutlich unter 15 Minuten lag.
Im Vorfeld des 200jährigen Jubiläums der Expedition von Lewis & Clark (2003-2006) begannen auf der Standing Rock Indian Reservation auf der Grenze der US-Bundesstaaten North Dakota und South Dakota die Planungen für den Aus- bzw. Aufbau einer touristischen Infrastruktur auf der Reservation. Diese sollten bis zum Jahr 2004 weitgehend abgeschlossen sein sollte, um von den erwarteten drei Millionen Jubiläumsreisenden einerseits wirtschaftlich zu profitieren, andererseits diese aber auch inhaltlich und räumlich zu kontrollieren. Die Studie beschäftigt sich mit der Entwicklung bis 2004 und untersucht, welche Faktoren diese positiv und negativ beeinflussten. Dabei wird deutlich, dass die Tätigkeiten auf der Reservation nicht allein von internen, sondern vielmehr auch von externen Faktoren, wie beispielsweise den Tourismusbehörden der Bundesstaaten, der Nachbargemeinde Mobridge, South Dakota, der Tribal Tourism Partnership Initiative des United Tribes Technical College, abhängig waren. Zudem wirft die Studie einen Blick auf die Organisationsstruktur der Reservation, wo das stammeseigene College eine wichtige Rolle in der Wirtschaftsförderung spielt und die Tourismusplanungen in Gang gebracht hat.
Hintergrund. Die Achtung der individuellen Autonomie ist eines von vier medizinethischen Prinzipien, das im Kontext von Medizin und Forschung insbesondere in Bezug auf die informierte Einwilligung einer Person thematisiert wird. Menschen mit Demenz können aufgrund innerer oder äußerer Faktoren in ihrer Einwilligungsfähigkeit beeinträchtigt sein, was zu einer Einschränkung ihres Rechts auf Selbstbestimmung führen kann. Im diesbezüglichen Spannungsfeld zwischen Fürsorge und Autonomie soll Entscheidungsassistenz zur Ermöglichung selbstbestimmter Entscheidungen beitragen.
Zielrichtung der Arbeit. Ziel der vorliegenden Dissertation ist die Definition, Implementierung und Evaluation von Entscheidungsassistenzmaßnahmen für Menschen mit Demenz, um deren Autonomie in Entscheidungsprozessen zu unterstützen. Drei Teilprojekte umfassen die Ermittlung des internationalen Forschungsstands zu Entscheidungsassistenz bei Demenz, die Definition und Pilotierung von Unterstützungstools in der Praxis und die Analyse des individuellen Erlebens der vereinfachten Aufklärungsgespräche durch Menschen mit Demenz.
Methode. Im ersten Teilprojekt wurde eine am PRISMA-Standard orientierte systematische Literaturrecherche in Medline und PsycINFO durchgeführt. Die extrahierten relevanten Informationen wurden inhaltlich systematisiert. Aufbauend auf diesen Ergebnissen wurden im zweiten Teilprojekt konkrete Unterstützungstools definiert und in reale Aufklärungsgespräche (Lumbalpunktion) implementiert. Die Tools wurden in der Pilotierung in der Praxis sowie in einem iterativen Diskussionsprozess mit Experten weiterentwickelt. Im dritten Teilprojekt wurde das individuelle Erleben der Teilnehmer der vereinfachten Aufklärungsgespräche mittels problemzentrierter Interviews untersucht und die Daten einer qualitativen Inhaltsanalyse unterzogen.
Ergebnisse. Die Datenbankrecherche ergab initial 2348 Treffer. Nach Screenings der Titel, Abstracts und Volltexte konnten 11 Artikel eingeschlossen werden. Vier der eingeschlossenen Studien sind Interventionsstudien, die übrigen sieben qualitative Interviewstudien. Die identifizierten Unterstützungsmaßnahmen wurden zunächst den beiden Kategorien Interventionen und Strategien und anschließend unter Zuhilfenahme des Konzepts des Contextual Consents fünf komplexitätssteigernden Dimensionen einer Entscheidungssituation zugeordnet (individuelle, soziale, medizinische, informationelle und Folgendimension). Darauf aufbauend wurden im zweiten Teilprojekt acht Entscheidungsassistenzmaßnahmen abgeleitet: (1) Gesprächsstruktur, (2) Elaborierte klare Sprache, (3) Ambiente / Raumgestaltung, (4) Stichwortlisten, (5) Prioritätenkarten, (6) Visualisierung, (7) Vereinfachte schriftliche Einverständniserklärung sowie (8) Personenzentrierte Haltung des Entscheidungsassistenten (1-7: Tools, 8: Grundeinstellung). Die Tools zielen überwiegend auf eine Komplexitätsreduktion in der informationellen Dimension unter Berücksichtigung der fähigkeitsbezogenen und der bedürfnisbezogenen individuellen Dimension ab. Durch Anpassungen der Informationsdarbietung oder der kommunikativen Interaktion im Gespräch dienen sie mehrheitlich der Förderung des (Informations-) Verständnisses. Die Analyse der qualitativen Daten im dritten Teilprojekt zeigt, dass die Erfahrung der vereinfachten Aufklärungsgespräche durch drei übergreifende Themen gekennzeichnet ist. Die Kategorie Formalität versus Informationsgewinn illustriert die individuelle Bedeutung des Aufklärungsgesprächs für die Teilnehmer und deren Bewertung des Prozesses der informierten Einwilligung. Die Kategorie Wahrnehmung der Unterstützung skizziert die Bewertungen der angewandten Unterstützungstools durch die Teilnehmer. Die Kategorie Der Wahrheit ins Auge sehen müssen stellt dar, dass die erlebte Situation des vereinfachten Aufklärungsgesprächs wesentlich durch die Verdachtsdiagnose Demenz bestimmt ist, die im Rahmen aller Aufklärungsgespräche besprochen wurde.
Fazit. Bislang gibt es wenig empirische Forschung zu Entscheidungsassistenz für Menschen mit Demenz und Unterstützungsmaßnahmen werden überwiegend unsystematisch entwickelt und angewendet. Die Wirksamkeit einzelner Unterstützungsmaßnahmen kann aufgrund fehlender Interventionsstudien selten beurteilt werden. Unterstützungsmaßnahmen zielen überwiegend auf eine Komplexitätsreduktion in der Informationsdarbietung und im kommunikativen Interaktionsprozess ab, wobei sie kognitive Beeinträchtigungen und Interaktions-/ Entscheidungsbedürfnisse von Menschen mit Demenz berücksichtigen. Die definierten Tools können als erste konkret handhabbare Werkzeuge verstanden werden, die das strukturierte Leisten von Entscheidungsassistenz für Menschen mit Demenz erleichtern sollen. Sie sind übertragbar auf verschiedene Entscheidungssituationen. Eine Bewertung der Wirksamkeit der definierten Tools sollte in weiteren Entscheidungssituationen und mit größeren Stichproben weiteruntersucht werden. Die Ergebnisse der Evaluation liefern jedoch erste Hinweise darauf, dass einige Teilnehmer sich von einzelnen Tools unterstützt gefühlt haben und die anvisierte Komplexitätsreduktion in der informationellen Dimension in einigen Fällen erfolgreich war. Eine wesentliche Komplexitätssteigerung in der untersuchten Entscheidungssituation entstand durch die negative Emotionen auslösende Vermittlung einer potentiellen Demenzdiagnose (Folgendimension). Dieses Ergebnis impliziert, dass die definierte „verständnisfördernde Toolbox“ um Unterstützungsmaßnahmen zur emotionalen Entlastung von Menschen mit Demenz erweitert werden muss, da davon ausgegangen werden kann, dass vielfältige Entscheidungssituationen für Menschen mit Demenz emotional hoch belastend sind.
Die HAART hat einen Durchbruch in der Therapie der HIV-Infektion bewirkt und so zu einer drastischen Senkung der Mortalität und Morbidität geführt. Um diesen Ansprüchen weiterhin gerecht zu werden und sie bestenfalls zu übertreffen, erfordert eine ständige Weiterentwicklung der HAART mit neuen und ausgefeilteren Alternativen. Ein weiterer Schritt in diese Richtung ist die Entwicklung einer neuen Formulierung des Kombinationspräparates LPV/r (Kaletra®) von der „lipophilen Kapselform“ zur „hydrophilen Tablettenform“, aus der Wirkstoffgruppe der Proteasehemmer. Lopinavir (LPV) ist ein HIV-Proteasehemmer der mit Ritonavir (r oder RTV) als fixe Kombination (LPV/r) hergestellt wird. Der Proteasehemmer Ritonavir wird dabei in subtherapeutischer Dosierung als Booster verwendet, dadurch wird eine Verbesserung der pharmakokinetischen Eigenschaften erzielt. Der Vorteil hierbei sind die höheren Lopinavir-Plasmaspiegel die erreicht werden. Diese Kombination wird als Kaletra® (LPV/r) vermarktet.
LPV/r ist erhältlich als lipophile Kapselform (133,3/33,3mg) oder in Flüssigform (80/20mg pro ml). Beide erfordern eine kühle Lagerung und müssen mit einer fettreichen Mahlzeit eingenommen werden, um optimale Lopinavir Plasmaspiegel zu erzielen.
Durch das „Melt Extrusion (Meltrex)“ Produktionsverfahren gelang die Herstellung einer „hydrophilen Tabletteform“ (200/50mg und 100/25mg) mit verbesserter Bioverfügbarkeit. Dadurch reduzierte sich die einzunehmende Anzahl von 6 Kapseln pro Tag auf 4 Tabletten pro Tag. Zudem bedarf die LPV/r Tablette keiner Kühlung und kann nahrungsunabhängig eingenommen werden.
Ziel dieser Untersuchung war es zu prüfen, welche LPV/r (Kaletra®) Darreichungsform, Kapsel oder Tablette, in einer HAART von HIV-Patienten bevorzugt wird. Es sollte ermittelt werden, ob bei gleichbleibender Wirksamkeit kombiniert mit einer verbesserten Verträglichkeit und Handhabung (weniger Tabletten, nahrungsunabhängige Einnahme und keine Kühlung), die überwiegende Mehrzahl der HIV-Patienten sich zugunsten der LPV/r Tablette, im Sinne einer verbesserten Lebensqualität bzw. Gemütszustandes, entscheiden werden.
Dies geschah anhand einer prospektiven, nicht randomisierten Studie mit 238 HIV-infizierten Patienten, die über mindesten 16 Wochen oder länger eine LPV/r Kapsel haltige antiretrovirale Kombinationstherapie einnahmen und am Tag 0 auf LPV/r Tabletten umgestellt wurden, ohne weitere Änderungen in ihrer bisherigen HAART vorzunehmen. Der darauffolgende Beobachtungszeitraum betrug 32 Wochen. Es wurden Vorher-, Nachher-Fragebogen ausgefüllt und die Patienten unterzogen sich einer Vorher-, Nachher-Laboruntersuchung (CD4 und HI-Viruslast). Zudem wurde nach der subjektiven Präferenz gegenüber beiden Darreichungsformen (Kapsel oder Tablette) gefragt.
Zusammenfassend lässt sich sagen, dass unter der LPV/r Tablette bei gleichbleibender antiretroviraler Wirksamkeit, signifikant weniger intestinale Nebenwirkungen auftraten und daran geknüpft signifikant weniger Medikamente gegen intestinale Beschwerden eingenommen wurden. Was bei den Patienten zu einer deutlichen Präferenz der LPV/r-Tablette (71,2 %) gegenüber der LPV/r Kapsel (3,0 %) führte. Die Ergebnisse zu Lebensqualität zeigten zwar eine tendenzielle Besserung aber zusammen mit den Gemütszuständen ergaben sich hier keine signifikanten Unterschiede.
Nach der vorliegenden Untersuchung muss die LPV/r Tablette im Vergleich zur LPV/r-Kapsel, als die überlegene antiretrovirale Therapieoption in Betracht gezogen werden. Angesichts zahlreicher Einschränkungen durch die Infektion und die Notwendigkeit einer lebenslangen Therapie, kann dies, ein bedeutender Beitrag zur Therapietreue sein und dadurch den Erfolg einer HIV-Therapie wesentlich mitbestimmen.
Die Arbeit befasst sich auf dem Weg einer qualitativ empirischen Studie mit dem Thema „informelles Lernen“. Im Mittelpunkt steht die Erforschung der unterschiedlichen Phänomene informellen Lernens – der Lerninhalte, -formen und -modalitäten sowie die Bedeutung des Kontextes für diese Lernform. Darüber hinaus wird auf einer theoretischen Ebene eine Auseinandersetzung mit dem Diskurs um das informelle Lernen angestrebt. Neben einem Literaturbericht – dessen Ergebnis die theoretische wie empirische Unterbelichtung des informellen Lernens ist – wird nach einem systematischen Verständnis vom Lernen in informellen Kontexten gesucht. Im Fokus der Arbeit liegt aber die empirische Befassung mit dem Phänomen des informellen Lernens. Zu diesem Zweck wurden – verortet im Kontext eines kommunalen Wildtiermanagementprojektes – zweistufige Interviews sowie teilnehmende Beobachtungen durchgeführt und analysiert. Auf Basis dieser empirischen Daten konnten unterschiedliche Lernergebnisse und -formen informellen Lernens sowie unterschiedliche lernrelevante (Kontext-)Faktoren rekonstruiert werden. Darüber wurden spezifische Merkmale und Besonderheiten des Lernens in informellen Kontexten erarbeitet.
My study examined MMA training, and thereby the ‘back region’ of MMA, where the ‘everyday life’ of MMA takes place. I enquired into how MMA training corresponds with MMA’s self-description, namely the somehow self-contradicting notion that MMA fights would be dangerous combative goings-on of approximately real fighting, but that MMA fighters would be able to approach these incalculable and uncontrolla-ble combative dangers as calculable and controllable risks.235 Conducting an ethnog-raphy in which I focused on the combination of participation and observation, I stud-ied how the specific interaction organisations of the three core training practices of MMA training provide the training students with specific combative experiences and how they thereby construct the social reality that is MMA training....
Die in vivo MR-Protonenspektroskopie (1H-MRS) ist ein nichtinvasives Verfahren, das die Untersuchung biochemischer Substanzen beim Lebenden ermöglicht. In einer prospektiven Studie wurden Patienten, die an einer Demenz vom Alzheimer-Typ (DAT) litten, und altersentsprechende Probanden mit der 1H-MRS untersucht. Im Hirngewebe wurden Konzentrationen von Molekülen bestimmt, die Aussagen über die zelluläre Zusammensetzung ermöglichen. Das Hauptinteresse galt der Untersuchung von Glutamat und Glutamin, da ein Überangebot des Neurotransmitters Glutamat im synaptischen Spalt möglicherweise für die Neurodegeneration beim M. Alzheimer mitverantwortlich ist. Bei 29 Patienten mit einer DAT sowie 19 Probanden wurden zwei Volumina in Kortex und Marklager des Parietallappens bei 1,5 Tesla Magnetfeldstärke mit einer PRESS-Sequenz (TE = 22 ms, TR = 3 s) untersucht. Die Patienten waren kognitiv leicht bis mittelschwer beeinträchtigt (Mini Mental State Examination, MMSE, 11-27 Punkte). Die quantitative Auswertung der Spektren erfolgte nach der "phantom replacement method" mit dem Softwareprogramm LCModel. Als Kriterium für die Zuverlässigkeit der Konzentrationsangaben diente die vom Programm als %SD-Wert angegebene Auswertegenauigkeit der Einzelmessungen. Neben dem Glutamat- und Glutamingehalt wurden der Liquorgehalt im kortikalen Messvolumen und die Konzentrationen der Moleküle N-Acetyl-Aspartat und N-Acetyl-Aspartyl- Glutamat (tNAA), myo-Inositol (mI), Kreatin und Kreatinphosphat (tCr) sowie der cholinhaltigen Substanzen (tCh) bestimmt. Bei den Patienten konnten 25 aussagekräftige Spektren aus der Rindenregion und 19 aus dem Marklager des Parietallappens gemessen werden, bei den Probanden 17 Kortex- und 13 Marklager-Spektren. Glutamat und Glutamin können mit der in vivo-Spektroskopie wegen ihrer sich überlappenden Resonanzen nicht separat bestimmt werden und wurden deshalb als „Glx“ zusammengefasst. Der Glx-Gehalt betrug in der Rindenregion bei den Patienten im Durchschnitt 15,48 ± 5,15 mmol/l, bei den Probanden 13,98 ± 3,14 mmol/l. Die um 11% höhere Konzentration bei den Patienten war nicht signifikant. Die Glx-Konzentrationen im Marklager betrugen 8,16 ± 3,79 mmol/l bei den Patienten und 8,14 ± 3,71 mmol/l bei den Probanden. Nach dem Kriterium der %SD war die Zuverlässigkeit der Konzentrationsbestimmung von Glutamat und Glutamin eingeschränkt, was auf die protonenspektroskopischen Eigenschaften von Glutamat und Glutamin zurückzuführen ist. Sie erzeugen wegen ihrer gekoppelten Resonanzen breite und mehrgipflige Protonensignale, die wegen der resultierenden niedrigen Signalamplitude für LCModel von Makromolekülresonanzen oder von Artefakten, die durch ungenügende Wasserunterdrückung entstehen, schwierig abzugrenzen sind. Die %SD-Werte der Einzelmessungen von tNAA, mI, tCr und tCh waren gering, die Messergebnisse können daher als zuverlässig angesehen werden. Die tNAA-Konzentrationen in beiden Gruppen unterschieden sich weder in der grauen noch in der weißen Substanz signifikant voneinander. Im Hirnrindenvolumen zeigte sich bei den Patienten jedoch eine positive Korrelation von tNAA und MMSE-Ergebnis, also eine Reduktion von tNAA mit zunehmenden kognitiven Einbußen. Dies spricht für eine Abnahme des neuronalen Volumenanteils mit fortschreitender Erkrankung. Der durchschnittliche myo-Inositolgehalt im Marklagervolumen lag in der Patientengruppe um 20% höher als bei den Probanden. Der Unterschied erreichte jedoch kein Signifikanzniveau (p = 0,09). Im Rindenvolumen war die mittlere myo-Inositolkonzentration bei den Patienten um 7% höher als in der Kontrollgruppe, auch hier war der Unterschied nicht signifikant. Der nichtsignifikante myo-Inositolanstieg lässt sich als mäßige entzündliche oder reaktive Gliaproliferation interpretieren. Die tCr-Konzentrationen in beiden Gruppen unterschieden sich nicht, jedoch bestand bei den DAT-Patienten eine positive Korrelation des tCr-Gehalts mit der MMSE-Punktzahl in der grauen Substanz des Parietallappens, die Konzentration nahm also mit zunehmendem Schweregrad der Demenz ab. Bei der durchschnittlichen tCh-Konzentration bestanden keine Gruppenunterschiede in den untersuchten Regionen. Die Patienten wiesen eine signifikante Zunahme des mittleren Liquoranteils um 16% im kortikalen Volumen auf. Dies ist als kortikale Hirngewebeatrophie in frühen und mittleren Stadien der DAT zu werten. Während die in vivo-Konzentrationen von tNAA, mI, tCr und tCh zuverlässig bestimmt werden konnten, war die Messung von Glutamat und Glutamin bei 1,5 T mit technischen Schwierigkeiten verbunden. Wegen der hohen Standardabweichungen konnte aus dieser Untersuchung keine gesicherte Aussage zu einer möglichen Konzentrationsänderung dieser Aminosäuren bei der DAT abgeleitet werden. Es ist zu erwarten, dass hier durch MR-Geräte mit 3 T Feldstärke sowie durch den Einsatz der parallelen Bildgebung ein erheblich höheres Signal/Rausch-Verhältnis und damit genauere Ergebnisse erzielt werden können.
Ziel der Nachuntersuchung war es, 10 Jahres Ergebnisse nach arthroskopischer vorderer Kreuzbandplastik mittels Patellarsehne zu erhalten. Dafür wurden 74 Patienten, 55 Männer und 19 Frauen mit einem durchschnittlichen Alter von 38 Jahren im Mittel 113 Monaten nach arthroskopischer vorderer Kreuzbandplastik mit Interferenzschraubenfixation nachuntersucht. Evaluiert wurden die IKDC Evaluation, die Tegner - Aktivitätsskala und der Lysholm - Score. Die Bandstabilität wurde instrumentell mit dem Rolimeter getestet. Die statistische Auswertung erfolgte mittels c² Test. Die Tegner - Aktivitätsskala ergab ein durchschnittliches Aktivitätsniveau von 5,2. Vor der Verletzung lag der Wert bei 6,4. Der Lysholm - Score erreichte 93,6 von 100 Punkten. Hinsichtlich der Funktion wurden 74% und hinsichtlich der Stabilität 72% der Patienten in der IKDC Evaluation als normal bzw. als fast normal bewertet. Der mit dem Rolimeter bestimmte Lachman Test war in 88% normal und in 12% fast normal. Der pivot-shift Test war in 95% der Fälle negativ. 30% der Patienten zeigten in den Röntgenaufnahmen zum Nachuntersuchungszeitpunkt deutlich degenerative Veränderungen. Es ergibt sich eine signifikante Korrelation zwischen der Zeitdauer vom Unfall bis zur operativen Versorgung und dem Arthrosegrad. Die Beschwerden an der Transplantatentnahmestelle korrelieren signifikant mit den allgemeinen Symptomen. Das Ausmaß der Arthrose korreliert signifikant mit der Mensikusschädigung. Zur Vermeidung der Folgearthrose sollte daher bei gegebener Indikation eine frühzeitige Kreuzbandversorgung und im Falle der Begleitmeniskusverletzung dessen Erhalt mittels Refixation angestrebt werden.
The subject of this thesis is the experimental investigation of the neutron-capture cross sections of the neutron-rich, short-lived boron isotopes 13B and 14B, as they are thought to influence the rapid neutron-capture process (r process) nucleosynthesis in a neutrino-driven wind scenario.
The 13;14B(n,g)14;15B reactions were studied in inverse kinematics via Coulomb dissociation at the LAND/R3B setup (Reactions with Relativistic Radioactive Beams). A radioactive beam of 14;15B was produced via in-flight fragmentation and directed onto a lead-target at about 500 AMeV. The neutron breakup of the projectile within the electromagnetic field of the target nucleus was investigated in a kinematically complete measurement. All outgoing reaction products were detected and analyzed in order to reconstruct the excitation energy.
The differential Coulomb dissociation cross sections as a function of the excitation energy were obtained and first experimental constraints on the photoabsorption and the neutron-capture cross sections were deduced. The results were compared to theoretical approximations of the cross sections in question. The Coulomb dissociation cross section of 15B into 14B(g.s.) + n was determined to be s(15B;14B(g:s:)+n) CD = 81(8stat)(10syst) mb ; while the Coulomb dissociation cross section of 14B into a neutron and 13B in its ground state was found to be s(14B;13B(g:s:)+n) CD = 281(25stat)(43syst) mb: Furthermore, new information on the nuclear structure of 14B were achieved, as the spectral shape of the differential Coulomb dissociation cross section indicates a halolike structure of the nucleus.
Additionally, the Coulomb dissociation of 11Be was investigated and compared to previous measurements in order to verify the present analysis. The corresponding Coulomb dissociation cross section of 11Be into 10Be(g.s.) + n was found to be 450(40stat)(54syst ) mb, which is in good agreement with the results of Palit et al.
In einer prospektiven Studie wurden 68 Patienten mit Ersatz des vorderen und/oder hinteren Kreuzbands 2, 12, 24 Wochen, 1, 1,5 und 2 Jahre postoperativ kontrastmittelunterstützt magnetresonanztomographisch und klinisch untersucht, insgesamt wurden 160 MR-Untersuchungen durchgeführt. Sagittale, parasagittale und koronale Bilder wurden nativ mittels T1- und T2 gewichteter Spin Echo (SE) und Turbospinecho- (TSE) Sequenzen und nach Kontrastmittelgabe mit T1- und FS-Sequezen akquiriert. Die Resultate wurden mit den klinischen Untersuchungsergebnissen verglichen. Die Kriterien der MR-Auswertung umfassten die Morphologie, Signalintensität, das Kontrastmittelaufnahmeverhalten des Transplantates und Sekundärzeichen und der Vergleich mit den klinischen Untersuchungen einschließlich Stabilitäts- und Funktionstests entsprechend der Scores nach IKDC, OAK und Lysholm. Zwei Wochen postoperativ zeigten alle Kreuzbandtransplantate ein homogenes niedriges Signal in den T1 und T2 gewichteten SE Sequenzen, eine Unterscheidung zu den Signalen normaler Kreuzbänder sowie der verbliebenen Patellarsehne war nicht möglich. Innerhalb des ersten postoperativen Jahres konnte bei allen Patienten eine kontinuierliche Zunahme der Signalintensität und damit Inhomogenität des Bandersatzes beobachtet werden. Die Werte stiegen von 1,1a.u. auf 6,9 a.u. nach einem Jahr. Eine Beurteilung des Kreuzbandersatzes war nicht möglich. Im darauffolgenden postoperativen zweiten Jahr kam es zu einer Normalisierung des Signalintensitätsverhalten des Transplantates und somit zu einer besseren Abgrenzbarkeit (C/N=3,0). Alle Patienten wiesen postoperative einen unkomplizierten Verlauf mit klinisch stabilem Transplantat auf.
Lineare sowie zyklische 3-Alkylpyridinalkaloide sind vor allem in Schwämmen der Ordnung Haplosclerida, zu der auch Haliclona viscosa zählt, weit verbreitet. Die Synthese der zuvor von C. Volk isolierten Haliclamine C und D, des Viscosamins und des Viscosalin C bildete den Ausgangspunkt dieser Arbeit.[1-4] Sie erfolgte ausgehend von den bekannten Synthesen der Cyclostellettamine und Haliclamine[5-7] und gliedert sich in drei Abschnitte: erstens Synthese eines ω-Hydroxyalkylpyridins aus einem Bromalkohol, zweitens Funktionalisierung der Monomere in Abhängigkeit der gewählten Methode zur Di- bzw. Trimerisierung und drittens Verknüpfung und gegebenenfalls Zyklisierung. Durch Anwendung und Weiterentwicklung der bekannten Synthesewege wurden so insgesamt 14 lineare Monomere, zwei zyklische Monomere, 16 Cyclostellettamine, zwei Isocyclostellettamine, sieben Haliclamine, fünf Viscosaline sowie Viscosamin[8] und ein Analogon mit Heptylkette hergestellt. Dieser synthetische Zugang ermöglichte es, sowohl den finalen Strukturbeweis für die zuvor isolierten Verbindungen zu erbringen, als auch durch die Analyse der Fragmentierungs-muster von synthetischen und natürlichen Verbindungen mehr über das Verhalten dieser Verbindungen unter MS-Bedingungen zu erfahren. Die so gewonnenen Erkenntnisse führten dazu, dass drei unbekannte Verbindungen ohne Isolierung der Reinsubstanz mit einer Kombination von MS- und HPLC-Daten identifiziert werden konnten. So konnten das erste monozyklische 3-Alkylpyridinalkaloid marinen Ursprungs und zwei neue Haliclamine identifiziert und synthetisiert werden Des Weiteren gelang es, für die von C. Volk isolierten, jedoch nicht identifizierten Verbindungen Strukturen zu ermitteln bzw. auf Grund der MS-Daten Strukturvorschläge zu machen. Die durch den synthetischen Zugang große Anzahl verfügbarer 3-Alkylpyridinalkaloide ermöglichte außerdem eine systematische Untersuchung über den Zusammenhang von biologischer Aktivität und Struktur. Die Ergebnisse der am Helmholtz Institut für Infektionsforschung durchgeführten Experimente zu den antibakteriellen sowie cytotoxischen Eigenschaften von natürlichen wie auch rein synthetischen 3-Alkylpyridinalkaloiden zeigten, dass die Aktivität sich schon beim Addieren bzw. Subtrahieren einer Methylengruppe in einer Alkylkette signifikant ändert. [1] C. A. Volk, M. Köck, Org. Lett. 2003, 5, 3567-3569. [2] C. A. Volk, M. Köck, Org. Biomol. Chem. 2004, 2, 1827-1830. [3] C. A. Volk, H. Lippert, E. Lichte, M. Köck, Eur. J. Org. Chem. 2004, 3154-3158. [4] C. A. Volk, Dissertation, Johann Wolfgang Goethe Universität (Frankfurt am Main), 2004. [5] A. Grube, C. Timm, M. Köck, Eur. J. Org. Chem. 2006, 1285-1295 und Referenzen darin. [6] J. E. Baldwin, D. R. Spring, C. E. Atkinson, V. Lee, Tetrahedron 1998, 54, 13655-13680. [7] A. Kaiser, X. Billot, A. Gateau-Olesker, C. Marazano, B. C. Das, J. Am. Chem. Soc. 1998, 120, 8026-8034. [8] C. Timm, M. Köck, Synthesis 2006, 2580-2584.
Ziel der Studie: Die akute alkoholinduzierte Fettleber stellt das erste Stadium alkoholischer Leberer-krankungen dar. Bereits eine akute Alkoholintoxikation führt zu einer signifikanten Ak-kumulation von Fett in den Hepatozyten. Trotz verbesserter serologischer und bildge-bender Diagnoseverfahren ist die Leberbiopsie nach wie vor der Goldstandard zur Di-agnose einer Fettleber. Mögliche Komplikationen als invasives Verfahren, Stichproben-fehler sowie eine geringe Sensitivität im Bereich geringgradiger Verfettung sind die größten Nachteile der Leberbiopsie. Ziel dieser Studie war es, mit Hilfe der 1H-Magnetresonzspektroskopie eine akute alkoholinduzierte Fettleber zu diagnostizieren und quantitativ zu beurteilen. Um die Korrelation zwischen spektroskopisch gemesse-nem Leberfettgehalt und histologischer, biochemischer sowie laborchemischer Analyse zu bestimmen, wurde eine alkoholinduzierte Fettleber im Tiermodell verwendet.
Methodik: In 20 Lewis-Ratten wurde eine alkoholische Fettleber mittels gastraler Ethanol-Applikation induziert; 10 Ratten dienten als Kontrolle. Der intrahepatische Fettgehalt wurde mittels 1H-MRS (3.0 T) als prozentuales Verhältnis zwischen Lipid- und Was-ser-Peak berechnet. Fettgehalt sowie Triglyceride wurden nach Entnahme der Leber histologisch und biochemisch (nach FOLCH) bestimmt. Um spezifische Leberenzyme zu untersuchen, wurde Blut aus dem orbitalen Venenplexus entnommen.
Ergebnisse: In allen 20 Tieren konnte nach Ethanolapplikation eine Leberverfettung mittels 1H-MRS nachgewiesen werden. Histologisch zeigten 16 Tiere eine Fettleber. Ebenso zeigte sich nach Ethanolgabe und folgender biochemischer Analyse im Durschnitt eine Erhö-hung des Triglyceridgehalts, welcher einer Leberverfettung entsprach. Es fanden sich statistisch signifikante Korrelationen zwischen der histologisch bestimmten intrahepati-schen Verfettung und dem spektroskopisch gemessenen Fettgehalt (Pearson-Korrelationskoeffizient r = 0.90, p < 0.01) sowie zwischen der biochemischen Analyse nach FOLCH und 1H-MRS (r = 0.97, p < 0.01). Ebenso zeigte sich eine positive signifi-kante Korrelation zwischen spektroskopisch gemessener Leberverfettung und den Le-berparametern AST (r = 0.91, p < 0.05) und ALT (r = 0.84, p < 0.05).
Schlussfolgerung: Es konnte gezeigt werden, dass bereits geringgradige intrahepatische Verfettungen prä-zise quantitativ mittels 3.0 T-Protonen-MR-Spektroskopie darstellbar sind. Somit kann die Methode – bei Beachtung geeigneter Grenzwerte histologischer Messungen – als verlässliche diagnostische Alternative in Betracht gezogen werden. Bereits 48 Stunden nach Alkoholintoxikation ist mittels 1H-MRS eine exakte Differenzierung gesunder und pathologischer Lebern möglich – entscheidend vor allem im Rahmen einer Prätrans-plantationsdiagnostik bei Verdacht auf eine akute Fettleber. Darüber hinaus ist die 1H-MRS anderen bildgebenden Verfahren wie Ultraschall, CT und MRT in der genauen Quantifizierung intrahepatischen Fettgehalts überlegen. Der Einsatz erscheint auch in der Diagnostik und Verlaufskontrolle alkoholischer Lebererkrankungen in Zukunft sinnvoll. Kommende Untersuchung sollten an einem größeren Probandenkollektiv durchgeführt werden, um den Stellewert der 1H-MRS zu unterstreichen.
The Nodular lymphocyte-predominant Hodgkin lymphoma (NLPHL) as well as the T-cell/histiocyte-rich large B-cell lymphoma (THRLBCL) are rare types of malignant lymphomas. Both NLPHL and THRLBCL are frequently observed in middle-aged men with THRLBCL presenting frequently with an advanced Ann-Arbor stage with B-symptoms and associated with more aggressive courses.3 However, due to the limited number of tumor cells in the tissue of both NLPHL and THRLBCL, limited numbers of studies have been conducted on these lymphomas and current results are mainly based on general molecular genetic studies.
In order to obtain a better understanding for these disease forms as well as possible changes in their nuclear and cytoplasmatic sizes, the following study relied on the comparison of the different NLPHL forms and THRLBCL in terms of nuclear size and nuclear volume. This was carried out using both 2D and 3D analysis. During the 2D analysis of nuclear size and nuclear volume no significant differences could be presented between those groups. However, the 3D analysis of NLPHL and THRLBCL pointed out a slightly enlarged nuclear volume in THRLBCL. Furthermore, the analysis indicated a significantly increased cytoplasmatic size of THRLBCL compared to NLPHL forms. Nevertheless, differences occurred not only between the tumor cells of both disease forms, but also the T cells presented a larger nuclear volume in THRLBCL. B cells, which were considered as the control group, did not demonstrate any significant differences between the different groups. The presented results suggest an increased activity of T cells in THRLBCL, which is most likely to be interpreted as a response against the surrounding tumor cells and probably limits the proliferation of the tumor cells. Based on these results, the importance of 3D analysis is also evident due to the fact that it is clearly superior to 2D analysis. For a better understanding of both disease forms, it is therefore recommended to use the 3D technique in combination with molecular genetic analysis in future research.
Osteosynthesematerialien aus resorbierbaren Materialien finden aufgrund ihrer zunehmenden biomechanischen Stabilität eine immer höhere Akzeptanz. Die vorgelegte Untersuchung vergleicht die knöcherne und okklusale Stabilität von solchen Osteosynthesesystemen aus resorbierbaren Materialien im Vergleich mit konventionellen Titanminiplatten in der orthognathen Chirurgie. Untersucht wurden 100 Patienten in einem Nachsorgezeitraum von bis zu 4 Jahren. Die Beurteilung erfolgte klinisch und röntgenologisch anhand von Fernröntgen-Seiten-Aufnahmen. In die Studie gingen ein fünfzig Patienten, die mit resorbierbaren Platten versorgt worden waren, 16 davon mit Polylactid-Polyglycolid Copolymer Platten und 34 Patienten mit 70:30 Poly-L/DL-Lactid Copolymer Platten; fünfzig weitere Patienten, versorgt mit einem Titanminiplattensystem wurden als Kontrollgruppe gewertet. Zunächst konnte gezeigt werden, dass die Gruppen zueinander homogen waren, es unterschieden sich die effektiven intraoperativen Bewegungen von Studien und Kontrollgruppe statistisch nicht signifikant, gleiches galt im Vergleich der resorbierbaren Platten untereinander. Bei der Datenauswertung konnte nachgewiesen werden, dass die absolute und relative Instabilität weder zwischen den Studiengruppen noch der Kontrollgruppe noch zwischen den resorbierbaren Plattensystemen untereinander signifikant unterschiedlich war. Die postoperative 1-Jahres Stabilität unterschied sich dabei ebenfalls nicht signifikant von der 4-Jahres Stabilität. Alle untersuchten Osteosynthesesysteme zeigten im Oberkiefer eine höhere Stabilität als im Unterkiefer und gleichzeitig eine größere Stabilität in der anterior-posterioren Richtung als in der inferior-superioren Richtung. Es wurden keine signifikanten Unterschiede zwischen der klinischen Stabilität von PLGA oder P(L/DL)LA-Miniplatten gefunden. Allerdings konnte auch belegt werden, dass der Einsatz resorbierbarer Unterkieferosteosynthesen eine sehr gute Compliance des Patienten bezüglich geführter Okklusion und Nachsorge voraussetzte. Als nachteilig bei den resorbierbaren Systemen konnte sowohl für den Oberkiefer als auch für den Unterkiefer eine leicht erhöhte Mobilität bis zu 6 Wochen nach der Operation festgestellt werden, die jedoch in keinem Fall das operative Ergebnis beeinflusste. Vielmehr ermöglichten resorbierbare Osteosynthesen eine bessere postoperative okklusale Einstellung. Weiteren Nachteil der resorbierbaren Osteosynthesesysteme bedeuten die hohen Kosten, die heute noch weit über denen von Titanminiplatten liegen. Zukünftige Entwicklungen gehen dahin, das Plattendesign weiter zu optimieren, wie z.B. neuartige pinbasierte Fixationssysteme einzusetzen, wie sie in der Extremitätenchirurgie teils bereits benutzt werden. Fernziel für die Zukunft ist die Entwicklung eines resorbierbaren Osteosynthesesystems, das sich bei geringen Herstellungskosten und miniaturisiertem Plattendesign auch minimalinvasiv einbringen lässt.