Refine
Year of publication
- 2008 (2463) (remove)
Document Type
- Article (956)
- Doctoral Thesis (315)
- Part of Periodical (270)
- Book (262)
- Working Paper (137)
- Part of a Book (131)
- Review (129)
- Report (89)
- Conference Proceeding (59)
- Preprint (26)
Language
- German (1550)
- English (765)
- French (45)
- Croatian (42)
- Portuguese (35)
- Multiple languages (8)
- Italian (6)
- mis (4)
- Spanish (4)
- dut (2)
Is part of the Bibliography
- no (2463) (remove)
Keywords
- Deutsch (47)
- Filmmusik (42)
- Literatur (40)
- Rezension (40)
- Germanistik (31)
- Russland (29)
- Linguistik (25)
- Übersetzung (22)
- Jelinek, Elfriede (20)
- Theater (18)
Institute
- Medizin (234)
- Extern (207)
- Präsidium (129)
- Biochemie und Chemie (87)
- Biowissenschaften (71)
- Physik (64)
- Erziehungswissenschaften (62)
- Gesellschaftswissenschaften (61)
- Center for Financial Studies (CFS) (59)
- Geowissenschaften (52)
Introduction To investigate the predictive value of clinical and biological markers for a pathological complete remission after a preoperative dose-dense regimen of doxorubicin and docetaxel, with or without tamoxifen, in primary operable breast cancer. Methods Patients with a histologically confirmed diagnosis of previously untreated, operable, and measurable primary breast cancer (tumour (T), nodes (N) and metastases (M) score: T2-3(>= 3 cm) N0-2 M0) were treated in a prospectively randomised trial with four cycles of dose-dense (bi-weekly) doxorubicin and docetaxel (ddAT) chemotherapy, with or without tamoxifen, prior to surgery. Clinical and pathological parameters (menopausal status, clinical tumour size and nodal status, grade, and clinical response after two cycles) and a panel of biomarkers (oestrogen and progesterone receptors, Ki-67, human epidermal growth factor receptor 2 (HER2), p53, bcl-2, all detected by immunohistochemistry) were correlated with the detection of a pathological complete response (pCR). Results A pCR was observed in 9.7% in 248 patients randomised in the study and in 8.6% in the subset of 196 patients with available tumour tissue. Clinically negative axillary lymph nodes, poor tumour differentiation, negative oestrogen receptor status, negative progesterone receptor status, and loss of bcl-2 were significantly predictive for a pCR in a univariate logistic regression model, whereas in a multivariate analysis only the clinical nodal status and hormonal receptor status provided significantly independent information. Backward stepwise logistic regression revealed a response after two cycles, with hormone receptor status and lymph-node status as significant predictors. Patients with a low percentage of cells stained positive for Ki-67 showed a better response when treated with tamoxifen, whereas patients with a high percentage of Ki-67 positive cells did not have an additional benefit when treated with tamoxifen. Tumours overexpressing HER2 showed a similar response to that in HER2-negative patients when treated without tamoxifen, but when HER2-positive tumours were treated with tamoxifen, no pCR was observed. Conclusion Reliable prediction of a pathological complete response after preoperative chemotherapy is not possible with clinical and biological factors routinely determined before start of treatment. The response after two cycles of chemotherapy is a strong but dependent predictor. The only independent factor in this subset of patients was bcl-2. Trial registration number NCT00543829
Background This study was carried out to compare the HRQoL of patients in general practice with differing chronic diseases with the HRQoL of patients without chronic conditions, to evaluate the HRQoL of general practice patients in Germany compared with the HRQoL of the general population, and to explore the influence of different chronic diseases on patients HRQoL, independently of the effects of multiple confounding variables. Methods A cross-sectional questionnaire survey including the SF-36, the EQ-5D and demographic questions was conducted in 20 general practices in Germany. 1009 consecutive patients aged 15–89 participated. The SF-36 scale scores of general practice patients with differing chronic diseases were compared with those of patients without chronic conditions. Differences in the SF-36 scale/summary scores and proportions in the EQ-5D dimensions between patients and the general population were analyzed. Independent effects of chronic conditions and demographic variables on the HRQoL were analyzed using multivariable linear regression and polynomial regression models. Results The HRQoL for general practice patients with differing chronic diseases tended to show more physical than mental health impairments compared with the reference group of patients without. Patients in general practice in Germany had considerably lower SF-36 scores than the general population (P < 0.001 for all) and showed significantly higher proportions of problems in all EQ-5D dimensions except for the self-care dimension (P < 0.001 for all). The mean EQ VAS for general practice patients was lower than that for the general population (69.2 versus 77.4, P < 0.001). The HRQoL for general practice patients in Germany seemed to be more strongly affected by diseases like depression, back pain, OA of the knee, and cancer than by hypertension and diabetes. Conclusion General practice patients with differing chronic diseases in Germany had impaired quality of life, especially in terms of physical health. The independent impacts on the HRQoL were different depending on the type of chronic disease. Findings from this study might help health professionals to concern more influential diseases in primary care from the patient´s perspective.
Background: This article reports on the relationship between cultural influences on life style, coping style, and sleep in a sample of female Portuguese immigrants living in Germany. Sleep quality is known to be poorer in women than in men, yet little is known about mediating psychological and sociological variables such as stress and coping with stressful life circumstances. Migration constitutes a particularly difficult life circumstance for women if it involves differing role conceptions in the country of origin and the emigrant country.
Methods: The study investigated sleep quality, coping styles and level of integration in a sample of Portuguese (N = 48) and Moroccan (N = 64) immigrant women who took part in a structured personal interview.
Results: Sleep quality was poor in 54% of Portuguese and 39% of Moroccan women, which strongly exceeds reports of sleep complaints in epidemiologic studies of sleep quality in German women. Reports of poor sleep were associated with the degree of adoption of a German life style. Women who had integrated more into German society slept worse than less integrated women in both samples, suggesting that non-integration serves a protective function. An unusually large proportion of women preferred an information-seeking (monitoring) coping style and adaptive coping. Poor sleep was related to high monitoring in the Portuguese but not the Moroccan sample.
Conclusion: Sleep quality appears to be severely affected in women with a migration background. Our data suggest that non-integration may be less stressful than integration. This result points to possible benefits of non-integration. The high preference for an information-seeking coping style may be related to the process of migration, representing the attempt at regaining control over an uncontrollable and stressful life situation.
In this paper we compare the distribution of PPs introducing external arguments in nominalizations with PPs introducing external arguments in the verbal domain. We show that several mismatches exist between the behavior of PPs in nominalizations and PPs in the verbal domain. This leads us to suggest that while PPs in the verbal domain are licensed by functional structure alone, within the nominal domain, PPs can also be licensed via an interplay of the encyclopaedic meaning of the root involved and the properties of the preposition itself. This second mechanism kicks in in the absence of functional structure.
Structuring participles
(2008)
In this paper we discuss three types of adjectival participles in Greek, ending in -tos and –menos, and provide a further argument for the view that finer distinctions are necessary in the domain of participles (Kratzer 2001, Embick 2004). We further compare Greek stative participles to their German (and English) counterparts. We propose that a number of semantic as well as syntactic differences shown by these derive from differences in their respective morpho-syntactic composition.
In this paper we investigate the distribution of PPs related to external arguments (agent, causer, instrument, causing event) in Greek. We argue that their distribution supports an analysis, according to which agentive/instrument and causer PPs are licensed by distinct functional heads, respectively. We argue against a conceivable alternative analysis, which links agentivity and causation to the prepositions themselves. We furthermore identify a particular type of Voice head in Greek anticausative realised by non-active Voice morphology.
On the role of syntactic locality in morphological processes : the case of (Greek) derived nominals
(2008)
The paper is structured as follows. In section 2, I briefly summarize the facts on English and Greek nominalizations. In section 3, I discuss English nominal derivation in some detail. In section 4, I turn to the question of licensing of AS in nominals. In section 5, I turn to the issue of the optionality of licensing of AS in the nominal system.
This paper deals with the variable position of adjectives in the Romanian DP. As all other Romance languages, Romanian allows for adjectives to appear in both prenominal and post-nominal position. In addition, however, Romanian has a third pattern: the so-called cel construction, in which the adjective in the post-nominal position is preceded by a determiner-like element, cel. This pattern is superficially similar to Determiner Spreading in Greek. In this paper we contrast the cel construction to Greek DS and discuss the similarities and differences between the two. We then present an analysis of cel as involving an appositive specification clause, building on de Vries (2002). We argue that the same structure is also involved in the context of nominal ellipsis, the second environment in which cel is found.
Ein universeller zentraler Grenzwertsatz für den Abstand zweier Kugeln in zufälligen Splitbäumen
(2008)
In der vorliegenden Arbeit wird ein Modell des zufälligen Splitbaumes untersucht. Dies ist ein verallgemeinertes Modell, das bei passender Wahl der zugehörigenParameter viele konkrete Suchbäume umfasst. Das Modell ist in der Arbeit von L. Devroye beschrieben: Nach einem zufallsbasierten Algorithmus werden den Knoten des Baumes Daten in Form von Kugeln hinzugefügt. Tiefe und Höhe sind dabei grundlegende Größen, die die Komplexität von Suchoperationen beschreiben, wenn das Suchbaummodell als Datenstruktur verwendet wird. Das Augenmerk der Arbeit richtet sich auf eine weitere entscheidende Größe: Den Abstand zweier rein zufällig gewählter Kugeln im Baum. Aufbauend auf Devroyes Erkenntnissen zum asymptotischen Verhalten der Tiefe der zuletzt eingefügten Kugel im Splitbaum, wird ein neues Resultat erzielt: Ein universeller Zentraler Grenzwertsatz für den Abstand der Kugeln. Als Anwendungsbeispiel werden zwei vom allgemeinen Modell abgedeckte Suchbäume betrachtet und der jeweilige Grenzwertsatz für die Abstände aus dem universellen Satz abgeleitet.
Von 560 in Deutschland nachgewiesenen Arten wurden 555 Arten einer Bewertung unterzogen. Danach sind 289 Arten (52 %) bestandsgefährdet. 227 Arten wurden einer Gefährdungskategorie zugeordnet: 25 Arten zu Kategorie 1 ("vom Aussterben bedroht"), 81 Arten zu Kategorie 2 ("stark gefährdet"), 88 Arten zu Kategorie 3 ("gefährdet"), 33 Arten zu Kategorie G ("Gefährdung unbekannten Ausmaßes"); 24 Arten gelten als "extrem selten" (R) und 43 Arten wurden in die Vorwarnliste (V) aufgenommen. Für 17 Arten sind die "Daten unzureichend" (D) für eine Einstufung. Im Vergleich mit der Fassung von 1998 hat der prozentuale Anteil der in die Rote Liste aufgenommenen Arten nicht abgenommen. Nur 37 % der Arten gelten als derzeit nicht gefährdet. Veränderungen zeigen sich vor allem in unterschiedlichen Einstufungen der Arten. Dies ist teilweise durch die andere Einschätzung der Bestandessituation bedingt, teilweise auch durch die neue Vorgehensweise und Anwendung des vorgegebenen Einstufungsschemas. Bei 59 Arten ergab sich eine im Vergleich zu 1998 günstigere Bestandessituation, 36 Arten finden sich nun in einer höheren Kategorie, weil sich ihre Situation schlechter darstellt als vor 10 Jahren. Hauptursache für den gravierenden Rückgang vieler Arten ist die industrielle Landwirtschaft und der damit einhergehende Verlust artspezfischer Nahrungsquellen und Nistplätze.
Es werden ontologische Antinomien, semantische Antinomien und die Sätze von Tarski, Gödel, Rosser und Church miteinander verglichen. Der Vergleich verläuft in zwei Schritten: Abstrakte Formulierungen der Sätze von Tarski, Gödel, Rosser und Church ermöglichen eine direkte Gegenüberstellung mit der Lügner-Antinomie und der Antinomie von Grelling. Der Beweis des Unvollständigkeitssatzes wird dabei mit und ohne Verwendung des Fixpunktsatzes betrachtet und die Rolle des Fixpunktsatzes analysiert. Parallel zur Antinomie von Richard werden abstrakte Sätze für Terme anstelle von Formeln gebildet. Hieraus erhält man wiederum einen Unvollständigkeitssatz. Im zweiten Schritt werden ontologische und semantische Antinomien gegenübergestellt. Es wird der Begriff einer Diagonalstruktur entwickelt, auf den beide Antinomietypen bezogen werden. Im Fall von ontologischen Antinomien werden die Antinomien von Cantor, Russell und Burali-Forti behandelt.
Pulsed electron-electron double resonance (PELDOR) is a well established method concerning nanometer distance measurements involving two nitroxide spin-labels. In this thesis the applicability of this method to count the number of spins is tested. Furthermore, this work explored the limits, up to which PELDOR data obtained on copper(II)-nitroxide complexes can be quantitatively interpreted. Spin counting provides access to oligomerization studies – monitoring the assembly of homo- or hetero-oligomers from singly labeled compounds. The experimental calibration was performed using model systems, which contain one to four nitroxide radicals. The results show that monomers, dimers, trimers, and tetramers can be distinguished within an error of 5% in the number of spins. Moreover, a detailed analysis of the distance distributions in model complexes revealed that more than one distance can be extracted from complexes bearing several spins, as for example three different distances were resolved in a model tetramer – the other three possible distances being symmetry related. Furthermore, systems exhibiting mixtures of oligomeric states complicate the analysis of the data, because the average number of spin centers contributes nonlinearly to the signal and different relaxation behavior of the oligomers has to be treated explicitly. Experiments solving these problems are proposed in the thesis. Thus, for the first time spin counting has been experimentally calibrated using fully characterized test systems bearing up to four spins. Moreover, the behavior of mixtures was quantitatively interpreted. In addition, it has been shown that several spin-spin distances within a molecule can be extracted from a single dataset. In the second part of the thesis PELDOR experiments on a spin-labeled copper(II)-porphyrin have been quantitatively analyzed. Metal-nitroxide distance measurements are a valuable tool for the triangulation of paramagnetic metal ions. Therefore, X-band PELDOR experiments at different frequencies have been performed. The data exhibits only weak orientation selection, but a fast damping of the oscillation. The experimental data has been interpreted based upon quantitative simulations. The influence of orientation selection, conformational flexibility, spin-density distribution, exchange interaction J, as well as anisotropy and strains of the g-tensor has been examined. An estimate of the spin-density delocalization has been obtained by density functional theory calculations. The dipolar interaction tensor was calculated from the point-charge model, the extension of the point-dipole approximation to several spin bearing centers. Even assuming asymmetric spin distributions induced by an ensemble of asymmetrically distorted porphyrins the effect of delocalization on the PELDOR time trace is weak. The observed damping of dipolar oscillations has been only reproduced by simulations, if a small distribution in J was assumed. It has been shown that the experimental damping of dipolar modulations is not solely due to conformational heterogeneity. In conclusion the quantitative interpretation of PELDOR data is extended to copper-nitroxide- and multi-spin-systems. The influence of the mean distance, of the number of coupled spins, of the conformational flexibility, of spin-density distribution and of the electronic structure of the spin centers has been analyzed using model systems. The insights on model compounds mimicking spin-labeled biomacromolecules – in oligomeric or metal bound states – calibrate the method with respect to the information that can be deduced from the experimental data. The resulting in-depth understanding allows correlating experimental results (from for example biological systems) with models of structure and dynamics. It also opens new fields for PELDOR as for example triangulation of metal centers and oligomerization studies. In general, this thesis has demonstrated that modern pulsed electron paramagnetic resonance techniques in combination with quantitative data analysis can contribute to a detailed insight into molecular structure and dynamics.
Emotionen in der Ökonomie
(2008)
Bisherige ökonomische Modelle erklären das Zustandekommen von Handlungen primär durch den Wunsch, mit möglichst geringem Aufwand vorgegebene Ziele bzw. Absichten zu realisieren, also durch Unterstellung eines bestimmten Typs von Rationalität, nämlich ökonomischer Zweckrationalität. Lassen sich Handlungen nicht mehr alleine durch die Voraussetzung dieser Art von Rationalität bei den Handelnden erklären, werden sie als Ausnahmen oder Anomalien betrachtet. Bei vielen dieser Anomalien lassen sich emotionale Einflüsse vermuten. Gelänge es nun, diese emotionalen Einflüsse für das Zustandkommen von Handlungen näher zu bestimmen, könnten ökonomische Modelle in ihrer Reichweite und Aussagekraft beim Erklären von Handlungen verbessert werden. Deshalb lautet meine Hauptfragestellung: inwieweit bestimmen Emotionen unser wirtschaftliches Handeln? An welchen Stellen und auf welche Weise spielen sie bei zweckrationalen Entscheidungen eine Rolle? Zweckrationalität besteht darin, effektive Mittel für bestimmte Ziele zu benennen. Voraussetzung dafür ist es, Ziele zu haben. Deshalb wird eine zweite Frage lauten: wie können Emotionen die teleologische Gerichtetheit, die Ziele oder Zwecke unserer zweckrationalen Handlungen bestimmen oder mitbestimmen? Diese Frage spielt vor allem auf unsere Motivation an: würden wir mit bestimmten Zielen keine Emotionen verbinden, würden uns viele Handlungen sinnlos erscheinen. Emotionen sorgen für die Ziele, die dann mittels Zweckrationalität in Angriff genommen werden können. Eine Frage betrachtet den umgekehrten Fall: Lassen sich Emotionen instrumentalisieren, indem bestimmte Emotionen manipuliert oder modifiziert werden, um bestimmte Ziele zu erreichen? Schlussendlich bleiben noch die Kosten (Zeit, Mühe, Aufwendungen, psychischer und monetärer Art) einer solchen Investition zu erwägen. ...
Das Assignment Problem ist ein bekanntes kombinatorisches Optimierungsproblem, bei dem es darum geht, in einem gewichteten bipartiten Graphen ein Matching mit minimalem Gewicht zu finden. In dieser Arbeit sind die Kantengewichte exponentialverteilt zu speziell gewählten Raten. Damit sind Erwartungswert und Varianz des minimalen Gewichts von besonderem Interesse. Zunächst wird ein Beweis der Parisi Formel und der Coppersmith-Sorkin Formel erläutert. Die Formeln beschreiben den Erwartungswert des minimalen Gewichts im Fall, dass die Raten alle dem Wert 1 entsprechen. Im zweiten Teil wird die Herleitung einer expliziten Formel zur Berechnung der Varianz des zufälligen minimalen Gewichts erklärt, wobei die Raten immer noch mit 1 übereinstimmen. Gleichzeitig wird eine Formel für die höheren Momente geliefert, aus der die Parisi Formel und Coppersmith-Sorkin Formel aus dem ersten Teil folgen und die sogar das bisherige Modell bezüglich der Parameter erweitert. Schließlich kann man das Ergebnis des zweiten Teils zur Beschreibung des asymptotischen Verhaltens der Varianz benutzen.
Extracts of Boswellia serrata, also known as Indian frankincense, have been used to treat inflammatory diseases in the Indian ayurvedic medicine or Chinese traditional medicine (TCM) for over 3000 years, but the molecular mechanisms of the anti-inflammatory effects are still not well understood. It is obvious that the boswellic acids, the major compounds in the extracts, are responsible for the efficacy. This work employed a protein fishing technique to identify putative targets of boswellic acids at different stages within the inflammatory cascade. For fishing experiments, boswellic acids were immobilized to sepharose and incubated with cell lysates. After washing and boiling, fished proteins were separated by SDS-PAGE and analysed by MALDI-TOF-MS. CatG, DNA-PK and the protein kinase Akt were identified by protein pulldowns with immobilised BAs and characterised as selective and important targets for BAs with an IC50 in the range of physiologically achievable plasma levels up to 5 microM. In addition, the influence on several signal transductions by BAs was tested. Calcium influx, arachidonic acid release, platelet aggregation and TNFalpha-release were assayed to reveal further pharmacological effects of BAs. Celecoxib is a well-known selective COX-2 inhibitor that is in clinical use. In this work, it is demonstrated that celecoxib is also a highly potent direct 5-LO inhibitor. Celecoxib is used in arthritis and its gastro-intestinal side effects are reduced compared to non-selective NSAIDs. In patients with a familiar disposition to polyp forming, celecoxib reduced polyps and the incidence of colon cancer. Because of lowered leukotriene levels in patients under celecoxib therapy it was plausible to test whether celecoxib interferes with 5-LO. Here it is shown that the activity of 5-LO is inhibited in PMNL and cell-free assays with IC50 of 8 microM in intact cells, 20 microM with supplemented arachidonic acid and 30 microM in cell-free systems. Thus, celecoxib is a dual inhibitor of COX-2 and 5-LO. Since 2006, celecoxib has been approved as an orphan drug for the treatment of familial adenomatous polyposis. Aside from this indication, it could be useful for treatment of asthma and other diseases where 5-LO is implicated.
Der kubanische Schriftsteller Leonardo Padura Fuentes, Autor des Krimi-Quartetts Los cuatro estaciones, versucht in jedem seiner Romane ein Kuba zu zeichnen, wie er es wahrnimmt. Hierfür bediente sich Padura bisher des Genres des Kriminalromans und kreierte damit ein für seine Texte typisches Schema, das in der Figur des Mario Conde Ausdruck findet. Eine meiner Absichten ist es nun herauszufinden, ob Padura dieses Muster auch als Grundlage für seinen ambitionierten Roman La novela de mi vida genommen hat. Spricht der Schriftsteller auch in diesem Roman von einem Kuba, wie er es wahrnimmt? Wie viel ist von Kuba zu sehen und welche Facetten der vielseitigen Insel sind im Roman skizziert worden? Trifft man auf das Kuba, das hier bisher unter anderem mit den Worten Éduardo Manets beschrieben wurde? Gibt dieser Text Antworten auf die Fragen, die ich mir stelle? Kann man aus dem Werk heraus die kubanische Kultur und Identität begreifen und wenn ja, in welchem Ausmaß? Zwar werde ich versuchen mit Hilfe des Romans Antworten zu finden, doch es bedarf mehr als nur der Betrachtung eines literarischen Werks, um solch komplexen Begriffen, wie denen der kubanischen Kultur und Identität eine Definition oder Beschreibung abzuringen. Es ist wichtig, nicht nur den Text an sich zu betrachten, sondern sich auch den Hintergründen zu widmen. Die ersten drei Kapitel dienen daher als Basis, von der zur Analyse des Romans übergegangen werden kann. Zu Beginn wird Kuba als geographischer Ort mitsamt dem kulturhistorischen Hintergrund eingeführt. Es wird sowohl eine räumliche Situierung als auch eine Beschreibung der sozialen Strukturen des Landes und der Geschichte Kubas vorgenommen, soweit es für die Analyse von La novela de mi vida nötig ist. Der historische Teil wird ein wenig mehr Raum einnehmen, da nicht nur wichtige Ereignisse der Vergangenheit aufgelistet werden sollen, sondern die Entwicklung nachvollzogen werden soll, um zu den Wurzeln Kubas, seiner Kultur und Identität zu gelangen. Der erste Grundpfeiler dieser Arbeit wird mit einer Art Bestandsaufnahme über die Herausbildung der kubanischen Identität abgeschlossen. Der zweite wichtige Strang ist die Beleuchtung des Diskurses über Hybridität und hybride Identität. Die an dieser Stelle vorgestellten Theorien sollen im Kapitel der Analyse auf ihre Anwendbarkeit hin untersucht werden. Dafür wird zunächst ein Überblick über die Entwicklung des Diskurses und die Weiterentwicklung der Terminologie gegeben, die Fernando Ortiz durch sein Werk Contrapunteo al tabaco y azúcar geprägt hat. Anschließend werden die Konzepte und Theorien von Homi K. Bhabha, Édouard Glissant und Néstor García Canclini vorgestellt und zum Abschluss vergleichend resümiert. Der dritte Grundpfeiler beinhaltet erstens die Vorstellung des Autors Leonardo Padura, zweitens die inhaltliche Betrachtung in Form einer Zusammenfassung und drittens die Formanalyse des Werks. Das fünfte zentrale Kapitel der Arbeit soll unter Rückbezug auf die drei Grund-pfeiler klären, wie der Roman funktioniert. Das bedeutet, dass festgestellt werden soll, was La novela de mi vida an kulturellen Elementen und Werten vermittelt. Die Hauptfrage, auf die eine Antwort gesucht wird, ist, wie Kuba in der kubanischen Literatur dargestellt wird. Die in den einführenden Kapiteln vorgestellte kubanische Realität wird in der Analyse der Fiktion gegenüber-gestellt. Wie stellt sich die ethnische Beschaffenheit der fiktionalen im Vergleich zur realen Gesellschaft dar? Und wie viel Historizität findet sich im Roman wieder? Wie wird Kuba aus landschaftlicher und geographischer Perspektive in der Literatur wiedergegeben? Trifft man in La novela de mi vida auf eine Idylle oder werden auch soziale Probleme berücksichtigt? Und wie steht es um das kubanische Thema, das Exil? All diese Fragen werden in diesem ersten Teil der Analyse bearbeitet, bevor in einem zweiten Schritt herausgestellt wird, inwieweit die Konzepte der eingeführten Wissenschaftler anwendbar sind. Jede der drei ausgewählten Theorien wird dem Roman gegenübergestellt, um eine Antwort darauf zu erhalten, wie auf Kuba mit der Mischung verschiedendster Elemente umgegangen wird und inwieweit sich auch die kubanische Identität als hybrid beschreiben lässt. Es wird an dieser Stelle auch der Frage nachgegangen, ob die Homogenisierungspolitik der Insel in der Realität weiterhin funktionstüchtig ist. Außerdem wird es um Literatur als einer Komponente der Kulturvermittlung gehen. Welchen Anteil hat Literatur an der Mediation kultureller Werte und Güter? Und welche Bedeutung hat die Literatur mit ihren Instrumenten für Leonardo Paduras La novela de mi vida?
Seitdem die Junggrammatiker den Begriff des Lautgesetzes geprägt haben, sind deren fast ebenso viele aufgestellt wie in der Folge hinterfragt, widerlegt und vielleicht am Ende sogar doch wieder erfolgreich verteidigt worden. Jedes Lautgesetz wirkt in einem unterschiedlichen Zeitraum. Ist aus dem Zeitraum des Wirkens mehrerer zeitlich benachbarter oder gar einander zeitlich überlappender Lautgesetze ein ausreichend großes Textkorpus erhalten, so ist es ein Leichtes, die Reihenfolge des Wirkens der Gesetze zu ermitteln, oder, im günstigsten Fall, den Zeitraum ihres Wirkens sogar mit gewisser Präzision datieren zu können. Anders verhält es sich hingegen, wenn schriftliche Überlieferungen der untersuchten Sprache in der entscheidenden Epoche nur spärlich oder gar nicht vorliegen. Hier muss daher traditionell darauf zurückgegriffen werden, die Reihenfolge anhand der allein möglichen Entwicklung einzelner Wörter, auf die besonders viele der betreffenden Lautgesetze gewirkt haben, zu bestimmen. Diese Methode birgt jedoch die Gefahr menschlicher Fehler, insbesondere in Fällen, in denen eine klare Reihenfolge nur unter Betrachtung mehrerer Wörter zu ermitteln ist. Die Forscher vergangener Jahrzehnte und Jahrhunderte hatten hier allerdings keine andere Wahl. Mit den heute verfügbaren Computern eröffnen sich jedoch ungeahnte Möglichkeiten. Zuvor in Programmiersprache umgeschriebene Lautgesetze können in Sekundenschnelle auf immense Textkorpora angewandt werden. Um aber – ohne jegliche Zuhilfenahme außersprachlichen Wissens – die eine oder mehrere mögliche Reihenfolgen verschiedener Lautgesetze zu bestimmen, ist es nötig, sämtliche Möglichkeiten anhand eines Wortkorpus durchzuspielen und die jeweiligen Ergebnisse mit den tatsächlichen, vorliegenden Ergebnissen zu vergleichen. Dieser Versuch soll im Folgenden unternommen werden. Auf diese Weise könnten dann relative Chronologien von Lautgesetzen, die als längst etabliert gelten, noch einmal auf den Prüfstand gestellt und möglicherweise sogar noch präzisiert werden. Nach einer kurzen Begriffsgeschichte des Lautgesetzes soll zunächst auf sprachliche Problemstellungen eingegangen werden, die das Vorhaben erschweren, bevor die Auswahl zweier den Untersuchungszeitraum begrenzender Sprachstufen sowie eine Beschreibung des Datenmaterials – Wortkorpus und Lautgesetze – folgen. Nun soll das Computerprogramm, von den Anforderungen bis hin zur Umsetzung, erläutert werden. Anschließen soll sich hieran eine Darstellung der Erkenntnisse, die die Ergebnisse des Programms gewähren. Im Schlussteil sollen die offen gebliebenen und die neu entstandenen Fragen noch einmal zusammengefasst und Möglichkeiten zur hierauf basierenden weitergehenden Forschung erörtert werden.
A graph theoretical approach to the analysis, comparison, and enumeration of crystal structures
(2008)
As an alternative approach to lattices and space groups, this work explores graph theory as a means to model crystal structures. The approach uses quotient graphs and nets - the graph theoretical equivalent of cells and lattices - to represent crystal structures. After a short review of related work, new classes of cycles in nets are introduced and their ability to distinguish between non-isomorphic nets and their computational complexity are evaluated. Then, two methods to estimate a structure’s density from the corresponding net are proposed. The first uses coordination sequences to estimate the number of nodes in a sphere, whereas the second method determines the maximal volume of a unit cell. Based on the quotient graph only, methods are proposed to determine whether nets consist of islands, chains, planes, or penetrating, disconnected sub-nets. An algorithm for the enumeration of crystal structures is revised and extended to a search for structures possessing certain properties. Particular attention is given to the exclusion of redundant nets and those, which, by the nature of their connectivity, cannot correspond to a crystal structure. Nets with four four-coordinated nodes, corresponding to sp3 hybridised carbon polymorphs with four atoms per unit cell, are completely enumerated in order to demonstrate the approach. In order to render quotient graphs and nets independent from crystal structures, they are reintroduced in a purely graph-theoretical way. Based on this, the issue of iso- and automorphism of nets is reexamined. It is shown that the topology of a net (that is the bonds in a crystal) constrains severely the symmetry of the embedding (that is the crystal), and in the case of connected nets the space group except for the setting. Several examples are studied and conclusions on phases are drawn (pseudo-cubic FeS2 versus pyrite; α- versus β- quartz; marcasite- versus rutile-like phases). As the automorphisms of certain quotient graphs stipulate a translational symmetry higher than an arbitrary embedding of the corresponding net would show, they are examined in more detail and a method to reduce the size of such quotient graphs is proposed. Besides two instructional examples with 2-dimensional graphs, the halite, calcite, magnesite, barytocalcite, and a strontium feldspar structures are discussed. For some of the structures it is shown that the quotient graph which is equivalent to a centred cell is reduced to a quotient graph equivalent to the primitive cell. For the partially disordered strontium feldspar, it is shown that even if it could be annealed to an ordered structure, the unit cell would likely remain unchanged. For the calcite and barytocalcite structures it is shown that the equivalent nets are not isomorphic.
Eine große Anzahl pharmakologischer und klinischer Studien zeigt die Wirksamkeit des standardisierten Ginkgo biloba Extraktes EGb 761 bei vaskulären und kognitiven Stö-rungen, wie der Alzheimer-Krankheit, der vaskulären Demenz und der peripheren arte-riellen Verschlusskrankheit. Experimentelle Ergebnisse weisen darauf hin, dass Terpen-laktone und Flavonolglykoside für die meisten pharmakologischen Wirkungen von EGb 761 verantwortlich sind. Allerdings gibt es wenige Studien, die die orale Biover-fügbarkeit von Terpenlaktonen und besonders von Flavonolglykosiden aus Ginkgo bilo-ba im Blut oder Zentralnervensystem untersuchten. Deshalb wurde in dieser Arbeit die Fähigkeit der Flavonoidglykosiden bzw. deren Metaboliten die Blut-Hirn-Schranke zu überwinden im Tierversuch an männlichen Sprague-Dawley-Ratten erforscht. Unter-sucht wurden dabei orale Einfach- und Mehrfachgaben von EGb 761 über einen Zeit-raum von 8 Tagen in den Dosierungen 100 bzw. 600 mg Extrakt pro kg Körpergewicht. Zusätzlich wurde die Verteilung der Ginkgoflavonolmetabolite in den unterschiedlichen Bereichen des Gehirns untersucht (Hippocampus, frontaler Cortex, Striatum und Klein-hirn). Zu diesem Zweck wurde eine HPLC-Fluoreszenzmethode für die Ermittlung der Plasma- und Gehirnkonzentrationen der Flavonoidmetaboliten (Derivate von Quercetin, Kämpferol und Isorhamnetin) entwickelt und validiert. In beiden Studien (Einfach- und Mehrfachgabe) wurden Flavonoidmetaboliten im Plasma und im Gehirn nachgewiesen. Dabei wurden Metaboliten in allen untersuchten Gehirnbereichen gefunden. Bei der Dosierung von 100 mg/kg war Kämpferol vorzugsweise im frontalen Cortex lokalisiert, während die anderen Flavonole in allen Regionen vergleichbare Konzentrationen auf-wiesen. Bei der höheren Dosierung von 600 mg/kg waren die Konzentrationen der Fla-vonolmetaboliten in allen Gehirnbereichen vergleichbar. Obgleich die vier untersuchten Gehirnbereiche nur 38% des gesamten Gehirns darstellten, wurden die meisten Gink-goflavonole in diesen Regionen gefunden. Im übrigen Gehirngewebe wurden nur be-grenzte Mengen von Flavonolen nachgewiesen. Zusammenfassend kann festgehalten werden, dass es erstmalig gelungen ist, im Tier-versuch die Bioverfügbarkeit einer der therapeutisch aktiven Substanzklassen von Ginkgo biloba - die Flavonoide - sowohl im Plasma als auch im ZNS nachzuweisen.
In this work data of the NA49 experiment at CERN SPS on the energy dependence of multiplicity fluctuations in central Pb+Pb collisions at 20A, 30A, 40A, 80A and 158A GeV, as well as the system size dependence at 158A GeV, is analysed for positively, negatively and all charged hadrons. Furthermore the rapidity and transverse momentum dependence of multiplicity fluctuations are studied. The experimental results are compared to predictions of statistical hadron-gas and string-hadronic models. It is expected that multiplicity fluctuations are sensitive to the phase transition to quark-gluon-plasma (QGP) and to the critical point of strongly interacting matter. It is predicted that both the onset of deconfinement, the lowest energy where QGP is created, and the critical point are located in the SPS energy range. Furthermore, the predictions for the multiplicity fluctuations of statistical and string-hadronic models are different, the experimental data might allow to distinguish between them. The used measure of multiplicity fluctuations is the scaled variance omega, defined as the ratio of the variance and the mean of the multiplicity distribution. In the NA49 experiment the tracks of charged particles are detected in four large volume time projection chambers (TPCs). In order to remove possible detector effects a detailed study of event and track selection criteria is performed. Naively one would expect Poisson fluctuations in central heavy ion collisions. A suppression of fluctuations compared to a Poisson distribution is observed for positively and negatively charged hadrons at forward rapidity in Pb+Pb collisions. At midrapidity and for all charged hadrons the fluctuations are larger than the Poisson ones. The fluctuations seem to increase with decreasing system size. It is suggested that this is due to increased relative fluctuations in the number of participants. Furthermore, it was discovered that omega increases for decreasing rapidity and transverse momentum. A hadron-gas model predicts different values of omega for different statistical ensembles. In the grand-canonical ensemble, where all conservation laws are fulfilled only on the average, not on an event-by-event basis, the predicted fluctuations are the largest ones. In the canonical ensemble the charges, namely the electrical charge, the baryon number and the strangeness, are conserved for each event. The scaled variance in this ensemble is smaller than for the grand-canonical ensemble. In the micro-canonical ensemble not only the charges, but also the energy and the momentum are conserved in each event, the predicted $omega$ is the smallest one. The grand-canonical and canonical formulations of the hadron-gas model over-predict fluctuations in the forward acceptance. In contrast to the experimental data no dependence of omega on rapidity and transverse momentum is expected. For the micro-canonical formulation, which predicts small fluctuations in the total phase space, no quantitative calculation is available yet for the limited experimental acceptance. The increase of fluctuations for low rapidities and transverse momenta can be qualitatively understood in a micro-canonical ensemble as an effect of energy and momentum conservation. The string-hadronic model UrQMD significantly over-predicts the mean multiplicities but approximately reproduces the scaled variance of the multiplicity distributions at all measured collision energies, systems and phase-space intervals. String-hadronic models predict for Pb+Pb collisions a monotonous increase of omega with collision energy, similar to the observations for p+p interactions. This is in contrast to the predictions of the hadron-gas model, where omega shows no energy dependence at higher energies. At SPS energies the predictions of the string-hadronic and hadron-gas models are in the same order of magnitude, but at RHIC and LHC energies the difference in omega in the full phase space is much larger. Experimental data should be able to distinguish between them rather easily. Narrower than Poissonian (omega < 1) multiplicity fluctuations measured in the forward kinematic region (1<y(pi)<y_{beam}) can be related to the reduced fluctuations predicted for relativistic gases with imposed conservation laws. This general feature of relativistic gases may be preserved also for some non-equilibrium systems as modeled by the string-hadronic approaches. A quantitative estimate shows that the predicted maximum in fluctuations due to a first order phase transition from hadron-gas to QGP is smaller than the experimental errors of the present experiment and can therefore neither be confirmed nor disproved. No sign of increased fluctuations as expected for a freeze-out near the critical point of strongly interacting matter is observed.
In the first part of this study, we have identified the two steroid hormones progesterone and norgestimate as novel TRPC channel blockers. Both substances blocked TRPC-mediated Ca2+ influx with micromolar activities in fluorometric measurements. TRPC channel inhibition did not seem to be a general steroid effect since another progestin, the norgestimate metabolite levonorgestrel, was not effective. Norgestimate was 4- to 5-fold more active on the TRPC3/6/7 subfamily compared to TRPC4/5, whereas progesterone was similarly potent. This selectivity of norgestimate was confirmed by patch clamp recordings. As norgestimate blocked channels directly gated by DAG with a fast kinetic, we assume the compound acts on the channel protein itself. This view was further substantiated by the lack of effects on IP3R-mediated Ca2+ release from the endoplasmic reticulum, which is activated in parallel with TRPCs by Gq/11-coupled receptor stimulation. Norgestimate did not only block ectopically expressed TRPC channels but also native, TRPC-mediated currents in rat aortic smooth muscle cells with similar activity. The usefulness of norgestimate as a tool compound for the investigation of physiological TRPC functions was tested in isolated vessel rings. Consistent with TRPC6 being an essential component of the alpha-1-adrenoceptor-activated cation channel, we demonstrated a direct vasorelaxant, endothelium-independent effect of norgestimate on rat aortic rings precontracted with phenylephrine. Thus, our results provide further experimental support for a role of TRPC6 in alpha-1-adrenergic vessel constriction. In the second part of this study, we screened a human aorta cDNA-library for novel TRPC4-interacting proteins with a modified yeast two-hybrid (Y2H) system in which the TRPC4-C-terminus was expressed as tetrameric bait protein, thereby mimicking the native channel conformation. Of the eleven interacting proteins found SESTD1 was chosen for further analyses since it contains a phospholipid-binding Sec14p-like domain and thus could be involved in regulation of TRPC channels by phospholipids. After the biochemical validation of the found interaction, the first spectrin domain of SESTD1 was then identified to interact with the CIRB domain of TRPC4 in directed Y2H tests. SESTD1 also co-immunoprecipitated with the closely related TRPC5 protein in which the SESTD1-binding domain is highly conserved. Independent of the CIRB site, co-immunoprecipitation with TRPC6 and the distantly related TRPM8 channel was observed indicating the existence of other sites in these channel proteins that mediate interaction with SESTD1. Analysis of SESTD1 gene expression in human tissues showed that its transcripts are ubiquitously expressed and tissues with significant coexpression with TRPC4 and -5 were identified. We have generated two polyclonal antisera directed against SESTD1 that consistently detected SESTD1 protein in brain, aorta, heart, and in smooth muscle and endothelial cells. The functional consequences of the found interaction were investigated by examination of the TRPC5-mediated Ca2+ influx in a clonal HM1 cell line stably expressing the channel. Since SESTD1 overexpression had no detectable effects on TRPC5-mediated Ca2+ influx, most likely due to expression of endogenous SESTD1, we knocked-down the native protein with specific siRNA. This procedure reduced TRPC5-mediated Ca2+ influx following receptor stimulation by 50%. Parallel biotinylation experiments did not reveal any differences in cell surface expressed TRPC5-protein, suggesting that reduction of TRPC5 activity resulted from a loss of a direct SESTD1 effect on the channel. In addition, in immunofluorescence experiments we observed that reduced SESTD1 protein levels resulted in a redistribution of the multifunctional protein ß-catenin from the plasma membrane to the cytosol. This result may point to an involvement of SESTD1 in formation and maintenance of adherens junctions. SESTD1 contains a phospholipid-binding Sec14p-like domain and we were the first to demonstrate its Ca2+-dependent binding to phosphatidic acid and all physiological phosphatidylinositol mono- and bisphosphates in vitro. The physiological function of this binding activity is not known at present, but it could play a role in regulation of associated TRPC channels. TRPC4 and -5 channels are activated by phospholipid hydrolysis and also bind phospholipids directly. The identification of SESTD1 as novel TRPC-interacting protein could thus be an important step forward in the investigation and better comprehension of the complex molecular mechanisms of TRP channel regulation by lipids.
Weiterentwicklung und Evaluation eines drei-dimensionalen Hautmodelles zur pharmakologischen Testung
(2008)
Die vorliegende Arbeit beschäftigt sich mit Gruppen von quasi-Automorphismen von Graphen, genauer gesagt, von gefärbten Graphen. Ein gefärbter Graph ist ein Graph, dessen Kantenmenge in eine disjunkte Vereinigung von Mengen von Kanten einer bestimmten Farbe zerlegt ist. Ein Automorphismus eines solchen Graphen muss insbesondere die Farben der Kanten respektieren. Ein quasi-Automorphismus eines solchen Graphen ist eine Bijektion der Eckenmenge auf sich selbst, die nur endlich oft die Autmomorphismeneigenschaft verletzt, d.h. nur endlich viele Kanten nicht respektiert und nur endlich viele Kanten neu entstehen läßt. Die Menge der quasi-Automorphismen eines Graphen bildet eine Untergruppe in der Gruppe der Permutationen der Eckenmenge. Eine Auswahl interessanter Beispiele solcher Gruppen und manche ihrer Eigenschaften sind neben einigen grundsätzlichen Überlegungen Thema dieser Arbeit. Die erste Klasse von Graphen, die wir untersuchen, sind Cayley-Graphen (endlich erzeugter) Gruppen. Dabei werden wir zeigen, dass die quasi-Automorphismengruppe eines Cayley-Graphen nicht von dem (endlichen) Erzeugendensystem abhängt. Wir werden zeigen, dass für eine einendige Gruppe $G$ die quasi-Automorphismengruppe des Cayley-Graphen stets als semidirektes Produkt der finitären Permutationen von $G$ und der Gruppe $G$ selbst zerfällt. In der Klasse der mehrendigen Gruppen gibt es genau $2$ Gruppen für die das ebenfalls gilt, nämlich die Gruppe der ganzen Zahlen ...Z und die unendliche Diedergruppe $D_infty$. In allen anderen Gruppen ist das oben erwähnte semidirekte Produkt stets eine echte Untergruppe. Trotzdem werden wir im Ausblick eine Konstruktion angeben, die für eine gegebene Gruppe $G$ einen Graphen $Gamma$ liefert, dessen quasi-Automorphismengruppe als semidirektes Produkt von $S_Gamma$ -- so bezeichnen wir die Gruppe der finitären Permutationen der Ecken von $Gamma$ -- und $G$ zerfällt. Des Weiteren werden wir die quasi-Automorphismengruppe des ebenen binären Wurzelbaumes betrachten. Wir werden zeigen, dass diese eine Erweiterung von (Richard) Thompsons Gruppe VV durch die Gruppe der finitären Permutationen ist, eine Präsentierung entwickeln und die Endlichkeitseigenschaften dieser Gruppe und einiger Untergruppen beleuchten. Insbesondere werden wir einen Zellkomplex konstruieren, auf dem die Gruppe der quasi-ordnungserhaltenden quasi-Automorphismen, welche das Urbild der Untergruppe FF von VV unter der kanonischen Projektion ist, mit endlichen Stabilisatoren operiert. Diese Operation erfüllt dabei die Bedingungen, die nötig sind, um mit Hilfe von Browns Kriterium nachzuweisen, dass die Gruppe vom Typ FPunendlich ist. Das co-Wort-Problem einer Gruppe $G$ bezüglich eines unter Inversion abgeschlossenen Erzeugendensystems $X$ ist die Sprache aller Worte aus dem freien Monoid $X^*$, die unter der kanonischen Projektion auf ein Element ungleich der Identität in $G$ abgebildet werden. Wir werden zeigen, dass das co-Wort-Problem der quasi-Automorphismengruppe des ebenen binären Wurzelbaumes eine kontext-freie Sprache bildet. Sei $mathop{coCF}$ die Klasse der Gruppen mit kontextfreiem co-Wort-Problem. Diese Klasse ist abgeschlossen bezüglich Untergruppenbildung und alle Gruppen, deren Zugehörigkeit zu $mathop{coCF}$ bisher nachgewiesen wurde, sind Unterguppen der quasi-Automorphismengruppe des ebenen binären Wurzelbaumes. Die $n$-strahligen Houghton-Gruppen erweisen sich als quasi-Automorphismengruppen von Sterngraphen, d.h. von Graphen, die disjunkte Vereinigungen von $n$ Strahlen verschiedener Farben sind. Wir werden uns mit geometrischen Phänomenen der Cayley-Graphen dieser Gruppen beschäftigen. Insbesondere werden wir nachweisen, dass die $2$-strahlige Houghton-Gruppe Houn[2] beliebig tiefe Sackgassen besitzt. Eine Sackgasse der Tiefe $k$ in einem Cayley-Graphen ist ein Element, dessen Abstand zur Identität mindestens so groß ist, wie der Abstand zur Identität aller Elemente im $k$-Ball um das Element. Sogar in einem stärkeren Sinne, der in dieser Arbeit definiert wird, ist die Tiefe der Sackgassen unbeschränkt. Um dies und verwandte Fragen besser behandlen zu können, entwickeln wir Modelle, die eine Beschreibung der Cayley-Graphen von Houn[n] ermöglichen. Im abschließenden Ausblick thematisieren wir einige Ansätze, in denen wir interessante Anwendungen von quasi-Automorphismengruppen sehen.
Writing against the odds : the south’s cultural and literary struggle against progress and modernity
(2008)
Die Literatur und Kultur der Südstaaten ist entscheidend geprägt von ihrer Orientierung an der eigenen Geschichte und Vergangenheit. Die düstere Vergangenheit, die die Gegenwart überschatten und die Zukunft determiniert ist ein Südstaatenthema par exellence und allgegenwärtig in ihrer Kultur und Literatur. Nach dem Bürgerkrieg und der Reconstruction Era ist der Süden kulturell und ökonomisch ausgeblutet, am Boden und isoliert. Nach dem Krieg weitet sich die Kluft zwischen Nord- und Südstaaten immer weiter aus, ein Prozess, der jedoch schon so alt ist wie die Vereinigten Staaten selbst und bereits im beginnenden 18. Jahrhundert seinen Anfang nimmt. Die Isolation ist gleichzeitig gewollt und ungewollt, bewusst und unbewusst. Die Scham des verlorenen Krieges und die Marginalisierung sind die Katalysatoren für die Kultivierung und das Bestreben nach Erhalt der Besonderheiten der Südstaaten, mit ihrer vermeintlich überlegenen Kultur und Moral. Es beginnt die kommerzialisierte, hoch ideologisierte Konstruktion der Geschichte und Identität der Südstaaten, die in alle Lebensbereiche strahlt. Der melancholische Blick in die Vergangenheit als wichtigste Referenz und kulturellen Fluchtpunkt ersetzt den Eintritt in die Moderne und Modernität mit ihrer Schnelllebigkeit, Austauschbarkeit und die Aufgabe der Tradition für eine rasante Gegenwart. Das Individuum der Südstaaten sieht sich statt mit einer Flut an Wahlmöglichkeiten und Optionen, mit einer einengenden Gesellschaft konfrontiert, die wenig Spielraum für Abweichungen übriglässt und ein harsches Kontrollsystem hat. Es ist eine einzigartige Mischung aus Stolz, Scham und einem Gefühl der gleichzeitigen Unter- und Überlegenheit, die einen besonders guten literarischen Nährboden hervorbringt. In dieser Arbeit wird den historischen, kulturellen, und literarischen Wurzeln der Südstaatenliteratur seit der Southern Renaissance nachgegegangen, um dann die ständig perpetuierten formalen und inhaltlichen Strukturen darzustellen, die wenig Veränderungen erfahren haben. Diese Perpetuierung resultiert aus der einzigartigen Situation der Südstaaten, aus der historischen Last, die unvermindert aktuell bleibt und längst nicht verarbeitet ist. Südstaatenautoren konnten und können nicht die traditionellen Formen und Themen ablegen, solange diese konstituierende Bestandteile der Kultur und Identität der Südstaaten bleiben. Die Südstaaten verweigern sich der Modernität und empfinden Fortschritt und die moderne Massengesellschaft nicht nur als Bedrohung, sondern als Einfluss aus den Nordstaaten, der die eigene Kultur bedroht und eine Einmischung von außen ist, die es abzuwenden gilt. Traditionsbewusste, reaktionäre Tendenzen und Elemente ziehen sich selbst durch vermeintlich progressive, moderne Entwicklungen und Phänomene. Ich kombiniere identitätskonstituierende, isolierende und melancholische Elemente und beleuchte sie historisch, kulturell und literarisch, um eine mehrschichtige Perspektive zu erlangen. Das Verständnis dieser historischen Last und deren unverminderte Bedeutung und Auswirkung auf die Literatur und Kultur der Südstaaten ist essentiell für eine tiefere Einsicht in deren Strukturen und Bedeutung.
Der Typ I Interferonrezeptor, der aus den Transmembranproteinen ifnar1 und ifnar2 besteht, nimmt eine wichtige Rolle bei der angeborenen und erworbenen Immunantwort ein. Durch Bindung von Typ I Interferonen werden antivirale, antiproliferative und immunmodulatorische Aktivitäten in der Zelle induziert. Die Wirkung der Interferone wird bereits bei der Behandlung einer Vielzahl von Krankheiten eingesetzt. Es ist bislang nicht bekannt, wie die verschiedenen Typ I Interferone nach Bindung an einen gemeinsamen Rezeptor, unterschiedliche Zellantworten induzieren. So unterscheiden die Typ I Interferone sich nicht hinsichtlich ihrer Bindungsstelle oder der Stöchiometrie der Bindung an ifnar1 bzw. ifnar2. Sie weisen jedoch unterschiedliche Affinitäten zu den Rezeptoruntereinheiten auf, wobei ihnen eine niedrigere Affinität zu ifnar1 gemeinsam ist. Bislang konnte keine Interaktion zwischen den Rezeptoruntereinheiten nachgewiesen werden. Es wird angenommen, dass bei der Rezeptorassemblierung das Interferon zunächst an ifnar2 bindet und anschließend ifnar1 rekrutiert. Es wird postuliert, dass die unterschiedlichen Zellantworten für verschiedene Typ I Interferone auf Unterschieden in der Stabilität der ternären Komplexe beruhen könnten. Im Rahmen dieser Arbeit wurden daher die Struktur und Dynamik des Interferonrezeptors in vitro für die Typ I Interferone IFNa2 und IFNb charakterisiert. Die Struktur des ternären Komplexes aus den extrazellulären Domänen von ifnar1 und ifnar2 mit IFNa2 wurde mittels Elektronenmikroskopie untersucht. Über Einzelpartikelanalyse aufgereinigter Komplexe von IFN mit den extrazellulären Domänen von ifnar1 (ifnar1-EC) und ifnar2 (ifnar2-EC) konnte ein Strukturmodell des ternären Komplexes erstellt werden. Dieses zeigte eine Verschiebung der membranproximalen Domänen von ifnar1-EC und ifnar2-EC wie sie bereits für den Rezeptor für Erythropoietin und den Wachstumsfaktor beobachtet wurden, welche zu den Typ I Zytokinrezeptoren gehören. Die Struktur des ternären Komplexes ermöglicht als erste Struktur eines Typ II Zytokinrezeptors einen Einblick in die Architektur des Komplexes und mögliche Aktivierungsmechanismen. Die Strukturen der Komplexe für die verschiedenen Typ I Interferone IFNa2 und IFNb wiesen keine fundamentalen Unterschiede auf, was auf einen gemeinsamen Aktivierungsmechanismus hinweist. Temperatur-abhängige Messungen von Bindungskinetik und –affinität ergaben sehr unterschiedliche Energiehyperflächen für die Ligandenbindung an ifnar1- und ifnar2-EC, und wiesen auf einen mehrstufigen Prozess und mögliche Konformationsänderungen bei der Bindung an ifnar1-EC hin. Zur Analyse der Dynamik von ifnar1-EC wurden daher verschiedene fluoreszenzbasierte Assays etabliert. Eine besondere Herausforderung bestand darin, das Protein ortsspezifisch und stöchiometrisch mit zwei verschiedenen Fluorophoren zu koppeln. Ifnar1-EC wurde an verschiedenen Stellen kovalent mit Fluoreszenzfarbstoffen markiert. Es wurde gezeigt, dass nach Bindung eines geeigneten tris-NTA-Fluorophor-Konjugats an den C-terminalen His-Tag die Fluoreszenz abstandsabhägig durch Förster-Resonanz-Energie-Transfer gelöscht wurde. Für ifnar1-EC wurde eine ligandeninduzierte Abstandsänderung detektiert. Die detaillierte Analyse ergab nach Bindung von IFNa2 eine Abstandszunahme von 13 A vom N- zum C-Terminus. Durch die Interferonbindung nimmt demnach ifnar1-EC eine gestrecktere Konformation ein. Ähnliche Ergebnisse wurden auch in Anwesenheit von ifnar2-EC und für IFNb erhalten. Die Einzelmolekülanalysen mittels Fluoreszenz Korrelationsspektroskopie (FCS) zeigten sowohl einen Verlust der Flexibilität von ifnar1-EC nach Ligandenbindung als auch ein ligandeninduziertes Rearangement der Ig-ähnlichen Domänen. Die Änderung der Flexibilität wurde durch Messungen der Fluoreszenzlebensdauer bestätigt. Untersuchungen der Kinetik der Ligand-induzierten Konformationsänderung mittels Stopped-Flow Messungen bestätigten eine mehrstufige Umorientierung der Ig-ähnlichen Domänen nach Ligandenbindung. Zusätzlich konnte gezeigt werden, dass sich nach Ligandenbindung die Zugänglichkeit des Tryptophans in der membranproximalen Domäne von ifnar1-EC ändert. Da die membranproximale Domäne nicht bei der Ligandenbindung beteiligt ist, deutet dieser Effekt auf eine Propagation der Ligand-induzierten Konformationsänderung in diese Domäne hin. Das Tryptophan könnte mit der Membran interagieren, was auf eine wichtige Rolle der membranproximalen Domäne für die korrekte Orientierung von ifnar1 in der Membran hindeut. Die Stopped-Flow Analyse zeigte, dass es sich hierbei um einen einstufigen Prozess handelt, der mit der Interferonbindung korreliert. Die Ergebnisse wiesen insgesamt auf eine Ligand-induzierte Flexibilitätsänderung und Umorientierung der Ig-ähnlichen Domänen bei ifnar1-EC hin. Vermutlich wird nach Ligandenbindung das Signal in die membranproximale Domäne von ifnar1-EC propagiert. Die Strukturen der ternären Komplexe mit den verschiedenen Typ I Interferonen wiesen keine fundamentalen Unterschiede auf. Auch die Ergebnisse der fluoreszenzbasierten Assays zeigten keine Unterschiede für IFNa2 und IFNb, was die Hypothese stützt, dass die differentielle Aktivität der Interferone nicht auf grundsätzlichen Unterschieden in der Architektur des ternären Komplexes beruht, sondern in der unterschiedlichen Dynamik der Komplexe codiert sein könnte.
The German Working Group on Vegetation Databanks has held annual meetings since 2002 with financial support by the German Federal Agency for Nature Conservation. Ca. 215 members are regularly informed through a mailing-list. The 2008 meeting was hosted by University of Oldenburg’s Landscape Ecology Group and was attended by 72 participants from 15 countries. Software demonstrations of vegetation databanks Turboveg and VegetWeb as well as plant trait databanks LEDA and BiolFlor opened the workshop. There were lecture sessions on trait databanks, recalibration of ecological indicator values and new developments in the field of vegetation databanks. Working groups were devoted to an initiative to build a meta-databank of existing vegetation databanks in Germany and to mathematical modelling of species habitats. In 2009 the 8th workshop will be held on "Vegetation Databanks and Biodindication" at the University of Greifswald.
Naturalness is one of the most important criteria in nature conservation. This paper examines the fundamental concepts underlying the definition and assessment of naturalness. Its role in nature conservation and forest management under conditions of global change is also discussed. The degree of naturalness may be defined in ordinal classes. The “static” concept of the potential natural vegetation (pnV), developed in the 1950ies, is mostly used as the reference state. In other cases, its reversed concept, the hemeroby (degree of articifiality) is assessed, based on the intensity and frequency of human impacts. Since the 1970ies, more attention has been given to natural dynamics than in earlier approaches, e.g. in forest succession models. At the end of the 1980ies, the previous importance was increasingly stressed of natural browsing by large herbivores and the role of predators. These large herbivors are extinct today in most cultural European landscapes. It is assumed, that they open up the canopy, and create park-like forest structures which contain a diversity of habitats for other types of organism (birds, insects). Changed and permanently changing environments and altering patterns of competition between species continue to modify natural processes today. Some of the more conspicuous effects are the extinction of native species and immigration of species to new regions. Long-lived ecosystems like forests are however not able to adapt quickly to such changes and may be unable to find a new balance with the environment. Today, such changes occur very rapidly, and are reducing the original naturalness of ecosystems. Because of this, the criterion “naturalness” must be downweighted. Conversely, more importance should be attached to other criteria: particularly originality (= original naturalness) and restorability. Forestry is contributing to this accelerated change of biocoenoses by increasing disturbances and introducing exotic tree species. Naturalisation of some exotic tree species modifies the natural processes and creates a “new allochthonous naturalness”. Because of this, forest planning should try to preserve or restore stands with attributes of the “original forest”. Exotic species should not be planted, or only in a very restricted way.
Anhand der Daten von 33 Standorten des Bayerischen Waldboden Dauerbeobachtungsprogramms (Bodendauerbeobachtungsflächen, BDF) wurden die durch kleinräumige Variabilität verursachten Unsicherheiten bei der Charakterisierung von Böden geschätzt. Diese Datenbasis erlaubte es zudem zu untersuchen, inwieweit geostatistische Eigenschaften in Zusammenhang mit den Standortsbedingungen stehen. Für diesen Zweck entwickelten wir einen einfachen Ansatz zur Typisierung von Böden nach ihren räumlichen Eigenschaften. Beim BDF-Programm wurden auf jedem Standort 18 Proben in einem Kreuz-Transekt 18 x 18 m entnommen bei einem Mindestabstand von 3 m. Der Datenbestand umfasst die Parameter Corg und Ntot-Konzentrationen sowie -Vorräte und C / N - Verhältnis, effektive Kationen-Austausch-Kapazität (Ake), Basensättigung (BS), pH-Wert des Bodens und Grobbodenfraktion (> 2 mm). In die Metaanalyse wurden pro Bodenparameter 3780 Datensätze zur Erzeugung aggregierter Kennwerte einbezogen wie Schiefe, Variationskoeffizient (VK), Moran‘s I und den Anteil der räumlich strukturierten Varianz (SV) der Daten. Die beobachtete räumliche Struktur von Bodenparametern konnte zwar nicht eindeutig in Zusammenhang mit den Standortbedingungen gebracht werden. Es zeigt sich aber, dass die Gesamtvarianz einiger Parameter mit steigendem Tongehalt tendenziell zurück geht und dass das Niveau der Streuung (VK) der untersuchten Boden-Parameter sich erheblich unterscheidet. Die Rangfolge der Parameter hinsichtlich der Streuung ist pH-Wert (1), C/N - Verhältnis (2), C und N-Konzentration (3a), BS und Ake (3b), C- und N- Vorräte (4). Die Unsicherheitsabschätzung anhand der BDF Daten findet Eingang in das Fehlerbudget der zweiten bundesweiten Bodenzustandserhebung im Wald (BZE II) und dient dazu die Chancen zu bestimmen mit denen etwaige Bodenveränderungen nachgewiesen werden können.
Zur Kennzeichnung und Gliederung von periglaziär bedingten Differenzierungen in der Pedosphäre
(2008)
Im periglaziären Milieu der letzten Kaltzeit wurde der oberflächennahe Tiefenbereich in Mitteleuropa entscheidend geprägt, was durch lithogene und pedogene Differenzierungen bis etwa 1...2 m unter Gelände zum Ausdruck kommt. Die Prozesse Kryoklastik und Kryotranslokation, Kryoperstruktion sowie Kryopedogenese – jeweils mit mehreren Teilprozessen – prägten die Profilgliederung und Substratausbildung in der Auftauzone des Dauerfrostbodens. In den Untersuchungen und Diskussionen der letzten Jahrzehnte zur Genese der Phänomene im Bereich der Pedosphäre erfuhren die beteiligten Prozesse bei den Autoren unterschiedliche Aufmerksamkeit und Sichtung. Die verschiedenen Konzepte zur Kennzeichnung und Gliederung der Profildifferenzierungen lassen sich letztlich dem Deckenkonzept, im Wesentlichen fußend – jedoch unter Beteiligung weiterer Prozesse – auf Kryotranslokation sowie dem Konzept der Perstruktions- bzw. Umlagerungszonen, vorrangig basierend auf den Prozessen Kryoperstruktion und Kryopedogenese, zuordnen. Der entscheidende Unterschied zwischen der Ansprache der periglaziär bestimmten Differenzierungen innerhalb der Pedosphäre mit Hilfe der Abfolge verschiedener Zonen einerseits und der Abfolge verschiedener Decken – wie auch Lagen – andererseits besteht darin, dass bei der Kennzeichnung und Gliederung des Zonenprofils sedimentär bedingte Substratunterschiede nicht vorrangig und nur als Hilfskriterien herangezogen und somit gleiche Zonen auch in lithostratigraphisch unterschiedlichem Material oder auch umgekehrt in gleichem Material verschiedene Zonen ausgewiesen werden. Nach dem Decken-/Lagenkonzept werden dagegen die sedimentären Prozesse als dominante Ursachen der heute vorliegenden vertikalen Substratdifferenzierung angesehen, wobei auch den syn- und postsedimentären periglaziären Umbildungen durch Teilprozesse der Kryoperstruktion immerhin entscheidender Anteil am Deckenbildungsprozess beigemessen wird, die zur zusätzlichen Vertikaldifferenzierung innerhalb der jeweiligen Decke führen können. Zur Definition der Lagen (nach der Kartieranleitung der Staatlichen geologischen Dienste und der Bundesanstalt für Geowissenschaften und Rohstoffe) wurden die Prozesse der Kryotranslokation sowie Teilprozesse der Kryoperstruktion herangezogen, jedoch sind bisher die Kryohomogenisierung (Entschichtung, Vermischung) und (Skelett-)Umsortierung (Kryolithotropie) sowie außerdem die mit der Kryoperstruktion häufig verknüpften Prozesse der Kryopedogenese in die Definition nicht eingegangen. In vielen Fällen ist eine Zuweisung der Profile zu einem bestimmten Gliederungsprinzip bzw. Genesetyp nicht möglich. So ist es nicht haltbar, von regional abgegrenzten Gebieten sowie räumlichen Insellagen der Entstehung von periglaziären Decken einerseits und von Bereichen mit Ausbildung von Kryoperstruktionszonen andererseits zu sprechen. Im periglaziären Milieu wirkten die o. g. jeweils unterschiedlich dominanten Vorgänge im Komplex, und die Abkopplung von Teilprozessen der periglaziären Umbildung der Oberfläche ist nicht sinnvoll. Das für die Böden ausgewiesene Substratprofil baut sich aus erheblich variierenden Anteilen des durch Kryotranslokation akkumulierten Fremdmaterials sowie des ortsbürtigen Materials auf. Die jeweiligen Komponenten wurden im Wesentlichen durch das örtlich anstehende Gestein und Relief, die Exposition und Höhenlage sowie die Lage zum Eisrand und zu den äolischen Akkumulationsräumen gesteuert. Im Zuge einer Analyse der oberflächennahen Profildifferenzierungen ist durchaus die detaillierte Kennzeichnung des Substratprofils nach fremden und ortsbürtigen Komponenten einerseits sowie nach Merkmalen der Kryoperstruktion andererseits möglich. Darüber hinaus ist aber eine integrierende und aggregierende sowie landschaftsübergreifende Gliederung und Kennzeichnung der periglaziär bedingten Profildifferenzierungen notwendig. Dafür ist der Begriff „Lage“ nach bisheriger Definition nur bedingt geeignet, da dieser nicht die Beteiligung des gesamten Prozesskomplexes ausdrückt. Deshalb wird zur Unterscheidung vorerst der Neubegriff „Segment“ (bzw. periglaziäres Segment) vorgeschlagen, der hinsichtlich Kryoperstruktions-, Kryotranslokations- und Kryohorizontprofil neutral ist und somit keinen Anlass für nomenklatorische Missverständnisse bietet. Bei der Weiterverwendung der Bezeichnung „Lagen“ im Sinne einer hier vorgeschlagenen ergänzenden Definition ist also nicht nur dessen neue Begriffsbestimmung erforderlich, sondern darüber hinaus auch eine Klarstellung, dass die so ergänzt definierten Lagen nach allen genannten Prozesssystemen – also erweitert gegenüber der bisherigen Lagendefinition – gekennzeichnet sind. Sofern dies mit allen Konsequenzen allgemein verbindlich würde, könnte allerdings der Lagenbegriff mit dem Zusatz „Lage – ergänzt definiert“ auch weiterhin angewandt werden. Die periglaziären Segmente bzw. die Lagen – ergänzt definiert – lassen sich folgendermaßen kennzeichnen: Periglaziäre Segmente (kurz: Segmente) oder Lagen – ergänzt definiert – sind im periglaziären Milieu im Bereich der Pedosphäre durch • Substratbereitstellung infolge Frostverwitterung (Kryoklastik) und Kryotranslokation [äolische Akkumulation und/oder (Geli-)Solifluktion bzw. Anspülung] aus den jeweils anstehenden Gesteinen sowie aus unterschiedlichen Anteilen allochthonen Materials und • durch Kryoperstruktion (Entschichtung und Homogenisierung sowie Vermischung, Umsortierung des Skelettanteils und Kryoturbation) sowie • kryopedologische Prozesse (periglaziäre Vorprägung oder sogar Prägung der pedogenen Horizontabfolge) entstanden. Die genannten Teilprozesse können mit unterschiedlichem Anteil und zu verschiedenen Zeiten an der Bildung und Differenzierung der Bodendecke beteiligt sein. In Abhängigkeit vom Paläorelief (Hangneigung, Hangform, Hangexposition) und vom Verbreitungsmuster der anstehenden Gesteine sowie vom Anteil allochthonen Materials und von den lokalklimatischen Bedingungen ist die stoffliche Zusammensetzung, Lagerungsart und Struktur sowie die Ausprägung der Bodenhorizonte in der Vertikalabfolge der einzelnen Segmente bzw. Lagen – ergänzt definiert – und in der horizontalen Ausprägung differenziert. Die Vertikalabfolge der periglaziär bedingten Differenzierung der Bodendecke wird gegliedert in das bisher nur lokal im Bergland sicher nachgewiesene Obersegment bzw. in die Oberlage – ergänzt definiert, außerdem in das fast flächendeckend an der Oberfläche verbreitete Hauptsegment, bzw. Hauptlage – ergänzt definiert, das von einem häufig unterteilten Mittelsegment (oberer Teil und unterer Teil) bzw. Mittellage – ergänzt definiert – unterlagert sein kann. Über dem periglaziär kaum oder nicht beeinflussten Untergrund lagert fast überall das Basissegment bzw. die Basislage – ergänzt definiert, das u. a. nach Zusammensetzung, Strukturmerkmalen sowie ggf. nach der Altersstellung differenziert werden kann. Durch die konsequente Verknüpfung aller im periglaziären Milieu wirksamen Prozesssysteme mit Hilfe der Ausweisung periglaziärer Segmente bzw. der Lagen – ergänzt definiert – ist eine detaillierte sowie integrierende und landschaftsübergreifende Kennzeichnung der Substratdifferenzierung der Böden möglich.
Objectives To examine the dose-response relationship between cumulative exposure to kneeling and squatting as well as to lifting and carrying of loads and symptomatic knee osteoarthritis (OA) in a population-based case-control study. Methods In five orthopedic clinics and five practices we recruited 295 male patients aged 25 to 70 with radiographically confirmed knee osteoarthritis associated with chronic complaints. A total of 327 male control subjects were recruited. Data were gathered in a structured personal interview. To calculate cumulative exposure, the self-reported duration of kneeling and squatting as well as the duration of lifting and carrying of loads were summed up over the entire working life. Results The results of our study support a dose-response relationship between kneeling/squatting and symptomatic knee osteoarthritis. For a cumulative exposure to kneeling and squatting > 10.800 hours, the risk of having radiographically confirmed knee osteoarthritis as measured by the odds ratio (adjusted for age, region, weight, jogging/athletics, and lifting or carrying of loads) is 2.4 (95% CI 1.1-5.0) compared to unexposed subjects. Lifting and carrying of loads is significantly associated with knee osteoarthritis independent of kneeling or similar activities. Conclusions As the knee osteoarthritis risk is strongly elevated in occupations that involve both kneeling/squatting and heavy lifting/carrying, preventive efforts should particularly focus on these "high-risk occupations".
The moderate halophile Halobacillus halophilus is the paradigm for chloride dependent growth in prokaryotes. Recent experiments shed light on the molecular basis of the chloride dependence that is reviewed here. In the presence of moderate salinities Halobacillus halophilus mainly accumulates glutamine and glutamate to adjust turgor. The transcription of glnA2 (encoding a glutamine synthetase) as well as the glutamine synthetase activity were identified as chloride dependent steps. Halobacillus halophilus switches its osmolyte strategy and produces proline as the main compatible solute at high salinities. Furthermore, Halobacillus halophilus also shifts its osmolyte strategy at the transition from the exponential to the stationary phase where proline is exchanged by ectoine. Glutamate was found as a second messenger" essential for proline production. This observation leads to a new model of sensing salinity by sensing the physico-chemical properties of different anions.
Die guten bayerischen Ergebnisse der PISA-Studien haben ihren Preis. Hohe Hürden vor dem Gymnasium führen nicht nur der Realschule viele Schüler/innen zu, die in anderen Bundländern das Gymnasium besuchen. Profitiert davon hat lange Zeit auch die bayerische Hauptschule mit einem hohen Schüler/innen-Anteil, der außerhalb Bayerns vor allem Real- und Gesamtschulen besucht. Diese Situation hat sich nun ausgerechnet durch PISA auch für das deutsche PISA-Siegerland Bayern geändert. Zum einen findet auch in Bayern bei der Zuordnung zu den drei Regelschulformen Hauptschule, Realschule und Gymnasium die für ganz Deutschland so beschämende soziale Selektion statt. Was die bayerische Schulpolitik jedoch härter trifft, ist die im internationalen Vergleich viel zu geringe deutsche Quote an Schüler/innen mit Hochschulreife. Darin ist Bayern nun auch Spitze unter den Bundesländern mit gerade einmal 20 Prozent Abiturienten. Was die PISA-Debatte noch öffentlich gemacht hat, ist der hohe Anteil an „Risikoschüler/innen” mit oder ohne Hauptschulabschluss, die immer geringere Vermittlungschancen auf dem Ausbildungsmarkt haben, in der Konkurrenz zu denen mit einem Mittleren Abschluss oder Abitur, und das auch in traditionellen Handwerksberufen. Dieser Trend der Abwertung der Hauptschule und des Hauptschulabschlusses macht auch vor den bayerischen Landesgrenzen nicht Halt und es hilft wenig, dass Bayern bei PISA gerade aufgrund seiner verschärften Auslese mit dem geringsten Anteil an „Risikoschüler/innen” im innerdeutschen Vergleich aufwarten kann. Ausgelöst wurde die Hauptschulkrise bereits durch eine innerbayerische Strukturmaßnahme, die bereits vor PISA durchgeführt wurde. Bayern war, wie die ostdeutschen Länder Sachsen, Sachsen-Anhalt und Thüringen, bis Ende Klasse 6 zweigliedrig, ehe die Staatsregierung sich entschloss, Haupt- und Realschüler/innen auch bereits nach der Grundschule zu trennen. Damit verschärften sich die Probleme an Hauptschulen und begann das schleichende Hauptschulsterben, das der CSU schwer zu schaffen macht. Wer will noch freiwillig sein Kind einer Schule anvertrauen, in der im Verbund mit der Sonderschule sich die meisten der „Risikoschüler/innen” versammeln? Die Folge ist auch in Bayern ein verstärkter Druck auf die Grundschule, die ja verpflichtet ist, bis zum Ende von Klasse 4 verbindlich zu entscheiden, wer die Realschule oder das Gymnasium besuchen darf und wer in die Hauptschule muss. ...
Ein bakteriendichter Kavitätenverschluss zur Vermeidung von Pulpairritationen und möglicher Sekundärkaries stellt eines der obersten Ziele in der modernen minimalinvasiven Füllungstherapie dar. Ziel dieser Studie war es, den Einfluss unterschiedlicher Sekundärpräparations- und Konditionierungstechniken (konventionell, SÄT, sonoabrasiv mit Rondoflex und oszillierend mit Sonicflex Seal) auf die Randqualität von Fissurenversiegelung und kunststoffgefüllten Klasse V Kavitäten von 60 menschlichen extrahierten Zähnen mittels Farbstoffpenetrationtests zu prüfen. Die statistischen Analysen ergaben, dass in der Untersuchungsreihe der Fissurenversiegelungen die Zähne, die mit Rondoflex konditioniert wurden, die geringsten prozentualen Farbstoffpenetration (1,65 %) gemessen an der zu penetrierenden Gesamtstrecke aufwiesen. Diese Gruppe konnte eine nicht signifikant günstigere Randspaltqualität aufweisen als die Gruppe, in der mit Sonicflex die Fissur aufgezogen wurde. Hier wiesen 2,00 % der Gesamtstrecke eine Farbstoffpenetration auf. Die höchste prozentuale Penetration (4,31 %) wurden bei den konventionellen Versiegelungen ausgewertet. Diese Gruppe weist nicht signifikant die höchste Penetrationsrate aller drei Gruppen auf. Bei den Klasse V Kavitäten erwies sich die Untersuchungsgruppe „mit Anschrägung“ als die mit der signifikant geringsten Penetrationsrate (7,44 %). Die Gruppe, bei der mit Rondoflex konditioniert wurde, wurde eine signifikant geringere Randqualität ausgewertet (19,15 %) als bei der Gruppe „mit Anschrägung“ und eine nicht signifikant geringere Penetrationsrate festgestellt als in der Gruppe „ohne Anschrägung“ (22,65 %).
Increasingly, individuals are in charge of their own financial security and are confronted with ever more complex financial instruments. However, there is evidence that many individuals are not well-equipped to make sound saving decisions. This paper demonstrates widespread financial illiteracy among the U.S. population, particularly among specific demographic groups. Those with low education, women, African-Americans, and Hispanics display particularly low levels of literacy. Financial literacy impacts financial decision-making. Failure to plan for retirement, lack of participation in the stock market, and poor borrowing behavior can all be linked to ignorance of basic financial concepts. While financial education programs can result in improved saving behavior and financial decision-making, much can be done to improve these programs’ effectiveness.
Traditionally, aggregate liquidity shocks are modelled as exogenous events. Extending our previous work (Cao & Illing, 2007), this paper analyses the adequate policy response to endogenous systemic liquidity risk. We analyse the feedback between lender of last resort policy and incentives of private banks, determining the aggregate amount of liquidity available. We show that imposing minimum liquidity standards for banks ex ante are a crucial requirement for sensible lender of last resort policy. In addition, we analyse the impact of equity requirements and narrow banking, in the sense that banks are required to hold sufficient liquid funds so as to pay out in all contingencies. We show that such a policy is strictly inferior to imposing minimum liquidity standards ex ante combined with lender of last resort policy.
Modern macroeconomics empirically addresses economy-wide incentives behind economic actions by using insights from the way a single representative household would behave. This analytical approach requires that incentives of the poor and the rich are strictly aligned. In empirical analysis a challenging complication is that consumer and income data are typically available at the household level, and individuals living in multimember households have the potential to share goods within the household. The analytical approach of modern macroeconomics would require that intra-household sharing is also strictly aligned across the rich and the poor. Here we have designed a survey method that allows the testing of this stringent property of intra-household sharing and find that it holds: once expenditures for basic needs are subtracted from disposable household income, household-size economies implied by the remainder household incomes are the same for the rich and the poor.
Die zunehmende Technologisierung aller Lebensbereiche sowie der seit Mitte der 60er Jahre wachsende Touristenstrom lassen uns fast jeden Tag von Katastrophen hören, bei denen eine Vielzahl von Menschen ums Leben kommen. Bei solchen Vorfällen werden viele Menschen oftmals bis zur Unkenntlichkeit verstümmelt. Ziel muss es daher sein, die Leichen so schnell wie möglich zu identifizieren. „Sei es in Ramstein, Bopal, Enschede oder New York am 11.September 2001: Nur ein Zahn kann ausreichen, um einem Toten seinen Namen zurückzugeben2.“ Diese Aussage von Benedix kann als Anstoß für die vorliegende Arbeit gesehen werden. .... Zur Verifizierung der anfangs formulierten Vermutungen wurde im Verlauf der vorliegenden Dissertation schrittweise vorgegangen. Durch die Bearbeitung der russischen Fachliteratur wurde das notwendige Basiswissen für eine genauere Umschreibung der These geschaffen. Die anschließenden Untersuchungen in der JVA, der Zahnarztpraxis mit überwiegend russischem Patientenanteil sowie der Karteikartenauswertung in der Ukraine bestätigten in manchen Hinsichten die These, wiesen aber auch deutliche Grenzen auf. So konnte festgestellt werden, dass die Arbeiten sich häufig sehr voneinander unterschieden. Während in der Universitätsklinik von Kiev zeitgemäßer, zum Teil moderner Standard der Zahnmedizin praktiziert wurde, gab es Dorfkliniken sowie kleineren Zahnarztpraxen in und um Kiev, die in der Entwicklung noch Jahre von diesem Standard entfernt waren. Gleichzeitig konnten jedoch auch Patienten der höheren sozialen Schicht registriert werden, die sich in Behandlung in Privatpraxen befanden, welche sich bereits Ende der 90er Jahre dem hohen westeuropäischen Standard angenähert hatten. Aber nicht nur während der Reise in die Ukraine waren Unterschiede erkennbar. Bei der Auswertung der Untersuchungen aus der JVA wurde eine ähnliche Problematik erkennbar. Während in der JVA selbst häufig provisorische oder eher kostengünstige Lösungen gesucht wurden, gab es Patienten, die sich vorher entweder in ihrem Herkunftsland oder aber bereits in Westeuropa in zahnärztlicher Behandlung befanden und sich somit unterschiedliche Arbeiten im Mund befanden. Das gleiche Bild zeichnete sich in der Zahnarztpraxis in Frankfurt am Main ab. Es gab Patienten, die jahrelang in Behandlung in ihrem Heimatland waren und sich in Westeuropa nur nach Bedarf einzelne Komponente haben erneuern lassen, so dass auch bei diesen Patienten sehr unterschiedliche Arbeiten im Mund registriert wurde. Dieser Faktor würde im DVI-Fall die Arbeit erheblich erschweren. Dennoch kann man bestimmte wiederkehrende und auffallende Merkmale sowohl in der prothetischen als auch in der konservierenden Zahnheilkunde festhalten. Die konservierende Zahnheilkunde lieferte, wie aufgrund der Fachliteratur zu vermuten war, nur einen eindeutigen Hinweis im Identifizierungsfall: eine rosafarbene Verfärbung der Zahnkrone als Hinweis auf mit Paracinzement aufgefüllte Kanäle nach einer Wurzelbehandlung. Die statistische Auswertung in der Ukraine wird durch die Fachliteratur im Hinblick auf die weite Verbreitung einer solchen Versorgungsart in den 80er bis in die 90er Jahre im molaren sowie prämolaren Bereich bestätigt. Aufgrund der hohen und lang anhaltenden antibakteriellen Wirkung von Parazinzement kann ein Zahn nach einer solchen Behandlung noch lange im Mund bleiben. Obwohl diese Zähne häufig spröde geworden sind, die Zähne brechen zum Teil ab und werden oftmals überkront. Dennoch ist bei abstehenden Kronenrändern oder häufig auch unterhalb des Kronenrandes die rosa Verfärbung deutlich erkennbar. Dies kann aufgrund der vorliegenden Untersuchungen aus der JVA und der Zahnarztpraxis bestätigt werden, wo Zähne mit einer solchen Versorgung häufig anzutreffen waren. Auf den dort gefertigten Röntgenbildern wurde deutlich, dass die Versorgungsart sich auf Röntgenbildern deutlich von einer in Westeuropa als Standard angesehen Wurzelbehandlung unterscheidet. Es sind im Gegensatz zu Behandlungen aus dem westeuropäischen Raum keine Guttaperchastifte zu erkennen, sondern ein spinnennetzartiges Gewebemuster, das sich wie ein dünnes Netz durchzieht. Häufig reicht das Wurzelfüllngsmaterial nur bis zum oberen Drittel des Wurzelkanals. Im westeuropäischen Raum ist Parazinzement auf Resorzinformalinbasis nicht erlaubt aufgrund der enthaltenen kanzerogenen Substanzen. Die weiteren zeitlich aufeinanderfolgenden Versorgungsarten der konservierenden Zahnheilkunde wie die Füllungen mit Gamma 2 – Amalgam hatte zwar eine starke Korrosionserscheinung (schwarze Verfärbung) der Zähne zur Folge, dies kann jedoch nicht als eindeutiges Merkmal im realen DVI-Fall gewertet werden. In den 80er Jahren waren Kunststoffe, die nicht auf der Adhäsivbasis eingesetzt worden sind, sowie Zemente weit verbreitet. Diese Versorgungsart führte jedoch zu einem schnellen Verlust der Zähne, im Falle der Kunststoffe häufig hervorgerufen durch eine Entzündung der Pulpa und bei der Versorgung mit Zement aufgrund der negativen mechanischen Eigenschaften, so dass Zähne mit diesen Versorgungsarten in der Regel nicht mehr anzutreffen sind. Erst Mitte Ende der 90er Jahre war mit Kunststoffen auf Adhäsivbasis, zunächst aus Westeuropa stammend, dann in Osteuropa nachproduziert, eine Alternative zu Amalgam als Füllungsmaterial im Front- und Seitenzahnbereich gefunden worden. Kunststoffe dieser Art waren farbbeständig und hatten positive mechanische Eigenschaften. Für den realen Identifikationsfall liefert diese Versorgungsart jedoch keinerlei Hinweise auf die Herkunft einer unbekannten Leiche. Die Untersuchung im Hinblick auf die prothetische Zahnheilkunde ergab zusammenfassend folgende Ergebnisse: • Die gestanzte Krone war im osteuropäischen Raum in den 70er und 80er Jahren weit verbreitet und lässt mit Ihrer Form einen Rückschluss auf die Herkunft einer unbekannten Leiche zu. • Die goldähnliche Beschichtung war bei allen Untersuchungen anzutreffen und weist ebenfalls auf eine Herkunft aus dem osteuropäischen Raum hin. • Die gestanzte Brücke mit gelöteten Zwischengliedern lässt in dieser Form den Schluss einer osteuropäischen Herkunft zu. • Die gestanzte Krone mit Kunststoffverblendung ist ebenfalls nur im osteuropäischen Raum anzutreffen. • Der typische Rotgoldton der gestanzten Goldkrone kann ebenfalls als Merkmal einer osteuropäischen Herkunft gewertet werden. Im Hinblick auf die herausnehmbare prothetische Versorgung wurde im Verlauf der Untersuchungen deutlich, dass weder die MEG- noch die Totalprothese Hinweise auf die Herkunft einer unbekannten Leiche liefern können. Die Teilprothese mit handgebogener Klammer liefert zwar insofern Hinweise, als dass eine solche Art der Versorgung im osteuropäischen Raum als defintive Versorgung galt, während eine solche Versorgung im westeuropäischen Raum nur als Interimsversorgung genutzt wurde. Zusammenfassend muss man zu dem Schluss kommen, dass der festsitzende Zahnersatz eindeutigere Merkmale für den DVI-Fall liefern kann.
In der vorliegenden Arbeit werden die angewendeten Kräfte, die von drei Behandlergruppen (Studenten, Zahnärzte und Spezialisten) während der lateralen Kondensation von Guttapercha aufgebracht werden, in Abhängigkeit vom Qualifikationsgrad des Behandlers und der unterschiedlichen Kanalkonizität untersucht. Die Behandlergruppen bestehen aus jeweils 12 Personen. Jeder Proband füllt in folgender Reihenfolge einen vorgefertigten Kunststoffkanal der Konizität .02, .04, .06 und p30 (ProTaper F3) nach der Methode der lateralen Kondensation unter Verwendung von AH plus Sealer und Guttapercha. Dabei werden von einem Kraftsensor die entstehenden vertikalen Kräfte gemessen, aufgezeichnet und dann mittels geeigneter Software hinsichtlich folgender Ergebnisgrößen ausgewertet: • Absolute Maxima der angewendeten Kraft bei Wurzelkanalfüllung • Durchschnittswerte der angewendeten Kraft • Häufigkeitsverteilung der Kraftmesswerte • Zugkraftwerte (Minima der angewendeten Kraft) • Streuungsmaße (Standardabweichung und Varianz) • Anzahl der auftretenden Kraftspitzen pro Kanalfüllung • zugrunde liegende probandenspezifische Füllmuster • Anzahl der zur Kanalfüllung verwendeten Guttaperchastifte • benötigte Kanalfüllzeit Folgende Ergebnisse sind erarbeitet worden: 1. Die 36 Probanden haben durchschnittliche Maximalwerte von 1,10-2,12 kg eingesetzt: Spezialisten wendeten im Mittel 2,12 kg an, Studenten 1,48 kg und Zahnärzte 1,10 kg. 2. Die Durchschnittswerte der eingesetzten Lasten der 36 Probanden liegen zwischen 0,51-0,92 kg: Spezialisten wendeten im Mittel 0,92 kg an, Studenten 0,65 kg und Zahnärzte 0,51 kg. Auch hier kondensieren die Spezialisten mit höheren Kraftwerten. 3. Statistisch signifikante Unterschiede zwischen den Behandlergruppen bestehen bei: • Maximalkraft: bei allen Konizitäten • Durchschnittskraft: bei den Konizitäten .02 und .04 • Minimalkraft: keine signifikanten Unterschiede • Standardabweichung: bei allen Konizitäten • Kraftspitzen: keine signifikanten Unterschiede 4. Statistisch signifikante Unterschiede zwischen den Kanalkonizitäten bestehen bei: a) Studenten • Maximalkraft: keine signifikanten Unterschiede • Durchschnittskraft: zwischen den Konizitäten .04 und .06 • Minimalkraft: keine signifikanten Unterschiede • Standardabweichung: keine signifikanten Unterschiede b) Zahnärzten • Maximalkraft: keine signifikanten Unterschiede • Durchschnittskraft: zwischen den Konizitäten .06 und p30 • Minimalkraft: keine signifikanten Unterschiede • Standardabweichung: keine signifikanten Unterschiede c) Spezialisten • Maximalkraft: zwischen den Konizitäten .04 und .06 • Durchschnittskraft: bei allen Konizitäten bis auf zwischen .02 und .04 sowie zwischen .06 und p30 • Minimalkraft: keine signifikanten Unterschiede • Standardabweichung: keine signifikanten Unterschiede 5. Es gibt bei den untersuchten Kraftwerten keine signifikanten Unterschiede zwischen weiblichen und männlichen Behandlern. 6. Es wurde ein individuelles Kraftauftragsmuster bei den Behandlern der unterschiedlichen Gruppen festgestellt. 7. Mit ansteigender Konizität werden von allen Behandlergruppen signifikant mehr Guttaperchastifte in den Kanal eingebracht. Zahnärzte tendieren dazu, weniger Guttaperchastifte zu verwenden und die Kanäle schneller zu füllen, als die Probanden der anderen beiden Gruppen.
Mit der Ausweitung von Implantatversorgungen auf den Seitenzahnbereich teilbezahnter Patienten haben sich in der internationalen Zahnheilkunde verschiedene Therapiekonzepte mit teilweise konträren Inhalten entwickelt, um die Komplikationsraten der prothetischen Versorgungen zu senken. Ziel dieser Arbeit ist die Analyse von implantatprothetischen Konzepten bei festsitzenden Versorgungen im Seitenzahnbereich sowie der Vergleich internationaler Studien mit der vorliegenden klinischen Langzeitstudie zur Bewährung von Suprastrukturen. Im Rahmen dieser prospektiven klinischen Studie wurden 357 Patienten mit 799 Implantaten im Seitenzahnbereich versorgt und regelmäßig jährlich nachuntersucht. Entsprechend ihrer Versorgung werden 346 implantatgetragene Einzelkronen, 83 verblockte Kronen, 108 reinimplantat- getragene Brücken und 111 Verbundbrücken unterschieden und die Überlebensraten dieser Suprastrukturen verglichen. In der Gruppe der implantatgetragenen Einzelkronen beträgt die Überlebensrate der Implantate nach fünf Jahren 97,9%. Der Anteil komplikationsloser Versorgungen in diesem Zeitraum beträgt 78%. Bei den verblockten Kronen wurden während des Untersuchungszeitraums keine Implantatverluste festgestellt, der Anteil komplikationsloser Versorgungen liegt nach fünf Jahren bei 84%. Im Bereich der reinimplantatgetragenen Brücken frakturierte eines der Implantate unter Belastung, so dass daraus eine 5-Jahres-Überlebensrate der Implantate von 99,6% resultiert. Bei 66,7% der Brücken traten keinerlei prothetische Komplikationen auf. Auch in der Gruppe der Verbundbrücken traten keine Implantatverluste auf. Zudem wiesen die Versorgungen in diesem Bereich mit einem Anteil komplikationsloser Versorgungen von 89,2% nach fünf Jahren die besten prothetischen Ergebnisse auf. In allen vier Gruppen zeigte sich die Dezementierung als häufigstes prothetisches Ereignis. Sowohl die Wahl des Implantatsystems als auch die Liegedauer weisen einen statistisch signifikanten Einfluss auf die Komplikationsrate der Suprastrukturen auf. Dagegen haben der Implantationsort (Ober- bzw. Unterkiefer, Prämolaren- bzw. Molarengebiet), die Zahl der Implantate im Verbund der prothetischen Konstruktion sowie der Implantatdurchmesser keinen statistisch signifikanten Einfluss hinsichtlich des Anteils der Suprakonstruktionen mit Komplikationen. Die festsitzende Versorgung von Implantaten mit bewährten prothetischen Konzepten zeigt in unserer klinischen Studie niedrigere Komplikationsraten als die Literatur. Selbst bei hohen Kaubelastungen, wie sie vor allem im Molarengebiet auftreten, kann auf die Verblockung von Kronen verzichtet werden. Zudem können Implantate im Rahmen einer Pfeilervermehrung mit natürlichen Zähnen verbunden werden, ohne dass daraus eine höhere Rate technischer Misserfolge resultiert. Dabei stellt die Dezementierung als häufigstes Ereignis keine echte prothetische Komplikation dar. Sie ist vielmehr abhängig von der Größe des verwendeten Abutments, von der Oberflächenbeschaffenheit von Abutment und Krone (poliert oder gestrahlt), von der Art des Befestigungszementes sowie von der Passgenauigkeit. Die Ergebnisse dieser klinischen Studie zeigen, dass bei Verwendung eines mechanisch hochfesten Implantatsystems auf spezielle implantatprothetische Konzepte verzichtet werden kann, sondern vielmehr zahnbasierte prothetische Konzepte übertragen werden können.
Die ionenstrahlinduzierte Desorption ist eine Beeinträchtigung der Leistungsfähigkeit moderner Hochstrom-Schwerionensynchrotrons. Umgeladene Projektilionen folgen in den Ablenkmagneten nicht der Sollbahn des Strahls und kollidieren mit der Strahlrohrwand. Dies führt zu einer stimulierten Gasabgabe an das Beschleunigervakuum. Der resultierende erhöhte Druck hat eine deutliche Einschränkung der Strahllebensdauer zur Folge. Um die Menge des abgegebenen Gases zu minimieren wurden zahlreiche Experimente durchgeführt, die der Bestimmung der Desorptionsausbeute (desorbierte Gasmoleküle pro auftretendem Ion) unterschiedlicher Materialien unter Bestrahlung mit verschiedenen Ionen dienten. Die vorliegende Arbeit ist ein Beitrag zum Verständnis der physikalischen Prozesse der ionenstrahlinduzierten Desorption. Die Messung der Desorptionsausbeuten mittels der Druckanstiegsmethode wurde erstmals mit Materialanalytiken wie ERDA und RBS kombiniert. Mit diesem einzigartigen experimentellen Aufbau kann das Desorptionsverhalten mit den Oberflächen- und Festkörpereigenschaften der Proben korreliert werden. Anhand der durchgeführten Experimente mit 1,4 MeV/u Xenon-Ionen konnte gezeigt werden, dass die ionenstrahlinduzierte Desorption im Wesentlichen ein Oberflächeneffekt ist. Zerstäubte Verunreinigungen oder abgetragene Oxidschichten von Metallen liefern keinen nennenswerten Beitrag zum desorbierten Gas. Dennoch ist die Desorptionsausbeute stark von den Festkörpereigenschaften der Probe abhängig. Rein metallische Proben desorbieren unter Bestrahlung mit schnellen Schwerionen weniger stark als Isolatoren. Durch die experimentellen Ergebnisse wurde es möglich, Desorptionsausbeuten unter Ionenbestrahlung anhand eines modiffizierten inelastischen Thermal-Spike-Modells vorauszusagen. Die Erweiterung des Modells ist die Kombination des Temperaturprofils mit der thermischen Desorption. Damit kann die ionenstrahlinduzierte Desorption als die Abgabe von Oberflächenadsorbaten, ausgelöst durch eine kurzzeitige Erhöhung der Oberflächentemperatur um den Ioneneinschlag herum, betrachtet werden.
Die Tradition des Drachenbootsports ist über 2200 Jahre alt und kommt aus dem fernen Osten Chinas. Doch erst vor einigen Jahrzehnten kam dieser Mannschaftssport auch nach Deutschland, der seitdem so viele Menschen begeistert. Dieser Faszination gegenüber steht die Sportwissenschaft, die sich bemüht, neu aufkommende Trendsportarten zu erforschen. Doch im Bereich des „Dragonboatings“ gab es bislang nur wenige Hinweise in der Literatur, so liegen derzeit keine aktuellen Zahlen über eine Verletzungs- und Fehlbeanspruchungsinzidenz vor. Im Rahmen dieser deskriptiven Arbeit wurden zum ersten Mal (in Deutschland) Erkenntnisse zur Epidemiologie und Pathogenese in einer bisher unerforschten Sportart geliefert.
Antibiotic resistance of pathogenic bacteria is a major worldwide problem. Bacteria can resist antibiotics by active efflux due to multidrug efflux pumps. The focus of this study has been the mycobacterial multidrug transporter TBsmr because it belongs to the small multidrug resistance (SMR) family whose members are a paradigm to study multidrug efflux due to their small size. SMR proteins are typically 11-12 kDa in size and have a four-transmembrane helix topology. They bind cationic, lipophilic antibiotics such as ethidium bromide (EtBr) and TPP+, and transport them across the membrane in exchange for protons. To understand the molecular mechanism of multidrug resistance, we have to gain information about the structure and function of these proteins. The research described in this thesis aimed to deduce details about the topology, transport cycle and key residues of TBsmr using biophysical techniques. Solid-state NMR (ssNMR) can provide detailed insight into structural organization and dynamical properties of these systems. However, a major bottleneck is the preparation of mg amounts of isotope labeled protein. In case of proteoliposomes, the problem is compounded by the presence of lipids which have to fit into the small active volume of the ssNMR rotor. In Chapter 3, an enhanced protein preparation is described which yields large amounts of TBsmr reconstituted in a native lipid environment suitable for further functional and structual studies. The achieved high protein-to-lipid ratios made a further characterization by ssNMR feasible. The transport activity and oligomeric state of the reconstituted protein in different types of lipid was studied as shown in Chapter 4. The exact oligomeric state of native SMR proteins is still uncertain but a number of biochemical and biophysical studies in detergent suggest that the minimal functional unit capable of binding substrate is a dimer. However, binding assays are not ideal since a protein may bind substrate without completing the transport cycle which can only be shown for reconstituted protein in transport assays.By combining functional data of a TPP+ transport assay with information about theoligomeric state of reconstituted TBsmr obtained by freeze-fracture electron microscopy, it could be shown that lipids affect the function and the oligomeric state of the protein, and that the TBsmr dimer is the minimal functional unit necessary for transport. The transport cycle must involve various conformational states of the protein needed for substrate binding, translocation and release. A fluorescent substrate will therefore experience a significant change of environment while being transported, which influences its fluorescence properties. Thus the substrate itself can report intermediate states that form during the transport cycle. In Chapter 5, the existence of such a substrate-transporter complex for the TBsmr and its substrate EtBr could be shown. The pH gradient needed for antiport has been generated by co-reconstituting TBsmr with bacteriorhodopsin. The measurements have shown the formation of a pH-dependant, transient substrate-protein complex between binding and release of EtBr. This state was further characterized by determining the Kd, by inhibiting EtBr transport through titration with non-fluorescent substrate and by fluorescence anisotropy measurements. The findings support a model with a single occluded intermediate state in which the substrate is highly immobile. Liquid-state NMR is a useful tool to monitor protein-ligand interactions by chemical shift mapping and thus identify and characterize important residues in the protein which are involved in substrate binding. In agreement with previous studies (Krueger-Koplin et al., 2004), the detergent LPPG was found to be highly suitable for liquid-state NMR studies of the membrane protein TBsmr and 42% of the residues could be assigned, as reported in Chapter 6. However, no specific interactions with EtBr were found. This observation was confirmed by LILBID mass spectrometry which showed that TBsmr was predominantly in the non-functional monomeric state. Functional protein was prepared in proteoliposomes which can be investigated by solidstate NMR (Chapter 7). Besides the essential E13, the aromatic residues W63, Y40, and Y60 have been shown to be directly involved in drug binding and transport. Different isotope labeling strategies were evaluated to improve the quality of the NMR spectra to identify and characterize these key residues. In a single tryptophan mutant of reconstituted TBsmr W30A, the binding of ethidium bromide could be detected by 13C solid-state NMR. The measurements have revealed two populations of the conserved W63 residue with distinct backbone structures in the presence of substrate. There is a controversy about the parallel or anti-parallel arrangement of the protomers in the EmrE dimer (Schuldiner, 2007) but this structural asymmetry is consistent with both a parallel and anti-parallel topology.
Auch Erdbeben haben ihre Geschichte. Obgleich Erdbeben nur kurze Ereignisse sind, die Erdstöße oft nicht länger als ein paar Sekunden dauern, haben sie eine lange Geschichte ihrer Deutung. Sie geht den Beben voraus und folgt ihnen noch lange nach. Von einer solchen Geschichte der Deutung handelt dieser Beitrag. Er nimmt ein Ereignis zur Vorlage, das wie kaum ein zweites Erdbeben in der Geschichte Europas Epoche gemacht hat: das Erdbeben von Lissabon 1755. Von dieser Katastrophe gibt es fast nur Deutungen, kaum Augenzeugenberichte, die nicht schon von den philosophischen und theologischen Diskursen überschrieben wären.
Die spinale Kompression bei Wirbelsäulenfrakturen löst eine komplexe Abfolge von pathophysiologischen Ereignissen aus. Dem neuronalen Primärschaden, der unmittelbar durch das Trauma entsteht, folgt ein Sekundärschaden, der durch die Aktivierung immunkompetenter Zellen vermittelt wird. Durch die Ausschüttung proinflammatorischer Zytokine und anderer potentiell neurotoxischer Faktoren wie Interleukin (IL)-1, IL-6, Tumor Nekrose Faktor (TNF)-α, Stickstoffmonoxid (NO) oder freier Radikale wird der initial entstandene Primärschaden verstärkt. Um die Hypothese zu prüfen, dass eine Hemmung von immunkompetenten Zellen mit dem Immunsuppressivum Mycophenolatmofetil (MMF) zu einem verbesserten Erhalt neuronaler Strukturen führt, wurde das etablierte Modell der organotypischen hippocampalen Schnittkultur (OHSC) gewählt. In diesem Modell können die komplexen Vorgänge der neuronalen Schädigung und der glialen Aktivierung exzellent dargestellt werden, da die verschiedenen Zelltypen des Hirngewebes in organotypischer Anordnung erhalten bleiben. Die reproduzierbare experimentelle Schädigung der OHSC wurde am 6. Tag in vitro (div) durch exzitotoxische Behandlung mit N-Methyl-d-Aspartat (NMDA; 50 μM; 4 h) erzielt. Zeitgleich mit der Schädigung mittels NMDA und weiter bis zum Fixationszeitpunkt nach 9 div wurde das Immunsuppressivum MMF verabreicht. Die mit NMDA geschädigten Schnittkulturen zeigten einen dramatischen neuronalen Schaden und eine starke Zunahme der Zahl der Mikrogliazellen. Die hier nach quantitativer Analyse mittels konfokaler Laser Scanning Mikroskopie ermittelten Korrelate des neuronalen Schadens, also die Zahl mit Propidiumiodid (PI) angefärbter, lädierter Neurone, und die Zahl der mit Griffonia simplicifolia (IB4) markierten Mikrogliazellen, wurden auf einen Wert von 100% normalisiert. Die Kontrollkulturen zeigten im Vergleich zu den geschädigten Kulturen fast keinen neuronalen Schaden (1,1% PI-markierte Zellen verglichen mit 100% in der mit NMDA geschädigten Gruppe, p<0,05), und nur wenige, ruhende Mikrogliazellen (13,8%, p<0,05). Nach Schädigung mittels NMDA und gleichzeitiger Verabreichung von MMF (10 μg/ml) zeigte sich eine signifikante Reduktion der Zahl PI-markierter Neurone auf 51,0% (p<0,05) und der Zahl der Mikrogliazellen auf 47,1 % (p<0,05), jeweils verglichen mit der NMDA-Gruppe. Bei der Verwendung von MMF in höherer Konzentration (100 μg/ml) wurden Werte von 50,4 % (p<0,05) für den neuronalen Schaden und 31,9 % (p<0,05) für die Zahl der Mikrogliazellen ermittelt. Die Kurzzeitverabreichung von MMF in einer Konzentration von 100 μg/ml für nur 4 Stunden parallel mit der exzitotoxischen Schädigung mittels NMDA resultierte nur in einer signifikanten Verminderung der Anzahl Mikrogliazellen auf 34,9% (p<0,01), nicht hingegen in einer signifikanten Reduzierung des neuronalen Schadens. Weiterhin konnte gezeigt werden, dass MMF einen antiproliferativen Effekt auf Gliazellen hat. Mittels Ki67-Färbung konnte nach Gabe von MMF im Vergleich zu den nur mit NMDA geschädigten Kulturen (100%) ein Rückgang der Zahl proliferierender Ki67+-Gliazellen auf 21,9% (MMF 10 μg/ml; p<0,01) bzw. 17% (MMF 100 μg/ml; p<0,01) gezeigt werden. Ferner wurden viele Zellen gesehen, die nach MMF-Gabe fragmentierte Kerne aufwiesen. Dieses Phänomen wurde als Zeichen von apoptotischen Vorgängen in Gliazellen aufgefasst. Die hier beschriebenen Ergebnisse zeigen, dass MMF den neuronalen Schaden und das Ausmaß der Mikrogliaaktivierung um ca. 50% reduziert. Zusätzlich wurde belegt, dass MMF einen antiproliferativen Effekt auf Mikrogliazellen und Astrozyten hat. Die Befunde sprechen für die genauere Charakterisierung der ermittelten neuroprotektiven Effekte in einem in vivo-Modell der spinalen Kompression.
Die Analyse der Ionisation des in Zürich durchgeführten Ionisationsexperimentes an Helium hat in erster Line gezeigt, wie exakt die optischen Eigenschaften der lambda/4 Platte bekannt sein müssen, um die richtigen Schlussfolgerungen aus den experimentellen Daten zu ziehen. Insbesondere, dass bei der Bandbreite des verwendeten Lichtes, rein zirkulare Laserpulse mit den heutzutage zu Verfügung stehenden Verzögerungsplatten nicht erzeugt werden können und wie gravierend sich eine Restelliptizität von wenigen Prozent auf die Impulsverteilung auswirkt. Wird dieses Wissen jedoch in die Analyse mit eingebracht, so erlaubt der präsentierte Ansatz eine Bestimmung des Ionisationszeitpunktes mit der Genauigkeit in der Größenordnung von 10 Prozent der Dauer einer Laserperiode. Diese Analyse erlaubt in Zukunft in Experimenten mit zirkular polarisierter Laserstrahlung beim Auftreten von Mehrfachionisation die Bestimmung der Zeitintervalle zwischen den einzelnen Ionisatiosereignissen. Des weiteren ermöglicht die vorgestellte Analyse aus den gemessenen Impulsvereilungen eine CEO-Phasenbeestimmung durzuführen, bei welcher die Anzahl der benötigten Ionisationsvorgänge geringer ist als bei der Benutzung eines Stereo-ATI. In Verbindung mit Detektorsystemen, welche in der Lage sind die Winkelverteilungen für Ereignisse zu bestimmen, bei denen sehr viele Ionisationsereignisse auf einmal auftreten, kann die Anzahl der Laserschüsse, die für die Bestimmung der CEO-Phase benötigt werden, stark verringert werden. Das Pump-and-Probe-Experiment liefert trotz der Problematik, welche sich in diesem Fall bei der Anwendung des Pump-and-Probe-Schemas auf Grund der zur Verfügung stehenden Wellenlänge ergeben einen Hinweis auf die Zeitdauer, die zur Isomerisation benötigt wird. Bei den gewählten Intensitäten ist nach einem Zeitraum zwischen 30 und 60 fs zwischen dem Pump- und Probe-Puls ein Anstieg der Anzahl der in drei Teilchen fragmentierten Moleküle zu beobachten, welche einer Vinylidenkonfiguration entstammen. Der relative Anstieg der Vinylidenpopulation beträgt zehn Prozent. Der Grund, dass kein Anstieg der Vinyliden Population von null an zu beobachten ist, ist wahrscheinlich dadurch begründet, dass die Isomerisation schon an den Flanken des Pump-Pulses stattfindet und schon vor Erreichen der maximalen Intensität des Pump-Pulses abgeschlossen ist. Der Analoge Prozess könnte an den Flanken des Probe-Pulses stattfinden. Dies muss durch eine separate theoretische Behandlung erörtert werden.
Während zerebraler Ischämie und Reperfusion (I/R) kommt es zur Bildung von reaktiver Sauerstoffspezies (ROS), von welchen ausgegangen wird, dass sie zum neuronalen Schaden beitragen. NADPH Oxidasen produzieren ROS. Wir untersuchten daher, ob und in welchem Maße NADPH Oxidasen am Gewebeschaden und insbesondere an der Schädigung der Blut-Hirn-Schranke (BHS) nach experimenteller I/R beteiligt sind. Hierfür induzierten wir an Wildtyp und NADPH Oxidase (gp91phox-/-) Knockout Mäusen in An-und Abwesenheit pharmakologischer Inhibitoren eine transiente zerebrale Ischämie mittels Fadenverschlusses der Arteria cerebri media (MCAO) für 120 Minuten mit anschließender Reperfusion. Das Infarktvolumen nach 24 Stunden war bei den Tieren mit fehlender funktioneller NADPH Oxidase (gp91phox-/-) bzw. (p47phox-/-) deutlich kleiner als in der Gruppe der Wildtyp Mäuse (TTC Färbung). I/R erhöhte bei den Wildtyp Mäusen im Vergleich zur kontralateralen Hemisphäre die BHS Permeabilität für Evans Blue innerhalb der ersten Stunde nach Ischämie signifikant. Apocynin, ein NADPH Oxidase Inhibitor schwächte diesen Effekt dosisabhängig signifikant ab. In der Gruppe der gp91phox Knockout-Tieren war dieser protektive Effekt auf die BHS Permeabilität noch ausgeprägter. In Schweinehirnendothelzellen (PBEC) induzierten wir durch I/R eine Translokation des NADPH Oxidase Aktivators Rac-1 an die Membran.Die deutliche Reduktion des BHS Schadens nach Hemmung von Rac-1 durch Clostridium difficile lethal Toxin B ( TcdB) und Atorvastatin weist darauf hin, dass dies die Folge der Inhibition der NADPH Oxidase Aktivierung war. Die Stimulation von PBEC mit H2O2 steigerte die Permeabilität, was durch die Inhibition der Phosphatidyl-Inositol-3-Kinase oder c-Jun N-terminale Kinase abgeschwächt werden konnte. Die Inhibition der Extracellular-regulated Kinase 1/2 oder p38 mitogen-activated-protein Kinase hatte dagegen keinen Effekt. Jedoch konnte die Inhibition von Rho eine ROS induzierte Steigerung der Permeabilität sowie eine ROS induzierte Polymerisation des Zytoskelett vollkommen unterbinden. Die Ergebnisse dieser Studie belegen, dass die Aktivierung der NADPH Oxidase ein zentraler Bestandteil der Pathophysiologie des ischämischen Infarktes ist und liefern darüber hinaus eine Erklärung für die positiven Effekte der Statintherapie beim Schlaganfall des Menschen. Die direkte Hemmung der NADPH Oxidase stellt ein vielversprechendes Prinzip in der Akuttherapie des ischämischen Infarktes dar.
The phenomenon of ´Siva-Buddha cult in Bali is more pronounced than in other places such as in East Java, South East Asian, or even in India itself, where ´Siva-Buddha took place as a major re-ligious life of the masses. We found in Bali that the Sanghyang ´Siva-Buddha has been wor-shipped as Sanghyang Tunggal, i.e. One God. As it is well known that the main problem of the syncretism of ´Siva-Buddha Cult in the course of Indonsian’s history is how to determine the proper meaning of syncretism, wether it is did happen on the level of philosophy, theology, or on the ground of social activities. In this regard, Bali has been provided rich sources to overcome of these difficulties. Many traditional’s literature of Bali called lontar contains either similarities or deep ties of the two religious lifes. Moreover, it is mingled with various aspects of Balinese arts, traditions, cultures and local worship. As the result that syncretism of ´Siva-Buddha Cult in Bali is considered very unique in sense that the fact that the ´Siva-Buddha Cult is the existing religious life till mowadays. Balinese scholar, particularly the Hindu’s priests has been maintain the problem through the ages, so that, literatures has been wrote and publish in accordance to the ´Siva-Buddha Cult. But, unfortunately, as it is mainly pre-seved in the royal pamily, the masses of Bali did not aware about what does they had practiced in daily live. Actually, they had practices the cult of ´Siva-Buddha, but they do not aware about it. The present work is tray to sum up the worship of ´Siva-Buddha Cult in Balinese traditional in regard to it main problem of syncretism on the bases of Tantrayana’s teaching and their approach to the historical background.
Der Verkauf von Immobiliendarlehen sorgt nach wie vor für Aufregung. Die Kreditwirtschaft sieht sich mit vehementen öffentlichen Vorwürfen konfrontiert, die den Kredithandel beeinträchtigen. Die Kreditinstitute werden indes nicht müde in ihren Beteuerungen, ordnungsgemäß bediente Kredite nicht an Finanzinvestoren zu veräußern und dabei hinzunehmen, dass ihre Kreditnehmer ihrer Wohnimmobilie verlustig gehen. Die praktische Bedeutung des Kredithandels ist gerade in Deutschland immens. Exemplarisch genannt sei als eine der größten bisherigen Transaktionen der Ende 2007 erfolgte Erwerb eines 53.000 Immobiliarkredite umfassenden Portfolios im Volumen von ca. 4,3 Mrd. Euro durch die ING Diba von der Hypo Real Estate. Unter der Überschrift "Verbesserte Transparenz bei Verkäufen von Kreditforderungen" hat die Bundesregierung um die letzte Jahreswende ein Maßnahmenpaket vorgelegt, mit dem auf Missbrauchsfälle beim Verkauf von Krediten reagiert werden soll. Inzwischen ist die Diskussion fortgeschritten, weitere Reformvorschläge sind in der Welt. Dabei sind die rechtlichen Rahmenbedingungen von Kreditverkäufen de lege lata auch nach einer einschlägigen BGH-Entscheidung vom 27. Februar 2007 noch immer nicht abschließend geklärt. Bevor in nachfolgendem Beitrag die aktuellen Reformansätze vorgestellt und einer kurzen Bewertung unterzogen werden, seien daher die derzeitige Praxis und Rechtslage untersucht.
After the pioneering German “Aktiengesetz” of 1965 and the Brazilian “Lei das Sociedades Anónimas” of 1976, Portugal has become the third country in the world to enact a specific regulation on groups of companies. The Code of Commercial Companies (“Código das Sociedades Comerciais”, abbreviately hereinafter CSC), enacted in 1986, contains a unitary set of rules regulating the relationships between companies, in general, and the groups of companies, in particular (arts. 481° to 508°-E CSC). With this set of rules, the Portuguese legislator has dealt with one of the major topics of modern Company Law. While this branch of law is traditionally conceived as the law of the individual company, modern economic reality is characterized by the massive emergence of large-scale enterprise networks, where parts of a whole business are allocated and insulated in several legally independent companies submitted to an unified economic direction. As Tom HADDEN put it: “Company lawyers still write and talk as if the single independent company, with its shareholders, directors and employees, was the norm. In reality, the individual company ceased to be the most significant form of organization in the 1920s and 1930s. The commercial world is now dominated both nationally and internationally by complex groups of companies”. This trend, which is now observable in any of the largest economies in the world, holds also true for small markets such as Portugal. Although Portuguese economy is still dominated by small and medium-sized enterprises, the organizational structure of the group has always been extremely common. During the 70s, it was estimated that the seven largest groups of companies owned about 50% of the equity capital of all domestic enterprises and were alone responsible for 3/4 of the internal national product. Such a trend has continued and even highlighted in the next decades, surviving to different political and economic scenarios: during the 80s, due to the process of state nationalization of these groups, an enormous public group with more than one thousand controlled companies has been created (“IPE - Instituto de Participações do Estado”); and during the 90s until today, thanks to the reprivatisation movement and the opening of our national market, we assisted to the re-emergence of some large private groups, composed of several hundred subsidiaries each, some of which are listed in foreign stock exchange markets (e.g., in the banking sector, “BCP – Banco Comercial Português”, in the industrial area, “SONAE”, and in the media and communication area, “Portugal-Telecom”).
Reform of the securities class action is once again the subject of national debate. The impetus for this debate is the reports of three different groups – The Committee on Capital Market Regulation, The Commission on the Regulation of U.S. Capital Markets In the 21st Century, and McKinsey & Company. Each of the reports focuses on a single theme: how the contemporary regulatory culture places U.S. capital markets at a competitive disadvantage to foreign markets. While multiple regulatory forces are targeted by each report’s call for reform, each of the reports singles out securities class actions as one of the prime villains that place U.S. capital markets at a competitive disadvantage. The reports’ recommendations range from insignificant changes to drastic curtailments of private class actions. Surprisingly, these current-day cries echo calls for reform heeded by Congress in the not too distant past. Major reform of the securities class action occurred with the Private Securities Litigation Reform Act of 1995.5 Among the PSLRA’s contributions is the introduction of procedures by which the court chooses from among competing petitioners a lead plaintiff for the class. The statute commands that the petitioner with the largest financial loss suffered as a consequence of the defendant’s alleged misrepresentation is presumed to be the most adequate plaintiff. Thus, the lead plaintiff provision supplants the traditional “first to file” rule for selecting the suit’s plaintiff with a mechanism that seeks to harness to the plaintiff’s economic self interest to the suits’ prosecution. Also, by eliminating the race to be the first to file, the lead plaintiff provision seeks to avoid “hair trigger” filings by overly eager plaintiffs’ counsel which Congress believed too frequently gave rise to incomplete and insubstantially pled causes of action. The PSLRA also introduced for securities class actions a heightened pleading requirement8 as well as a bar to the plaintiff obtaining any discovery prior to the district court disposing of the defendants’ motions to dismiss. By introducing the requirement that allegations involving fraud must be plead not only with particularity, but also that the pled facts must establish a “strong inference” of fraud, the PSLRA cast aside, albeit only for securities actions, the much lower notice pleading requirement that has been a fixture of American civil procedure for decades. Substantive changes to the law were also introduced by the PSLRA. With few exceptions, joint and several liability was replaced by proportionate liability so that a particular defendant’s liability is capped by that defendant’s relative degree of fault. Similarly, contribution rights among co-violators are also based on proportionate fault of each defendant. Three years after the PSLRA, Congress returned to the topic again by enacting the Securities Litigation Uniform Standards Act;13 this provision was prompted by aggressive efforts of plaintiff lawyers to bypass the limitations, most notably the bar to discovery and higher pleading requirement, of the PSLRA by bringing suit in state court. Post-SLUSA, securities fraud class actions are exclusively the domain of the federal court. In this paper, we examine the impact of the PSLRA and more particularly the impact the type of lead plaintiff on the size of settlements in securities fraud class actions. We thus provide insight into whether the type of plaintiff that heads the class action impacts the overall outcome of the case. Furthermore, we explore possible indicia that may explain why some suits settle for extremely small sums – small relative to the “provable losses” suffered by the class, small relative to the asset size of the defendantcompany, and small relative to other settlements in our sample. This evidence bears heavily on the debate over “strike suits.” Part I of this paper sets forth the contemporary debate surrounding the need for further reforms of securities class actions. In this section, we set forth the insights advanced in three prominent reports focused on the competitiveness of U.S. capital markets. In Part II we first provide descriptive statistics of our extensive data set, and thenuse multivariate regression analysis to explore the underlying relationships. In Part III, we closely examine small settlements for clues to whether they reflect evidence of strike suits. We conclude in Part IV with a set of policy recommendations based on our analysis of the data. Our goals in this paper are more modest than the Committee Report, the Chamber Report and the McKinsey Report, each of which called for wide-ranging reforms: we focus on how the PSLRA changed securities fraud settlements so as to determine whether the reforms it introduced accomplished at least some of the Act’s important goals. If the PSLRA was successful, and we think it was, then one must be somewhat skeptical of the need for further cutbacks in private securities class action so soon after the Act was passed.
Der Referentenentwurf eines Gesetzes zur Umsetzung der Aktionärsrechterichtlinie (ARUG), der am 6. Mai 2008 der Öffentlichkeit zugeleitet wurde, bringt einige lang erwartete und vorab in der Literatur viel diskutierte Neuerungen des Aktiengesetzes. Anlass für den Entwurf ist die Umsetzung der Richtlinie 2007/36/EG vom 11. Juli 2007 über die Ausübung bestimmter Rechte von Aktionären in börsennotierten Gesellschaften (sog. Aktionärsrechterichtlinie).2 Dem Ziel der Richtlinie folgend soll die grenzüberschreitende Ausübung von Aktionärsrechten erleichtert werden; dies betrifft vor allem die Möglichkeiten der Online-Teilnahme an der Hauptversammlung und die Kommunikation mit den Aktionären im Vorfeld der Hauptversammlung. Darüber hinaus wird die Richtlinienumsetzung vom deutschen Gesetzgeber zum Anlass genommen, das Aktienrecht noch in einigen weiteren Punkten zu ändern. So wird das Depotstimmrecht der Kreditinstitute weiter dereguliert und die Festsetzung eines Mindestbetrages bei Wandelschuldverschreibungen ermöglicht. Die Werthaltigkeitsprüfung bei Sacheinlagen im Rahmen von Gründungen und Kapitalerhöhungen wird eingeschränkt; damit werden einige Optionen der durch die Richtlinie 2006/68/EG3 geänderten Kapitalrichtlinie4 umgesetzt. Ein besonderer Schwerpunkt des Referentenentwurfs liegt auf der Konkretisierung der aktien-, umwandlungs- und konzernrechtlichen Freigabeverfahren, durch welche missbräuchliche Aktionärsklagen weiter eingedämmt werden sollen.
The market reaction to legal shocks and their antidotes : lessons from the sovereign debt market
(2008)
This Article examines the market reaction to a series of legal events concerning the judicial interpretation of the pari passu clause in sovereign debt instruments. More generally, the Article provides insights into the reactions of investors (predominantly financial institutions), issuers (sovereigns), and those who draft bond covenants (lawyers), to unanticipated changes in the judicial interpretation of certain covenant terms.
Im Normalfall, in dem Vorstand und Aufsichtsrat den Jahresabschluß feststellen (vgl. § 172 AktG), können sie einen Teil des Jahresüberschusses, höchstens jedoch die Hälfte, in „andere Gewinnrücklagen“1 einstellen (§ 58 Abs. 2 S. 1 AktG). Die Satzung kann Vorstand und Aufsichtsrat zur Einstellung eines größeren oder kleineren Teils des Jahresüberschusses ermächtigen; allerdings darf die Verwaltung aufgrund einer solchen Satzungsbestimmung keine Beträge in andere Gewinnrücklagen einstellen, wenn die anderen Gewinnrücklagen die Hälfte des Grundkapitals übersteigen oder soweit sie nach der Einstellung die Hälfte übersteigen würden (§ 58 Abs. 2 S. 2, 3 AktG). Nach § 58 Abs. 3 AktG kann die Hauptversammlung sodann in ihrem Beschluß über die Verwendung des Bilanzgewinns (vgl. § 174 AktG) weitere Beträge in Gewinnrücklagen einstellen oder als Gewinn vortragen. Im Folgenden werden nach einer Sichtung wirtschaftswissenschaftlicher Erwägungen zu Thesaurierung und Ausschüttung (unten II.) die Pflichten und die Kontrolle der Entscheidungen über die Gewinnverwendung von Vorstand und Aufsichtsrat einerseits (unten III.) und der Hauptversammlung andererseits (unten IV.) erörtert. V. faßt die Ergebnisse zusammen. Die besonderen Rechtsfragen, die sich bei Rücklagenbildung in abhängigen Gesellschaften ergeben, werden nicht behandelt.
How do fiscal and technology shocks affect real exchange rates? : New evidence for the United States
(2008)
Using vector autoregressions on U.S. time series relative to an aggregate of industrialized countries, this paper provides new evidence on the dynamic effects of government spending and technology shocks on the real exchange rate and the terms of trade. To achieve identification, we derive robust restrictions on the sign of several impulse responses from a two-country general equilibrium model. We find that both the real exchange rate and the terms of trade – whose responses are left unrestricted – depreciate in response to expansionary government spending shocks and appreciate in response to positive technology shocks.
Motivated by the prominent role of electronic limit order book (LOB) markets in today’s stock market environment, this paper provides the basis for understanding, reconstructing and adopting Hollifield, Miller, Sandas, and Slive’s (2006) (henceforth HMSS) methodology for estimating the gains from trade to the Xetra LOB market at the Frankfurt Stock Exchange (FSE) in order to evaluate its performance in this respect. Therefore this paper looks deeply into HMSS’s base model and provides a structured recipe for the planned implementation with Xetra LOB data. The contribution of this paper lies in the modification of HMSS’s methodology with respect to the particularities of the Xetra trading system that are not yet considered in HMSS’s base model. The necessary modifications, as expressed in terms of empirical caveats, are substantial to derive unbiased market efficiency measures for Xetra in the end.
We explore the pattern of elderly homeownership using microeconomic surveys of 15 OECD countries, merging 60 national household surveys on about 300,000 individuals. In all countries the survey is repeated over time, permitting construction of an international dataset of repeated cross-sectional data. We find that ownership rates decline considerably after age 60 in all countries. However, a large part of the decline depends on cohort effects. Adjusting for them, we find that ownership rates start falling after age 70 and reach a percentage point per year decline after age 75. We find that differences across country ownership trajectories are correlated with indicators measuring the degree of market regulations.
This paper introduces adaptive learning and endogenous indexation in the New-Keynesian Phillips curve and studies disinflation under inflation targeting policies. The analysis is motivated by the disinflation performance of many inflation-targeting countries, in particular the gradual Chilean disinflation with temporary annual targets. At the start of the disinflation episode price-setting firms’ expect inflation to be highly persistent and opt for backward-looking indexation. As the central bank acts to bring inflation under control, price-setting firms revise their estimates of the degree of persistence. Such adaptive learning lowers the cost of disinflation. This reduction can be exploited by a gradual approach to disinflation. Firms that choose the rate for indexation also re-assess the likelihood that announced inflation targets determine steady-state inflation and adjust indexation of contracts accordingly. A strategy of announcing and pursuing short-term targets for inflation is found to influence the likelihood that firms switch from backward-looking indexation to the central bank’s targets. As firms abandon backward-looking indexation the costs of disinflation decline further. We show that an inflation targeting strategy that employs temporary targets can benefit from lower disinflation costs due to the reduction in backward-looking indexation.
Monetary policy analysts often rely on rules-of-thumb, such as the Taylor rule, to describe historical monetary policy decisions and to compare current policy to historical norms. Analysis along these lines also permits evaluation of episodes where policy may have deviated from a simple rule and examination of the reasons behind such deviations. One interesting question is whether such rules-of-thumb should draw on policymakers "forecasts of key variables such as inflation and unemployment or on observed outcomes. Importantly, deviations of the policy from the prescriptions of a Taylor rule that relies on outcomes may be due to systematic responses to information captured in policymakers" own projections. We investigate this proposition in the context of FOMC policy decisions over the past 20 years using publicly available FOMC projections from the biannual monetary policy reports to the Congress (Humphrey-Hawkins reports). Our results indicate that FOMC decisions can indeed be predominantly explained in terms of the FOMC´s own projections rather than observed outcomes. Thus, a forecast-based rule-of-thumb better characterizes FOMC decision-making. We also confirm that many of the apparent deviations of the federal funds rate from an outcome-based Taylor-style rule may be considered systematic responses to information contained in FOMC projections.
Risk transfer with CDOs
(2008)
Modern bank management comprises both classical lending business and transfer of asset risk to capital markets through securitization. Sound knowledge of the risks involved in securitization transactions is a prerequisite for solid risk management. This paper aims to resolve a part of the opaqueness surrounding credit-risk allocation to tranches that represent claims of different seniority on a reference portfolio. In particular, this paper analyzes the allocation of credit risk to different tranches of a CDO transaction when the underlying asset returns are driven by a common macro factor and an idiosyncratic component. Junior and senior tranches are found to be nearly orthogonal, motivating a search for the whereabout of systematic risk in CDO transactions. We propose a metric for capturing the allocation of systematic risk to tranches. First, in contrast to a widely-held claim, we show that (extreme) tail risk in standard CDO transactions is held by all tranches. While junior tranches take on all types of systematic risk, senior tranches take on almost no non-tail risk. This is in stark contrast to an untranched bond portfolio of the same rating quality, which on average suffers substantial losses for all realizations of the macro factor. Second, given tranching, a shock to the risk of the underlying asset portfolio (e.g. a rise in asset correlation or in mean portfolio loss) has the strongest impact, in relative terms, on the exposure of senior tranche CDO-investors. Our findings can be used to explain major stylized facts observed in credit markets.
We show that the use of correlations for modeling dependencies may lead to counterintuitive behavior of risk measures, such as Value-at-Risk (VaR) and Expected Short- fall (ES), when the risk of very rare events is assessed via Monte-Carlo techniques. The phenomenon is demonstrated for mixture models adapted from credit risk analysis as well as for common Poisson-shock models used in reliability theory. An obvious implication of this finding pertains to the analysis of operational risk. The alleged incentive suggested by the New Basel Capital Accord (Basel II), amely decreasing minimum capital requirements by allowing for less than perfect correlation, may not necessarily be attainable.
The paper proposes a panel cointegration analysis of the joint development of government expenditures and economic growth in 23 OECD countries. The empirical evidence provides indication of a structural positive correlation between public spending and per-capita GDP which is consistent with the so-called Wagner´s law. A long-run elasticity larger than one suggests a more than proportional increase of government expenditures with respect to economic activity. In addition, according to the spirit of the law, we found that the correlation is usually higher in countries with lower per-capita GDP, suggesting that the catching-up period is characterized by a stronger development of government activities with respect to economies in a more advanced state of development.
Natural killer (NK) cells are white blood lymphocytes of the innate immune system that have diverse biological functions, including recognition and destruction of certain microbial infections and neoplasms [1]. NK cells comprise ~ 10% of all circulating lymphocytes and are also found in peripheral tissues including the liver, peritoneal cavity and placenta. Resting NK cells circulate in the blood, but, following activation by cytokines, they are capable of extravasation and infiltration into most tissues that contain pathogen-infected or malignant cells [2-5]. NK cells discriminate between normal and abnormal cells (infected or transformed) through engagement and dynamic integration of multiple signaling pathways, which are initiated by germline-encoded receptors [6-8]. Healthy cells are protected from NK cell-mediated lysis by expression of major histocompatibility complex (MHC) class I ligands for NK cell inhibitory receptors [6, 9]. The MHC is a group of highly polymorphic glycoproteins that are expressed by every nucleated cell of vertebrates, and that are encoded by the MHC gene cluster. The human MHC molecules are termed human leucocyte antigen (HLA)-A, B and C molecules. Every NK cell expresses at least one inhibitory receptor that recognizes a self-MHC class I molecule. So, normal cells that express MHC class I molecules are protected from self-NK cells, but transformed or infected cells that have down-regulated MHC class I expression are attacked by NK cells [10]. There are 2 distinct subsets of human NK cells identified mainly by cell surface density of CD56. The majority (approximately 90%) of human NK cells are CD56dimCD16bright and express high levels of FcγRIII (CD16), whereas a minority (approximately 10%) are CD56brightCD16dim/- [11]. Resting CD56dim NK cells are more cytotoxic against NK-sensitive targets than CD56bright NK cells [12]. However, after activation with interleukin (IL)-2 or IL-12, CD56bright cells exhibit similar or enhanced cytotoxicity against NK targets compared to CD56dim cells [12-14]. The functions of NK cells are regulated by a balance of signals (Fig. 1.1). These are transmitted by inhibitory receptors, which bind MHC class I molecules, and activating receptors, which bind ligands on tumors and virus-infected cells [15]. These receptors are completely encoded in the genome, rather than being generated by somatic recombinations, like T- and B-cell receptors.
Vor einigen Jahren habe ich bereits über die Verbreitung und Ökologie der Seidenbiene Colletes collaris Dours berichtet (Westrich 1997). Diese Art ist in Deutschland extrem selten. Ihr aktueller Verbreitungsschwerpunkt liegt im Kaiserstuhl (Westrich et al. 2000). Die Untersuchungen von Pollenladungen von Weibchen aus dem gesamten Areal hatten gezeigt, daß die Art oligolektisch und auf Asteraceae spezialisiert ist. Als Pollenquellen bisher bekannt geworden sind Aster linosyris, Hieracium umbellatum, Picris hieracioides, Senecio erucifolius, Solidago virgaurea und Carduus acanthoides. Im Jahr 2006 machte ich im Kaiserstuhl ergänzende Beobachtungen zum Blütenbesuch, über die ich hier berichte.
Im Winter 1994/1995 wurden in drei Landschilfbeständen am Bodensee (Aach-Ried, Wollmatinger Ried, Konstanz) 294 Schilfgallen von Lipara lucens (Chloropidae) gesammelt. Davon wurden 223 für die Zucht und 82 für den Laborversuch zur Prüfung der Überfl utungstoleranz ausgewählt. Die gefluteten Gallen wurden entweder ½ Tag, 2 Tage oder 4 Tage bei Außentemperaturen im Februar unter Wasser gesetzt und anschließend mit 141 weiteren Gallen (Kontrolle) in Zuchtgläser verbracht. Neben Lipara lucens wurden folgende Arten aus den Gallen gezogen: Apidae (Bienen): Hylaeus pectoralis, Osmia leucomelana; Sphecidae (Grab wespen): Pemphredon lethifer, Trypoxylon attenuatum; Eumenidae (solitäre Falten wespen): Stenodynerus xanthomelas; Gaster up tionidae (Schmal bauchwespen): Gasteruption assectator, Gasteruption phragmiticola; Chrysi didae (Goldwespen): Chrysis cyanea; Eulophidae: Melittobia acasta. Die dominanten Arten waren: Hylaeus pectoralis and Pemphredon lethifer. Die Unterschiede im Artenspektrum der einzelnen Probeflächen waren teils beträchtlich. Insbesondere die Besiedlung durch Hylaeus pectoralis variierte von Lokalität zu Lokalität. Die stark ruderalisierte Probestelle bei Konstanz-Lindenbühl wies das höchste Artenspektrum auf und Pemphredon lethifer hatte hier die höchste Besiedlungsdichte. Dies deutet auf gestörte Verhältnisse im Vergleich zur Probefläche im Aach-Ried hin, einem weitgehend natürlichen Landröhricht. Sowohl aus den Kontrollgallen als auch aus den gefluteten Gallen sind jeweils mehrere Arten, teils in größerer Zahl geschlüpft. Die Unterschiede in der Schlüpfrate (72,4 % bei den Kontrollgallen, 66,7 % bei einer Flutungsdauer von ½ Tag, 69,3 % bei einer Flutungsdauer von 2 Tagen und 51,7 % bei einer Flutungsdauer von 4 Tagen) erklären sich daraus, daß unterschiedlich viele Gallen nicht besiedelt waren. Dies resultiert demnach nicht aus einem möglichen Einfl uß der Überfl utung. Dies hat sich durch ein nachträgliches Öffnen der Gallen bestätigt. Die Gallenerzeugerin Lipara lucens verträgt eine Überflutung ohne Schädigung ebenso wie ihre Parasitoide. Die als Folgesiedler auftretenden nestbauenden Bienen und Grabwespen sind an die Überfl utung dadurch angepaßt, daß entweder ihre Brutzellen mit spezifi schen Materialien ausgekleidet sind (Hylaeus pectoralis) oder daß die winterliche Diapause in selbstgesponnenen Kokons als Ruhelarve überdauert wird (Pemphredon lethifer, Trypoxylon attenuatum). Daraus resultiert: Eine Überflutung im Winterhalbjahr während eines Zeitraumes von ½ Tag bis zu 4 Tagen beeinflußt die Schlüpfrate der Gallenbesiedler nicht. Diese Aussage gilt streng genommen jedoch nur für die Versuchsbedingungen mit sauberem und stehendem Wasser. Belastetes See- oder Flußwasser hat möglicherweise eine andere Auswirkung auf die Gallenbewohner. Stark fließendes Wasser kann die Schilfgallen abknicken und weg spülen. In den zusammengeschwemmten Genisten sind sie erhöhter Feuchtigkeit, stärkerer Verpilzung und damit einer stärkeren Schädigung ausgesetzt.
Das Pollensammelverhalten von Weibchen von Colletes hederae, die in einem Sandkasten eines Kindergartens von Mössingen, einer Stadt in Südwest-Deutschland nisteten, wurde in den Jahren 2006 und 2007 untersucht. Im Jahr 2006 fand die Entnahme der Pollenproben vom 12. September bis 17. Oktober statt, im Jahr 2007 vom 14. September bis 7. Oktober. Insgesamt wurden 169 Pollenladungen gesammelt und lichtmikroskopisch analysiert. In der ersten Hälfte der Flugzeit des Jahres 2006 enthielten die Pollenladungen außer Hedera helix einen vergleichsweise hohen Anteil von Asteraceae, Fabaceae und insbesondere Colchicaceae. Der Pollentyp mit dem höchsten Anteil war der von Colchicum autumnale, einer Pfl anzenart, die der Autor nie zuvor in der Pollenladung einer Wildbiene gefunden hatte. Um den Pollen dieser Pflanze zu sammeln, flogen die Bienen mindestens 700 m weit über das bebaute Stadtgebiet hinweg ins Offenland, wo die Herbstzeitlose in Streuobstwiesen blühte. Colletes hederae scheint beim Pollensammeln in der Hinsicht fl exibel zu sein, daß dann andere Pollenquellen genutzt werden, wenn die artspezifi sche Pollenquelle nicht zur Verfügung steht. Ein solches Verhalten wurde vom Verfasser auch in Südfrankreich und im Kaiserstuhl beobachtet, wo Odontites luteus sowie Solidago canadensis bzw. Solidago gigantea besammelt wurden. Auch an diesen Lokalitäten war der Efeu zum Zeitpunkt der Beobachtungen noch nicht voll aufgeblüht. Bemerkenswert ist vor allem, daß ausnahmslos alle Weibchen der von mir untersuchten Mössinger Population dann zum Efeu als Pollenquelle wechselten, sobald dieser voll aufgeblüht war (2006) bzw. erst gar nicht an anderen Pflanzen zu sammeln begannen, wenn er zum Zeitpunkt des Beginns der Verproviantierung bereits voll blühte (2007). Dies bestätigt erneut das Phänomen der Oligolektie. Allerdings bleibt ungeklärt, ob die Larven den Pollen anderer Pflanzenfamilien in gleicher Weise verwerten können wie Hedera-Pollen.
Resistenz polyklonaler, reifer T-Zellen gegenüber der Transformation durch retrovirale Transduktion
(2008)
Nach den ersten Erfolgen der Gentherapie bei angeborenen Immundefekten wurden einige Fälle von Leukämie nach gammaretroviralem Gentransfer in Blutstammzellen bei Patienten mit „severe combined immunodeficiency“ (SCID-X1) veröffentlicht. Diese entfachten eine Diskussion über das Risiko der Insertionsmutagenese bei der Verwendung gammaretroviraler Vektoren. Durch eine insertionsbedingte Transaktivierung potentieller Onkogene und damit verbundenen malignen Veränderungen können gammaretroviral transduzierte Blutstammzellen Leukämien hervorrufen. Aber nicht nur Blutstammzellen werden als Zielzellen in der Gentherapie genutzt. In der Gruppe von Laer wurde in den letzten Jahren eine neue Gentherapie der HIV-1 Infektion entwickelt. Hierbei werden dem Patienten genetisch geschützte, autologe T-Lymphozyten infundiert. Die Gefahr einer Leukämie durch Insertionsmutagenese sollte im Zuge dieser Studie für reife T-Lymphozyten evaluiert werden. In einer vergleichenden Analyse wurde untersucht, ob der gammaretrovirale Gentransfer in reife T-Lymphozyten die gleiche Genotoxizität birgt wie in hämatopoetische Stammzellen. Hierzu wurden reife T-Lymphozyten und hämatopoetische Progenitoren von C57BL/6(Ly5.1)-Mäusen mit multiplen Kopien gammaretroviraler Vektoren transduziert, die für die potenten T-Zell Onkogene LMO2, TCL1, dTrkA oder das Kontrollgen GFP kodierten. Es wurden sehr hohe Transduktionseffizienzen mit bis zu 70% für reife T-Lymphozyten und bis zu 98% für hämatopoetische Progenitoren erzielt, um möglichst leukämiefördernde Bedingungen zu schaffen. Nach Transplantation in kongene Rag-1 defiziente Empfängertiere (Ly5.2) entwickelten Onkogen-modifizierte Stammzellen nach einer charakteristischen Latenzperiode Leukämien/Lymphome. Am häufigsten wurden unreife, CD8+CD4+ doppelpositive T-Vorläufer Leukämien/Lymphome beobachtet. In einigen Rezipienten führte außerdem eine Überexpression von TCL1 in hämatopoetischen Stammzellen zu der Entwicklung von reifzelligen T-Zell Leukämien/Lymphomen und B-Zell Leukämien/Lymphomen. Die Integrationsanalyse ergab oligo- bis monoklonale Tumore, wobei keine offensichtlich tumorfördernden, die gammaretroviralen Insertionen flankierenden Gene identifiziert werden konnten. Bemerkenswerterweise entwickelte keines der T-Zell transplantierten Empfängertiere ein/e Lymphom/Leukämie, obwohl auch diese Zellen mit den gleichen Vektoren modifiziert wurden und über einen sehr langen Zeitraum persistierten. Um die Kontrollmechanismen dieser Resistenz näher zu untersuchen, wurde eine für den TCR monoklonale, adulte T-Zell Population mit dTrkA transduziert. Nach einer kurzen Latenzperiode entwickelten sich reifzellige T-Zell Leukämien/Lymphome. Anscheinend existiert eine Verbindung zwischen der relativen Transformationsresistenz reifer T-Lymphozyten und dem Konkurrenzverhalten verschiedener T-Zell Klone um stimulatorische MHC-TCR Nischen. Weiterhin wurde in vitro durch gammaretroviralen Transfer von LMO2 ein immortalisierter T-Zell Klon generiert. Dieser zeigte zwar nach einer langen Beobachtungszeit einen CD8-CD4-doppelnegativen Phänotyp, aber auch einen rekombinierten TCR. In vitro überwuchs er eine unmanipulierte Kompetitorpopulation, konnte jedoch nach Transplantation kein/e T-Zell Lymphom/Leukämie induzieren. Die LM-PCR Analyse des Klons lieferte eine sehr interessante Integration zwischen den Genen für die alpha-Ketten des IL-2 und des IL-15 Rezeptors, welche dadurch konstitutiv exprimiert wurden. Dies könnte das erste Beispiel für eine insertionsbedingte Immortalisierung eines adulten T-Zell Klons sein. In der vorliegenden Arbeit konnte zum ersten Mal eindeutig gezeigt werden, dass polyklonale, reife T-Zell Populationen in vivo eine hohe Transformationsresistenz aufweisen. Durch bestimmte Bedingungen können jedoch durchaus maligne Veränderung adulter, reifer T-Lymphozyten induziert werden. Für die Sicherheitsabschätzung gammaretroviraler Gentherapie-Studien mit reifen T-Lymphozyten sind die vorgestellten Ergebnisse von großer Bedeutung und könnten darüber hinaus Aufschluss über die populationsdynamischen Kontrollmechanismen reifer T-Zell Leukämien/Lymphome geben.
Kaum ein Thema der mittelalterlichen Kunst wurde so kontrovers diskutiert wie eine Gruppe plastischer Marienbilder am Ende des 14. Jahrhunderts. Diese Madonnenfiguren, die als "Schöne Madonnen" in die Kunstgeschichte eingegangen sind, hatten nur eine relativ kurze Blütezeit (1380–1420/30). Dennoch beherrschte dieser Bildtypus das plastische Marienbild der Zeit "um 1400". Die Provenienz der Schönen Madonnen liegt vorwiegend im osteuropäischen Raum (Böhmen, Deutschordensländer) und in Österreich (Salzburg, Wien) - im Reich Kaiser Karl IV. Gleiches gilt für ihr "trauriges Pendant", dem zeitgenössischen Vesperbild. ...
Identifizierung und Charakterisierung von Liganden für Faktor VIII neutralisierende Antikörper
(2008)
Das Fehlen von funktionellem Blutgerinnungsfaktor VIII (FVIII) in Hämophilie A- (HA-) Patienten wird durch Substitution mit FVIII-Präparaten therapiert. Die wesentlichste gegenwärtige Komplikation der FVIII-Ersatz-Therapie besteht in dem Auftreten von FVIII neutralisierenden Antikörpern (Inhibitoren) gegenüber exogenem FVIII. Diese können mittels verschiedener, kostenintensiver Therapien zur Induktion einer Immuntoleranz (ITI) mit unterschiedlichem Erfolg eliminiert werden. Für Patienten mit persistierenden Inhibitoren bedeuten diese nicht nur eine drastische Verminderung der Lebensqualität sondern ein lebensbedrohliches Szenario. Eine Liganden-vermittelte Blockierung von neutralisierenden anti-FVIII Antikörpern sowie die zielgerichtete Ansteuerung des Rezeptors FVIII-spezifischer Gedächtnis-B-Zellen stellen mögliche Ansätze zur Verwirklichung antigenspezifischer ITI-Strategien für eine dauerhafte, vollständige Eliminierung von FVIII-Inhibitoren dar. Zu diesem Zweck wurden in dieser Arbeit durch Screening von phagenpräsentierten, randomisierten Peptidbibliotheken mit Inhibitor-positiven Patientenplasmen Peptidliganden selektioniert. Diese wiesen eine spezifische Bindung von anti-FVIII Antikörpern in den verwendten Plasmen auf. Durch den Einsatz entsprechender Software konnten AS-Konsensusmotive der Peptidsequenzen möglichen, konformationellen, funktionellen Inhibitorepitopen in der A2- sowie C2-Domäne von FVIII zugeordnet werden. Die von in silico-Analysen vorgegebene Domänenspezifität der anti-FVIII Antikörper wurde in Bindungsstudien mit rekombinant exprimierten FVIII-Domänen verfiziert. Die korrespondierenden, synthetischen Peptidliganden blockierten die IgG-Bindung an FVIII und regenerierten partiell dessen Aktivität im Plasma. Die Peptide stellten funktionelle Mimotope der möglichen Inhibitorepitope in der A2- und C2-Domäne dar. Da FVIII neutralisierende Antikörper zumeist Epitope in beiden Domänen erkennen, wurden die Mimotope kombiniert, was in einer noch effektiveren Blockierung von FVIII-Inhibitoren resultierte. Weiterhin wiesen Mimotopkombinationen Kreuzreaktivität mit anti-FVIII IgG in heterologen Patientenplasmen auf. Durch Fusion der Peptide an die Multimerisierungsdomäne der alpha-Kette des humanen C4-Bindeproteins konnten in Zellkultur heptamere Proteine generiert werden. Gegenüber den synthetischen Peptiden wiesen die Multimere aufgrund ihrer Multivalenz sowie der strukturellen Integrität eine deutlich verbesserte Blockierung von anti-FVIII IgG auf. Das Multimerisierungskonzept erlaubte ferner die Kombination unterschiedlicher Peptidliganden in einem Heteromultimer, was anhand der selektierten, funktionellen Mimotope für mögliche A2- und C2-Epitope getestet wurde. Weiterhin zeichneten sich die Inhibitor-spezifischen Multimere gegenüber den synthetischen Peptiden durch deutlich verlängerte Halbwerstzeiten aus. In Präparationen peripherer mononuklearer Zellen (PBMCs) von Patienten färbten synthetische Peptide sowie Fluoreszenz-markierter FVIII B-Zellsubpopulationen mit einem Gedächntis-B-Zell Phänotyp (CD19+IgG+). Gedächtnis-B-Zellen in PBMCs wurden polyklonal stimuliert. Im ELISPOT-Verfahren konnten Tetanusspezifische, jedoch keine FVIII-spezifischen Zellen, detektiert werden. Im Gegensatz zu den verwandten Kontrollen bewirkte eine Präinkubation der Zellen mit dem Peptid 12C6, welches an das toxische D-AS-Peptid (KLAKLAK)2 gekoppelt war, allerdings eine Reduktion von anti-FVIII IgG in den Überständen stimulierter Zellen.
Im Rahmen der Arbeit wird empirisch untersucht, welche Reaktionen die Veröffentlichung von Periodenergebnissen als Teil der Unternehmenspublizität am deutschen Kapitalmarkt auslöst, welches die Bestimmungsfaktoren für das Ausmaß der Kapitalmarktreaktionen sind und ob Unternehmen in der Lage sind, durch ihre Publizitätsentscheidungen die Kapitalmarktreaktionen auf die Veröffentlichung von Periodenergebnissen zu beeinflussen. Kapitalmarktreaktionen auf die Veröffentlichung von Periodenergebnissen werden im Rahmen dieser Arbeit anhand von Aktienkursen und Handelsvolumen (Informationsgehalt) sowie anhand von Geld-Brief-Spannen (Informationsasymmetrie) gemessen. Als Ergebnis kann ein erhöhtes Ausmaß an abnormalen Renditen und Handelsvolumen am Tag der Ergebnisankündigung festgestellt werden, was darauf hinweist, dass Ergebnisankündigungen Informationsgehalt besitzen. Weiterhin kann festgestellt werden, dass durch Ergebnisankündigungen anhand von Geld-Brief-Spannen gemessene Informationsasymmetrien sinken. Weiterhin zeigt sich, dass die Kapitalmarktreaktion umso stärker ist, je mehr zusätzliche Informationen zusammen mit dem Periodenergebnis veröffentlicht werden. In diesem Zusammenhang kann auch gezeigt werden, dass sowohl Aktienkurs- und Handelsvolumenreaktionen als auch Geld-Brief-Spannen bei Anwendung international anerkannter Rechnungslegungsgrundsätze größer sind als bei Anwendung handelsrechtlicher Grundsätze. Dabei zeigt sich, dass Aktienkursreaktionen und Geld-Brief-Spannen über den Untersuchungszeitraum, der als Gewöhnungsphase an international anerkannte Rechnungslegungsgrundsätze angesehen werden kann, sinken und das Handelsvolumen steigt. Darüber hinaus kann gezeigt werden, dass die Kapitalmarktreaktion umso geringer ausfällt, je mehr oder je qualitativ hochwertiger die Unternehmenspublizität vor der Ergebnisankündigung ausfällt.
Ein wesentlicher Forschungsgegenstand der Kernphysik ist die Untersuchung der Eigenschaften von Kernmaterie. Das Verständnis darüber gibt in Teilen Aufschluss über die Erscheinungsweise und Wechselwirkung von Materie. Ein Schlüssel liegt dabei in der Untersuchung der Modifikation der Eigenschaften von Hadronen in dem Medium Kernmaterie, das durch Parameter wie Dichte und Temperatur gekennzeichnet werden kann. Man hofft damit unter anderem Einblick in die Mechanismen zu bekommen, welche zur Massenbildung der Hadronen beitragen. Zur Untersuchung solcher Modifikationen eignen sich insbesondere Vektormesonen, die in e+e- Paare zerfallen. Die Leptonen dieser Paare wechselwirken nicht mehr stark mit der Materie innerhalb der Reaktionszone, und tragen somit wichtige Informationen ungestört nach außen. Das HADES-Spektrometer bei GSI wird dazu verwendet die leichten bei SIS-Energien produzierten Vektormesonen rho, omega und phi zu vermessen. Hierzu wurde zum erste mal das mittelschwere Stoßsystem Ar+KCl bei einer Strahlenergie von 1,76 AGeV gemessen. Die im Vergleich zum früher untersuchten System C+C höhere Spurmultiplizität innerhalb der Spektrometerakzeptanz verlangte eine Anpassung der bisher verwendeten Datenanalyse. Das bisher verwendete Verfahren, mehrere scharfe Schnitte auf verschiedene Observablen seriell anzuwenden, um einzelne Leptonspuren als solche zu identifizieren, wurde durch eine neu entwickelte multivariate Analyse ersetzt. Dabei werden die Informationen aller beteiligten Observablen mit Hilfe eines Algorithmus zeitgleich zusammengeführt, damit Elektronen und Positronen vom hadronischen Untergrund getrennt werden können. Durch Untersuchung mehrerer Klassifizierer konnte ein mehrschichtiges künstliches neuronalen Netz als am besten geeigneter Algorithmus identifiziert werden. Diese Art der Analyse hat den Vorteil, dass sie viel robuster gegenüber Fluktuationen in einzelnen Observablen ist, und sich somit die Effizienz bei gleicher Reinheit steigern lässt. Die Rekonstruktion von Teilchenspuren im HADES-Spektrometer basiert nur auf wenigen Ortsinformationen. Daher können einzelne vollständige Spuren a priori nicht als solche gleich erkannt werden. Vielmehr werden durch verschiedene Kombinationen innerhalb derselben Mannigfaltigkeit von Positionspunkten mehr Spuren zusammengesetzt, als ursprünglich produziert wurden. Zur Identifikation des maximalen Satzes eindeutiger Spuren eines Ereignisses wurde eine neue Methode der Spurselektion entwickelt. Während dieser Prozedur werden Informationen gewonnen, die im weiteren Verlauf der Analyse zur Detektion von Konversions- und pi0-Dalitz-Paaren genutzt werden, die einen großen Beitrag zum kombinatorischen Untergrund darstellen. Als Ergebnis wird das effizienzkorrigierte, und auf die mittlere Zahl der Pionen pro Ereignis normierte, Spektrum der invarianten Elektronpaarmasse präsentiert. Erste Vergleiche mit der konventionellen Analysemethode zeigen dabei eine um etwa 30% erhöhte Rekonstruktionseffizienz. Das Massenspektrum setzt sich aus mehr als 114.000 Paaren zusammen -- über 16.000 davon mit einer Masse größer als 150 MeV. Ein erster Vergleich mit einem einfachen thermischen Modell, welches durch den Ereignisgenerator Pluto dargestellt wird, eröffnet die Möglichkeit, die hier gefundenen Produktionsraten des omega- und phi-Mesons durch m_T-Skalierung an die durch andere Experimente ermittelten Raten des eta zu koppeln. In diesem Zusammenhang findet sich weiterhin ein von der Einschussenergie abhängiger Produktionsüberschluss von F(1,76) = Y_total/Y_PLUTO = 5,3 im Massenbereich M = 0,15...0,5 GeV/c^2. Die theoretische Erklärung dieses Überschusses birgt neue Erkenntnisse zu den in-Medium Eigenschaften von Hadronen.
In this work the nuclear structure of exotic nuclei and superheavy nuclei is studied in a relativistic framework. In the relativistic mean-field (RMF) approximation, the nucleons interact with each other through the exchange of various effective mesons (scalar, vector, isovector-vector). Ground state properties of exotic nuclei and superheavy nuclei are studied in the RMF theory with the three different parameter sets (ChiM, NL3, NL-Z2). Axial deformation of nuclei within two drip lines are performed with the parameter set (ChiM). The position of drip lines are investigated with three different parameter sets (ChiM, NL3, NL-Z2) and compared with the experimental drip line nuclei. In addition, the structure of hypernuclei are studied and for a certain isotope, hyperon halo nucleus is predicted.
In this work we study the non-equilibrium dynamics of a quark-gluon plasma, as created in heavy-ion collisions. We investigate how big of a role plasma instabilities can play in the isotropization and equilibration of a quark-gluon plasma. In particular, we determine, among other things, how much collisions between the particles can reduce the growth rate of unstable modes. This is done both in a model calculation using the hard-loop approximation, as well as in a real-time lattice simulation combining both classical Yang-Mills-fields as well as inter-particle collisions. The new extended version of the simulation is also used to investigate jet transport in isotropic media, leading to a cutoff-independent result for the transport coefficient $hat{q}$. The precise determination of such transport coefficients is essential, since they can provide important information about the medium created in heavy-ion collisions. In anisotropic media, the effect of instabilities on jet transport is studied, leading to a possible explanation for the experimental observation that high-energy jets traversing the plasma perpendicular to the beam axis experience much stronger broadening in rapidity than in azimuth. The investigation of collective modes in the hard-loop limit is extended to fermionic modes, which are shown to be all stable. Finally, we study the possibility of using high energy photon production as a tool to experimentally determine the anisotropy of the created system. Knowledge of the degree of local momentum-space anisotropy reached in a heavy-ion collision is essential for the study of instabilities and their role for isotropization and thermalization, because their growth rate depends strongly on the anisotropy.
Die vorliegende Arbeit betrachtet aus der Perspektive der Kulturanthropologie, auf welchen Wissensprozessen die Erklärungsmodelle von Psychiatern im Bezug auf die klinische Depressionstherapie beruhen. Die Elemente, aus denen das Wissenskonzept eines Arztes zusammengesetzt ist, müssen sich im praktischen Handeln, also in der therapeutischen Situation mit dem Patienten, bewähren. Dabei ist weitaus mehr notwendig als das Verordnen einer Pille, die das chemische Ungleichgewicht im Gehirn reguliert. Anhand derklinischen Depressionstherapie soll deutlich werden, auf welche Weise Psychiater in ihrer Praxis auf explizites und implizites Wissen zurückgreifen und dieses in ihr Erklärungsmodell integrieren, wann ihr Erfahrungswissen relevant wird und wie damit Handeln auch angesichts von Unsicherheiten oder widersprüchlichen Diskursen in der psychiatrischen Profession möglich ist.
Risk transfer with CDOs
(2008)
Modern bank management comprises both classical lending business and transfer of asset risk to capital markets through securitization. Sound knowledge of the risks involved in securitization transactions is a prerequisite for solid risk management. This paper aims to resolve a part of the opaqueness surrounding credit-risk allocation to tranches that represent claims of different seniority on a reference portfolio. In particular, this paper analyzes the allocation of credit risk to different tranches of a CDO transaction when the underlying asset returns are driven by a common macro factor and an idiosyncratic component. Junior and senior tranches are found to be nearly orthogonal, motivating a search for the where about of systematic risk in CDO transactions. We propose a metric for capturing the allocation of systematic risk to tranches. First, in contrast to a widely-held claim, we show that (extreme) tail risk in standard CDO transactions is held by all tranches. While junior tranches take on all types of systematic risk, senior tranches take on almost no non-tail risk. This is in stark contrast to an untranched bond portfolio of the same rating quality, which on average suffers substantial losses for all realizations of the macro factor. Second, given tranching, a shock to the risk of the underlying asset portfolio (e.g. a rise in asset correlation or in mean portfolio loss) has the strongest impact, in relative terms, on the exposure of senior tranche CDO-investors. Our findings can be used to explain major stylized facts observed in credit markets.
Do we measure what we get?
(2008)
Performance measures shall enhance the performance of companies by directing the attention of decision makers towards the achievement of organizational goals. Therefore, goal congruence is regarded in literature as a major factor in the quality of such measures. As reality is affected by many variables, in practice one has tried to achieve a high degree of goal congruence by incorporating an increasing number of these variables into performance measures. However, a goal congruent measure does not lead automatically to superior decisions, because decision makers’ restricted cognitive abilities can counteract the intended effects. This paper addresses the interplay between goal congruence and complexity of performance measures considering cognitively-restricted decision makers. Two types of decision quality are derived which allow a differentiated view on the influence of this interplay on decision quality and learning. The simulation experiments based on this differentiation provide results which allow a critical reflection on costs and benefits of goal congruence and the assumptions regarding the goal congruence of incentive systems.
Inhaltsverzeichnis Frau R.s Rückschau nach 25 Jahren Bethel - Religiöse Genossenschaften als prägende Kraft der Diakonie (bis ca. 1965) - Arbeitsschritte I. Der Patriarchalismus der Gründergeneration und ihrer Erben - Familienprinzip, Mutterhaus, Anstaltshaus - Das Pflegehaus Hebron als Beispiel - Religiöse Vormundschaft II. Das Ende der religiösen Bevormundung (um 1970) - Die Nachwuchskrise der Mutterhäuser - Veränderte Lebensentwürfe junger, christlicher Frauen in der Nachkriegszeit - Reaktionen Sareptas und Nazareths auf ihren Bedeutungsverlust im Betheler Anstaltsgefüge nach 1968 - Gastarbeiterinnen für die Hauswirtschaft (1960) - „Zivile Kräfte“ im Pflegebereich (um 1965) - Mangel an Fachlichkeit, Kooperationsbereitschaft und Kritikvermögen: Ein Votum für die Abschaffung der Hausväter in der Jugendhilfe (1970) - Neue Konzepte im Konflikt mit tradierter Religiosität III. Religiöse Selbstverantwortung und diakonische Unternehmensidentität - Entwicklungen in den v. Bodelschwinghschen Anstalten Bethel seit 1983 - Thesen zur gegenwärtigen Situation
Wie aus den angeführten Informationen hervorgeht, hatten die vorislamischen Araber, obwohl allgemein Rechtsunsicherheit bei ihnen herrschte und es keine von allen Parteien anerkannten gerichtlichen und administrativen Instanzen gab, einige strafrechtliche Institutionen. Sie suchten Lösungen für ihre Streitigkeiten bei bestimmten Personen, die Êai¿, sayyid und kÁhin genannt wurden. Man weiß auch, dass einige Stammesoberhäupter richterliche Funktionen in ihrem Stamm ausübten. Außer ihrer persönlichen Macht besaßen diese Personen aber keine Sanktionskraft. Wenn eine der Konfliktparteien den Beschluß des Richters nicht akzeptierte, konnte man ihr gegenüber Vorwürfe erheben – ansonsten aber nichts ausrichten. Trotzdem wissen wir aus den Quellen, dass es unter den vorislamischen Arabern Persönlichkeiten gab, die für ihre richterlichen Kompetenzen bekannt waren und die schwierige Probleme sowohl zwischen den Konfliktparteien als auch zwischen den Stämmen gelöst haben. Wir wissen auch, dass die vorislamischen Araber die Hand des Diebes oder der Diebe abhackten. Man sagt, dass al-WalÍd b. Mu™Íra (st. 622 n. Chr.) derjenige gewesen sei, der zum ersten Mal diese Strafe vollzogen habe. Es werden in den Quellen auch etliche arabische Personen aus vorislamischer Zeit angeführt, die aufgrund von Diebstahl mit diese Strafe bedacht wurden. Darüber hinaus wurden Banditen und Räuber sehr hart bestraft. Der Islam hat alle diese Strafen vor dem Hintergrund seiner Lehre bewertet und in erneuerter oder modifizierter Form übernommen. Es zeichnen sich bei den vorislamischen Arabern zwei wichtige strafrechtliche Hauptinstitutionen ab: die Wiedervergeltung (qiÈÁÈ) und das Blutgeld (diya). Neben diesen beiden Einrichtungen gab es bei ihnen auch eine Schwur-(qasam)Institution, die vorsah, dass im Fall eines Mords verdächtige Personen, die sich in der Nähe der Leiche befanden, einen Schwur darauf zu leisten hatten, dass sie an dem Tod des Betroffenen keine Schuld trugen. Der Islam hat diese Form der Schwur-Institution vollständig adoptiert und die beiden strafrechtlichen Hauptinstitutionen mit einigen Modifizierungen übernommen. Es wird angenommen, dass die Aufnahme der Wiedervergeltung durch den Islam dazu dienen sollte, das Individuum zu stärken und die starken Stammesbindungen der Personen zu lockern. Denn es war nicht möglich, einen Staat aufzubauen, ohne die mächtigen Stammesbindungen zu schwächen resp. aufzulösen. Während dies offenbar durch das Prinzip der Wiedervergeltung bezweckt wurde, scheint die Ausweitung der Zahlung von Sühnegeld darauf gezielt zu haben, die Blutrache zu beschränken und ihre in der Gesellschaft Unruhe und Unsicherheit stiftende Wirkung einzudämmen.
Wie aus den Ausführungen über die Reise Moses mit ¾i±r im Koran hervorgeht, wird ¾i±r als ein hoch verehrter Wissender betrachtet, der von Gott belehrt worden ist. Dank dieser umfangreichen Lehre ist er zu den verborgenen inneren Wahrheiten der Erscheinungen vorgedrungen, während Moses keine Kenntnis davon hatte, obwohl er Prophet war. Es ist interessant zu bemerken, dass Moses trotz seiner hohen Stellung als Prophet, dem die Tora gegeben wurde, und trotz seiner Beschreibung als „kalÍm AllÁh“ dem Wissenden folgen und von ihm einen Teil seines Wissens lernen will. Diese Gefolgschaft Moses kann nicht allein durch seine große Bescheidenheit erklärt werden. Die Geschichte von ¾i±r zeigt, dass dessen Wissen höher eingestuft wird als das Wissen von Moses, da diesem ansonsten nicht gesagt worden wäre, dass der Wissende über einen höheren Grad des Wissens verfügt und er sich mit seinem Jünger auf die Suche nach ihm Wissenden machen solle. In den darauf bezogenen Versen gibt es keine näheren Angaben über die Beschaffenheit dieses Wissen, außer dass es von Gott stammt. Auch lassen die Bedingungen, welche ¾i±r Moses am Beginn der Reise stellt, auf den Charakter dieses Wissens schließen. Es ist bekannt, dass dieses Wissen nicht dem Wissen ähnlich sieht, welches durch Bücher erlernt werden kann. Das Wissen (Geheimlehre, versteckte Lehre) ist in den hier zur Diskussion stehenden Versen als eine Art Hingabe an Gott dargestellt. Es hat den Anschein, dass es der Mystik nahe steht und die Mystiker es durch ihnen eigene Methoden und innere Disziplinen zu erreichen suchen. ¾i±r ist auch aus diesem Grund eine unentbehrliche Figur für die islamischen Mystik und nimmt zurecht bei den Mystikern eine zentrale Stellung ein.
Methodology and Objects: Methodologically, from a diachronic linguistics perspective regarding the concept of the shin, spirits in folk belief in China and neighbouring cultures, we compare texts that comprise meanings a) historically in the local language and b) compared to the meanings of equivalent terms in languages of other cultures. Comparing sources of this belief, we examine if and how the shin belief can serve as an example of communication across cultural borders including practical forms of worshipping. Argumentation: We argue that the concept of the shin is across cultural and national borders a result from folk culture transcending political or cultural borders transmitted via migration of ethnic groups. Although similar, mind concepts of different cultures and groups never melted; evidence for this independence gives the Islamic distinctive separation between shin and jinn in this area in the Chinese Quran and other spiritual Chinese writings. On the other hand, the practice of worshipping is similar. Conclusions: A spiritual concept like shin varies in practice in different areas. Central Asia as the melting pot of Chinese and Middle East culture shows the cultural practice of Shamanism with shin belief, complex mind concepts like in Daoism, and religions incorporating shin belief (Islam). Observed changes in the particular local languages show the continuity of the local set of meanings. Multilingual and multicultural areas such as Central Asia rather integrate new words to increase their thesaurus with new meanings than to change the set of previous existing meanings in the languages. Arabic as a language of conquerors in Central Asia is a typical example for such a language that serves as a tool to set up new meanings.
Einleitung Politischer Agitator, Schriftsteller und Menschenfreund - mit diesen Begriffen beschrieb Wolfgang Hildesheimer den Hessen Georg Büchner (1813-1837) im Jahre 1966 bei seiner Rede zur Verleihung des Büchner-Preises. Damit würdigte er einen überragenden Autor des deutschen Vormärz, der unter anderem mit dem revolutionären Pamphlet Der Hessische Landbote sowie mit der Sozialtragödie Woyzeck zwei außergewöhnliche Werke schuf, die seit rund 170 Jahren nichts an Aktualität eingebüßt haben. Büchners literarische Arbeiten faszinieren das heutige Publikum ebenso stark, wie einst die Menschen im 19. Jahrhundert. Weniger bekannt als sein OEuvre sind jedoch die Hintergründe und Voraussetzungen, die den in Goddelau geborenen Schriftsteller zu jener Person werden ließen, auf die Hildesheimers Bezeichnungen zutreffen. Die Wurzeln hierfür sind in Büchners Gießener Studienzeit (Oktober 1833 bis September 1834) zu finden, während welcher der mit den Unterdrückten „mitleidende[ ] Dichter“ begann, sich erstmals aktiv in die deutsche Politik einzumischen und gleichzeitig den ersten Schritt in die schriftstellerische Tätigkeit zu wagen. Bisher beschäftigte sich die Forschung lediglich am Rande mit Büchners Aufenthalt in der ehemals oberhessischen Universitätsstadt, so dass es an einer ausführlichen Analyse seiner dort entwickelten revolutionären Ideen noch fehlt. Besonders interessant ist die Tatsache, dass Büchner an seinem ersten Studienort Straßburg (1831-1833) von den Nachwirkungen der Französischen Revolution inspiriert wurde und diese Anstöße in Gießen zu eigenen sozialrevolutionären Ansätzen weiterentwickelte, die Anfang des 19. Jahrhunderts in Deutschland absolute Innovationen darstellten. Das Ideengut, das er während der Gießener Zeit sammelte, verarbeitete er sowohl im Hessischen Landboten als auch Jahre später in Woyzeck. Das Hauptanliegen dieser Arbeit ist es, eine Verknüpfung von Büchners eigenen Erfahrungen aus der Gießener Studienzeit mit seinem Wirken als Schriftsteller und politischer Agitator sichtbar zu machen, um schließlich dessen revolutionäre Errungenschaften, die aus diesem Lebensabschnitt hervorgegangen sind, herauszuarbeiten. Zum ersten Mal sollen nun Büchners gesamte Neuerungen aufgezeigt werden, die er während einer für ihn höchst brisanten Zeit entwickelt hatte.
Background The EGF receptor has been shown to internalize via clathrin-independent endocytosis (CIE) in a ligand concentration dependent manner. From a modeling point of view, this resembles an ultrasensitive response, which is the ability of signaling networks to suppress a response for low input values and to increase to a pre-defined level for inputs exceeding a certain threshold. Several mechanisms to generate this behaviour have been described theoretically, the underlying assumptions of which, however, have not been experimentally demonstrated for the EGF receptor internalization network. Results Here, we present a mathematical model of receptor sorting into alternative pathways that explains the EGF-concentration dependent response of CIE. The described mechanism involves a saturation effect of the dominant clathrin-dependent endocytosis pathway and implies distinct steady-states into which the system is forced for low vs high EGF stimulations. The model is minimal since no experimentally unjustified reactions or parameter assumptions are imposed. We demonstrate the robustness of the sorting effect for large parameter variations and give an analytic derivation for alternative steady-states that are reached. Further, we describe extensibility of the model to more than two pathways which might play a role in contexts other than receptor internalization. Conclusions Our main result is that a scenario where different endocytosis routes consume the same form of receptor corroborates the observation of a clear-cut, stimulus dependent sorting. This is especially important since a receptor modification discriminating between the pathways has not been found. The model is not restricted to EGF receptor internalization and might account for ultrasensitivity in other cellular contexts.