Refine
Year of publication
- 2008 (2463) (remove)
Document Type
- Article (956)
- Doctoral Thesis (315)
- Part of Periodical (270)
- Book (262)
- Working Paper (137)
- Part of a Book (131)
- Review (129)
- Report (89)
- Conference Proceeding (59)
- Preprint (26)
Language
- German (1550)
- English (765)
- French (45)
- Croatian (42)
- Portuguese (35)
- Multiple languages (8)
- Italian (6)
- mis (4)
- Spanish (4)
- dut (2)
Is part of the Bibliography
- no (2463) (remove)
Keywords
- Deutsch (47)
- Filmmusik (42)
- Literatur (40)
- Rezension (40)
- Germanistik (31)
- Russland (29)
- Linguistik (25)
- Übersetzung (22)
- Jelinek, Elfriede (20)
- Theater (18)
Institute
- Medizin (234)
- Extern (207)
- Präsidium (129)
- Biochemie und Chemie (87)
- Biowissenschaften (71)
- Physik (64)
- Erziehungswissenschaften (62)
- Gesellschaftswissenschaften (61)
- Center for Financial Studies (CFS) (59)
- Geowissenschaften (52)
A graph theoretical approach to the analysis, comparison, and enumeration of crystal structures
(2008)
As an alternative approach to lattices and space groups, this work explores graph theory as a means to model crystal structures. The approach uses quotient graphs and nets - the graph theoretical equivalent of cells and lattices - to represent crystal structures. After a short review of related work, new classes of cycles in nets are introduced and their ability to distinguish between non-isomorphic nets and their computational complexity are evaluated. Then, two methods to estimate a structure’s density from the corresponding net are proposed. The first uses coordination sequences to estimate the number of nodes in a sphere, whereas the second method determines the maximal volume of a unit cell. Based on the quotient graph only, methods are proposed to determine whether nets consist of islands, chains, planes, or penetrating, disconnected sub-nets. An algorithm for the enumeration of crystal structures is revised and extended to a search for structures possessing certain properties. Particular attention is given to the exclusion of redundant nets and those, which, by the nature of their connectivity, cannot correspond to a crystal structure. Nets with four four-coordinated nodes, corresponding to sp3 hybridised carbon polymorphs with four atoms per unit cell, are completely enumerated in order to demonstrate the approach. In order to render quotient graphs and nets independent from crystal structures, they are reintroduced in a purely graph-theoretical way. Based on this, the issue of iso- and automorphism of nets is reexamined. It is shown that the topology of a net (that is the bonds in a crystal) constrains severely the symmetry of the embedding (that is the crystal), and in the case of connected nets the space group except for the setting. Several examples are studied and conclusions on phases are drawn (pseudo-cubic FeS2 versus pyrite; α- versus β- quartz; marcasite- versus rutile-like phases). As the automorphisms of certain quotient graphs stipulate a translational symmetry higher than an arbitrary embedding of the corresponding net would show, they are examined in more detail and a method to reduce the size of such quotient graphs is proposed. Besides two instructional examples with 2-dimensional graphs, the halite, calcite, magnesite, barytocalcite, and a strontium feldspar structures are discussed. For some of the structures it is shown that the quotient graph which is equivalent to a centred cell is reduced to a quotient graph equivalent to the primitive cell. For the partially disordered strontium feldspar, it is shown that even if it could be annealed to an ordered structure, the unit cell would likely remain unchanged. For the calcite and barytocalcite structures it is shown that the equivalent nets are not isomorphic.
Eine große Anzahl pharmakologischer und klinischer Studien zeigt die Wirksamkeit des standardisierten Ginkgo biloba Extraktes EGb 761 bei vaskulären und kognitiven Stö-rungen, wie der Alzheimer-Krankheit, der vaskulären Demenz und der peripheren arte-riellen Verschlusskrankheit. Experimentelle Ergebnisse weisen darauf hin, dass Terpen-laktone und Flavonolglykoside für die meisten pharmakologischen Wirkungen von EGb 761 verantwortlich sind. Allerdings gibt es wenige Studien, die die orale Biover-fügbarkeit von Terpenlaktonen und besonders von Flavonolglykosiden aus Ginkgo bilo-ba im Blut oder Zentralnervensystem untersuchten. Deshalb wurde in dieser Arbeit die Fähigkeit der Flavonoidglykosiden bzw. deren Metaboliten die Blut-Hirn-Schranke zu überwinden im Tierversuch an männlichen Sprague-Dawley-Ratten erforscht. Unter-sucht wurden dabei orale Einfach- und Mehrfachgaben von EGb 761 über einen Zeit-raum von 8 Tagen in den Dosierungen 100 bzw. 600 mg Extrakt pro kg Körpergewicht. Zusätzlich wurde die Verteilung der Ginkgoflavonolmetabolite in den unterschiedlichen Bereichen des Gehirns untersucht (Hippocampus, frontaler Cortex, Striatum und Klein-hirn). Zu diesem Zweck wurde eine HPLC-Fluoreszenzmethode für die Ermittlung der Plasma- und Gehirnkonzentrationen der Flavonoidmetaboliten (Derivate von Quercetin, Kämpferol und Isorhamnetin) entwickelt und validiert. In beiden Studien (Einfach- und Mehrfachgabe) wurden Flavonoidmetaboliten im Plasma und im Gehirn nachgewiesen. Dabei wurden Metaboliten in allen untersuchten Gehirnbereichen gefunden. Bei der Dosierung von 100 mg/kg war Kämpferol vorzugsweise im frontalen Cortex lokalisiert, während die anderen Flavonole in allen Regionen vergleichbare Konzentrationen auf-wiesen. Bei der höheren Dosierung von 600 mg/kg waren die Konzentrationen der Fla-vonolmetaboliten in allen Gehirnbereichen vergleichbar. Obgleich die vier untersuchten Gehirnbereiche nur 38% des gesamten Gehirns darstellten, wurden die meisten Gink-goflavonole in diesen Regionen gefunden. Im übrigen Gehirngewebe wurden nur be-grenzte Mengen von Flavonolen nachgewiesen. Zusammenfassend kann festgehalten werden, dass es erstmalig gelungen ist, im Tier-versuch die Bioverfügbarkeit einer der therapeutisch aktiven Substanzklassen von Ginkgo biloba - die Flavonoide - sowohl im Plasma als auch im ZNS nachzuweisen.
In this work data of the NA49 experiment at CERN SPS on the energy dependence of multiplicity fluctuations in central Pb+Pb collisions at 20A, 30A, 40A, 80A and 158A GeV, as well as the system size dependence at 158A GeV, is analysed for positively, negatively and all charged hadrons. Furthermore the rapidity and transverse momentum dependence of multiplicity fluctuations are studied. The experimental results are compared to predictions of statistical hadron-gas and string-hadronic models. It is expected that multiplicity fluctuations are sensitive to the phase transition to quark-gluon-plasma (QGP) and to the critical point of strongly interacting matter. It is predicted that both the onset of deconfinement, the lowest energy where QGP is created, and the critical point are located in the SPS energy range. Furthermore, the predictions for the multiplicity fluctuations of statistical and string-hadronic models are different, the experimental data might allow to distinguish between them. The used measure of multiplicity fluctuations is the scaled variance omega, defined as the ratio of the variance and the mean of the multiplicity distribution. In the NA49 experiment the tracks of charged particles are detected in four large volume time projection chambers (TPCs). In order to remove possible detector effects a detailed study of event and track selection criteria is performed. Naively one would expect Poisson fluctuations in central heavy ion collisions. A suppression of fluctuations compared to a Poisson distribution is observed for positively and negatively charged hadrons at forward rapidity in Pb+Pb collisions. At midrapidity and for all charged hadrons the fluctuations are larger than the Poisson ones. The fluctuations seem to increase with decreasing system size. It is suggested that this is due to increased relative fluctuations in the number of participants. Furthermore, it was discovered that omega increases for decreasing rapidity and transverse momentum. A hadron-gas model predicts different values of omega for different statistical ensembles. In the grand-canonical ensemble, where all conservation laws are fulfilled only on the average, not on an event-by-event basis, the predicted fluctuations are the largest ones. In the canonical ensemble the charges, namely the electrical charge, the baryon number and the strangeness, are conserved for each event. The scaled variance in this ensemble is smaller than for the grand-canonical ensemble. In the micro-canonical ensemble not only the charges, but also the energy and the momentum are conserved in each event, the predicted $omega$ is the smallest one. The grand-canonical and canonical formulations of the hadron-gas model over-predict fluctuations in the forward acceptance. In contrast to the experimental data no dependence of omega on rapidity and transverse momentum is expected. For the micro-canonical formulation, which predicts small fluctuations in the total phase space, no quantitative calculation is available yet for the limited experimental acceptance. The increase of fluctuations for low rapidities and transverse momenta can be qualitatively understood in a micro-canonical ensemble as an effect of energy and momentum conservation. The string-hadronic model UrQMD significantly over-predicts the mean multiplicities but approximately reproduces the scaled variance of the multiplicity distributions at all measured collision energies, systems and phase-space intervals. String-hadronic models predict for Pb+Pb collisions a monotonous increase of omega with collision energy, similar to the observations for p+p interactions. This is in contrast to the predictions of the hadron-gas model, where omega shows no energy dependence at higher energies. At SPS energies the predictions of the string-hadronic and hadron-gas models are in the same order of magnitude, but at RHIC and LHC energies the difference in omega in the full phase space is much larger. Experimental data should be able to distinguish between them rather easily. Narrower than Poissonian (omega < 1) multiplicity fluctuations measured in the forward kinematic region (1<y(pi)<y_{beam}) can be related to the reduced fluctuations predicted for relativistic gases with imposed conservation laws. This general feature of relativistic gases may be preserved also for some non-equilibrium systems as modeled by the string-hadronic approaches. A quantitative estimate shows that the predicted maximum in fluctuations due to a first order phase transition from hadron-gas to QGP is smaller than the experimental errors of the present experiment and can therefore neither be confirmed nor disproved. No sign of increased fluctuations as expected for a freeze-out near the critical point of strongly interacting matter is observed.
In the first part of this study, we have identified the two steroid hormones progesterone and norgestimate as novel TRPC channel blockers. Both substances blocked TRPC-mediated Ca2+ influx with micromolar activities in fluorometric measurements. TRPC channel inhibition did not seem to be a general steroid effect since another progestin, the norgestimate metabolite levonorgestrel, was not effective. Norgestimate was 4- to 5-fold more active on the TRPC3/6/7 subfamily compared to TRPC4/5, whereas progesterone was similarly potent. This selectivity of norgestimate was confirmed by patch clamp recordings. As norgestimate blocked channels directly gated by DAG with a fast kinetic, we assume the compound acts on the channel protein itself. This view was further substantiated by the lack of effects on IP3R-mediated Ca2+ release from the endoplasmic reticulum, which is activated in parallel with TRPCs by Gq/11-coupled receptor stimulation. Norgestimate did not only block ectopically expressed TRPC channels but also native, TRPC-mediated currents in rat aortic smooth muscle cells with similar activity. The usefulness of norgestimate as a tool compound for the investigation of physiological TRPC functions was tested in isolated vessel rings. Consistent with TRPC6 being an essential component of the alpha-1-adrenoceptor-activated cation channel, we demonstrated a direct vasorelaxant, endothelium-independent effect of norgestimate on rat aortic rings precontracted with phenylephrine. Thus, our results provide further experimental support for a role of TRPC6 in alpha-1-adrenergic vessel constriction. In the second part of this study, we screened a human aorta cDNA-library for novel TRPC4-interacting proteins with a modified yeast two-hybrid (Y2H) system in which the TRPC4-C-terminus was expressed as tetrameric bait protein, thereby mimicking the native channel conformation. Of the eleven interacting proteins found SESTD1 was chosen for further analyses since it contains a phospholipid-binding Sec14p-like domain and thus could be involved in regulation of TRPC channels by phospholipids. After the biochemical validation of the found interaction, the first spectrin domain of SESTD1 was then identified to interact with the CIRB domain of TRPC4 in directed Y2H tests. SESTD1 also co-immunoprecipitated with the closely related TRPC5 protein in which the SESTD1-binding domain is highly conserved. Independent of the CIRB site, co-immunoprecipitation with TRPC6 and the distantly related TRPM8 channel was observed indicating the existence of other sites in these channel proteins that mediate interaction with SESTD1. Analysis of SESTD1 gene expression in human tissues showed that its transcripts are ubiquitously expressed and tissues with significant coexpression with TRPC4 and -5 were identified. We have generated two polyclonal antisera directed against SESTD1 that consistently detected SESTD1 protein in brain, aorta, heart, and in smooth muscle and endothelial cells. The functional consequences of the found interaction were investigated by examination of the TRPC5-mediated Ca2+ influx in a clonal HM1 cell line stably expressing the channel. Since SESTD1 overexpression had no detectable effects on TRPC5-mediated Ca2+ influx, most likely due to expression of endogenous SESTD1, we knocked-down the native protein with specific siRNA. This procedure reduced TRPC5-mediated Ca2+ influx following receptor stimulation by 50%. Parallel biotinylation experiments did not reveal any differences in cell surface expressed TRPC5-protein, suggesting that reduction of TRPC5 activity resulted from a loss of a direct SESTD1 effect on the channel. In addition, in immunofluorescence experiments we observed that reduced SESTD1 protein levels resulted in a redistribution of the multifunctional protein ß-catenin from the plasma membrane to the cytosol. This result may point to an involvement of SESTD1 in formation and maintenance of adherens junctions. SESTD1 contains a phospholipid-binding Sec14p-like domain and we were the first to demonstrate its Ca2+-dependent binding to phosphatidic acid and all physiological phosphatidylinositol mono- and bisphosphates in vitro. The physiological function of this binding activity is not known at present, but it could play a role in regulation of associated TRPC channels. TRPC4 and -5 channels are activated by phospholipid hydrolysis and also bind phospholipids directly. The identification of SESTD1 as novel TRPC-interacting protein could thus be an important step forward in the investigation and better comprehension of the complex molecular mechanisms of TRP channel regulation by lipids.
Weiterentwicklung und Evaluation eines drei-dimensionalen Hautmodelles zur pharmakologischen Testung
(2008)
Die vorliegende Arbeit beschäftigt sich mit Gruppen von quasi-Automorphismen von Graphen, genauer gesagt, von gefärbten Graphen. Ein gefärbter Graph ist ein Graph, dessen Kantenmenge in eine disjunkte Vereinigung von Mengen von Kanten einer bestimmten Farbe zerlegt ist. Ein Automorphismus eines solchen Graphen muss insbesondere die Farben der Kanten respektieren. Ein quasi-Automorphismus eines solchen Graphen ist eine Bijektion der Eckenmenge auf sich selbst, die nur endlich oft die Autmomorphismeneigenschaft verletzt, d.h. nur endlich viele Kanten nicht respektiert und nur endlich viele Kanten neu entstehen läßt. Die Menge der quasi-Automorphismen eines Graphen bildet eine Untergruppe in der Gruppe der Permutationen der Eckenmenge. Eine Auswahl interessanter Beispiele solcher Gruppen und manche ihrer Eigenschaften sind neben einigen grundsätzlichen Überlegungen Thema dieser Arbeit. Die erste Klasse von Graphen, die wir untersuchen, sind Cayley-Graphen (endlich erzeugter) Gruppen. Dabei werden wir zeigen, dass die quasi-Automorphismengruppe eines Cayley-Graphen nicht von dem (endlichen) Erzeugendensystem abhängt. Wir werden zeigen, dass für eine einendige Gruppe $G$ die quasi-Automorphismengruppe des Cayley-Graphen stets als semidirektes Produkt der finitären Permutationen von $G$ und der Gruppe $G$ selbst zerfällt. In der Klasse der mehrendigen Gruppen gibt es genau $2$ Gruppen für die das ebenfalls gilt, nämlich die Gruppe der ganzen Zahlen ...Z und die unendliche Diedergruppe $D_infty$. In allen anderen Gruppen ist das oben erwähnte semidirekte Produkt stets eine echte Untergruppe. Trotzdem werden wir im Ausblick eine Konstruktion angeben, die für eine gegebene Gruppe $G$ einen Graphen $Gamma$ liefert, dessen quasi-Automorphismengruppe als semidirektes Produkt von $S_Gamma$ -- so bezeichnen wir die Gruppe der finitären Permutationen der Ecken von $Gamma$ -- und $G$ zerfällt. Des Weiteren werden wir die quasi-Automorphismengruppe des ebenen binären Wurzelbaumes betrachten. Wir werden zeigen, dass diese eine Erweiterung von (Richard) Thompsons Gruppe VV durch die Gruppe der finitären Permutationen ist, eine Präsentierung entwickeln und die Endlichkeitseigenschaften dieser Gruppe und einiger Untergruppen beleuchten. Insbesondere werden wir einen Zellkomplex konstruieren, auf dem die Gruppe der quasi-ordnungserhaltenden quasi-Automorphismen, welche das Urbild der Untergruppe FF von VV unter der kanonischen Projektion ist, mit endlichen Stabilisatoren operiert. Diese Operation erfüllt dabei die Bedingungen, die nötig sind, um mit Hilfe von Browns Kriterium nachzuweisen, dass die Gruppe vom Typ FPunendlich ist. Das co-Wort-Problem einer Gruppe $G$ bezüglich eines unter Inversion abgeschlossenen Erzeugendensystems $X$ ist die Sprache aller Worte aus dem freien Monoid $X^*$, die unter der kanonischen Projektion auf ein Element ungleich der Identität in $G$ abgebildet werden. Wir werden zeigen, dass das co-Wort-Problem der quasi-Automorphismengruppe des ebenen binären Wurzelbaumes eine kontext-freie Sprache bildet. Sei $mathop{coCF}$ die Klasse der Gruppen mit kontextfreiem co-Wort-Problem. Diese Klasse ist abgeschlossen bezüglich Untergruppenbildung und alle Gruppen, deren Zugehörigkeit zu $mathop{coCF}$ bisher nachgewiesen wurde, sind Unterguppen der quasi-Automorphismengruppe des ebenen binären Wurzelbaumes. Die $n$-strahligen Houghton-Gruppen erweisen sich als quasi-Automorphismengruppen von Sterngraphen, d.h. von Graphen, die disjunkte Vereinigungen von $n$ Strahlen verschiedener Farben sind. Wir werden uns mit geometrischen Phänomenen der Cayley-Graphen dieser Gruppen beschäftigen. Insbesondere werden wir nachweisen, dass die $2$-strahlige Houghton-Gruppe Houn[2] beliebig tiefe Sackgassen besitzt. Eine Sackgasse der Tiefe $k$ in einem Cayley-Graphen ist ein Element, dessen Abstand zur Identität mindestens so groß ist, wie der Abstand zur Identität aller Elemente im $k$-Ball um das Element. Sogar in einem stärkeren Sinne, der in dieser Arbeit definiert wird, ist die Tiefe der Sackgassen unbeschränkt. Um dies und verwandte Fragen besser behandlen zu können, entwickeln wir Modelle, die eine Beschreibung der Cayley-Graphen von Houn[n] ermöglichen. Im abschließenden Ausblick thematisieren wir einige Ansätze, in denen wir interessante Anwendungen von quasi-Automorphismengruppen sehen.
Writing against the odds : the south’s cultural and literary struggle against progress and modernity
(2008)
Die Literatur und Kultur der Südstaaten ist entscheidend geprägt von ihrer Orientierung an der eigenen Geschichte und Vergangenheit. Die düstere Vergangenheit, die die Gegenwart überschatten und die Zukunft determiniert ist ein Südstaatenthema par exellence und allgegenwärtig in ihrer Kultur und Literatur. Nach dem Bürgerkrieg und der Reconstruction Era ist der Süden kulturell und ökonomisch ausgeblutet, am Boden und isoliert. Nach dem Krieg weitet sich die Kluft zwischen Nord- und Südstaaten immer weiter aus, ein Prozess, der jedoch schon so alt ist wie die Vereinigten Staaten selbst und bereits im beginnenden 18. Jahrhundert seinen Anfang nimmt. Die Isolation ist gleichzeitig gewollt und ungewollt, bewusst und unbewusst. Die Scham des verlorenen Krieges und die Marginalisierung sind die Katalysatoren für die Kultivierung und das Bestreben nach Erhalt der Besonderheiten der Südstaaten, mit ihrer vermeintlich überlegenen Kultur und Moral. Es beginnt die kommerzialisierte, hoch ideologisierte Konstruktion der Geschichte und Identität der Südstaaten, die in alle Lebensbereiche strahlt. Der melancholische Blick in die Vergangenheit als wichtigste Referenz und kulturellen Fluchtpunkt ersetzt den Eintritt in die Moderne und Modernität mit ihrer Schnelllebigkeit, Austauschbarkeit und die Aufgabe der Tradition für eine rasante Gegenwart. Das Individuum der Südstaaten sieht sich statt mit einer Flut an Wahlmöglichkeiten und Optionen, mit einer einengenden Gesellschaft konfrontiert, die wenig Spielraum für Abweichungen übriglässt und ein harsches Kontrollsystem hat. Es ist eine einzigartige Mischung aus Stolz, Scham und einem Gefühl der gleichzeitigen Unter- und Überlegenheit, die einen besonders guten literarischen Nährboden hervorbringt. In dieser Arbeit wird den historischen, kulturellen, und literarischen Wurzeln der Südstaatenliteratur seit der Southern Renaissance nachgegegangen, um dann die ständig perpetuierten formalen und inhaltlichen Strukturen darzustellen, die wenig Veränderungen erfahren haben. Diese Perpetuierung resultiert aus der einzigartigen Situation der Südstaaten, aus der historischen Last, die unvermindert aktuell bleibt und längst nicht verarbeitet ist. Südstaatenautoren konnten und können nicht die traditionellen Formen und Themen ablegen, solange diese konstituierende Bestandteile der Kultur und Identität der Südstaaten bleiben. Die Südstaaten verweigern sich der Modernität und empfinden Fortschritt und die moderne Massengesellschaft nicht nur als Bedrohung, sondern als Einfluss aus den Nordstaaten, der die eigene Kultur bedroht und eine Einmischung von außen ist, die es abzuwenden gilt. Traditionsbewusste, reaktionäre Tendenzen und Elemente ziehen sich selbst durch vermeintlich progressive, moderne Entwicklungen und Phänomene. Ich kombiniere identitätskonstituierende, isolierende und melancholische Elemente und beleuchte sie historisch, kulturell und literarisch, um eine mehrschichtige Perspektive zu erlangen. Das Verständnis dieser historischen Last und deren unverminderte Bedeutung und Auswirkung auf die Literatur und Kultur der Südstaaten ist essentiell für eine tiefere Einsicht in deren Strukturen und Bedeutung.
Der Typ I Interferonrezeptor, der aus den Transmembranproteinen ifnar1 und ifnar2 besteht, nimmt eine wichtige Rolle bei der angeborenen und erworbenen Immunantwort ein. Durch Bindung von Typ I Interferonen werden antivirale, antiproliferative und immunmodulatorische Aktivitäten in der Zelle induziert. Die Wirkung der Interferone wird bereits bei der Behandlung einer Vielzahl von Krankheiten eingesetzt. Es ist bislang nicht bekannt, wie die verschiedenen Typ I Interferone nach Bindung an einen gemeinsamen Rezeptor, unterschiedliche Zellantworten induzieren. So unterscheiden die Typ I Interferone sich nicht hinsichtlich ihrer Bindungsstelle oder der Stöchiometrie der Bindung an ifnar1 bzw. ifnar2. Sie weisen jedoch unterschiedliche Affinitäten zu den Rezeptoruntereinheiten auf, wobei ihnen eine niedrigere Affinität zu ifnar1 gemeinsam ist. Bislang konnte keine Interaktion zwischen den Rezeptoruntereinheiten nachgewiesen werden. Es wird angenommen, dass bei der Rezeptorassemblierung das Interferon zunächst an ifnar2 bindet und anschließend ifnar1 rekrutiert. Es wird postuliert, dass die unterschiedlichen Zellantworten für verschiedene Typ I Interferone auf Unterschieden in der Stabilität der ternären Komplexe beruhen könnten. Im Rahmen dieser Arbeit wurden daher die Struktur und Dynamik des Interferonrezeptors in vitro für die Typ I Interferone IFNa2 und IFNb charakterisiert. Die Struktur des ternären Komplexes aus den extrazellulären Domänen von ifnar1 und ifnar2 mit IFNa2 wurde mittels Elektronenmikroskopie untersucht. Über Einzelpartikelanalyse aufgereinigter Komplexe von IFN mit den extrazellulären Domänen von ifnar1 (ifnar1-EC) und ifnar2 (ifnar2-EC) konnte ein Strukturmodell des ternären Komplexes erstellt werden. Dieses zeigte eine Verschiebung der membranproximalen Domänen von ifnar1-EC und ifnar2-EC wie sie bereits für den Rezeptor für Erythropoietin und den Wachstumsfaktor beobachtet wurden, welche zu den Typ I Zytokinrezeptoren gehören. Die Struktur des ternären Komplexes ermöglicht als erste Struktur eines Typ II Zytokinrezeptors einen Einblick in die Architektur des Komplexes und mögliche Aktivierungsmechanismen. Die Strukturen der Komplexe für die verschiedenen Typ I Interferone IFNa2 und IFNb wiesen keine fundamentalen Unterschiede auf, was auf einen gemeinsamen Aktivierungsmechanismus hinweist. Temperatur-abhängige Messungen von Bindungskinetik und –affinität ergaben sehr unterschiedliche Energiehyperflächen für die Ligandenbindung an ifnar1- und ifnar2-EC, und wiesen auf einen mehrstufigen Prozess und mögliche Konformationsänderungen bei der Bindung an ifnar1-EC hin. Zur Analyse der Dynamik von ifnar1-EC wurden daher verschiedene fluoreszenzbasierte Assays etabliert. Eine besondere Herausforderung bestand darin, das Protein ortsspezifisch und stöchiometrisch mit zwei verschiedenen Fluorophoren zu koppeln. Ifnar1-EC wurde an verschiedenen Stellen kovalent mit Fluoreszenzfarbstoffen markiert. Es wurde gezeigt, dass nach Bindung eines geeigneten tris-NTA-Fluorophor-Konjugats an den C-terminalen His-Tag die Fluoreszenz abstandsabhägig durch Förster-Resonanz-Energie-Transfer gelöscht wurde. Für ifnar1-EC wurde eine ligandeninduzierte Abstandsänderung detektiert. Die detaillierte Analyse ergab nach Bindung von IFNa2 eine Abstandszunahme von 13 A vom N- zum C-Terminus. Durch die Interferonbindung nimmt demnach ifnar1-EC eine gestrecktere Konformation ein. Ähnliche Ergebnisse wurden auch in Anwesenheit von ifnar2-EC und für IFNb erhalten. Die Einzelmolekülanalysen mittels Fluoreszenz Korrelationsspektroskopie (FCS) zeigten sowohl einen Verlust der Flexibilität von ifnar1-EC nach Ligandenbindung als auch ein ligandeninduziertes Rearangement der Ig-ähnlichen Domänen. Die Änderung der Flexibilität wurde durch Messungen der Fluoreszenzlebensdauer bestätigt. Untersuchungen der Kinetik der Ligand-induzierten Konformationsänderung mittels Stopped-Flow Messungen bestätigten eine mehrstufige Umorientierung der Ig-ähnlichen Domänen nach Ligandenbindung. Zusätzlich konnte gezeigt werden, dass sich nach Ligandenbindung die Zugänglichkeit des Tryptophans in der membranproximalen Domäne von ifnar1-EC ändert. Da die membranproximale Domäne nicht bei der Ligandenbindung beteiligt ist, deutet dieser Effekt auf eine Propagation der Ligand-induzierten Konformationsänderung in diese Domäne hin. Das Tryptophan könnte mit der Membran interagieren, was auf eine wichtige Rolle der membranproximalen Domäne für die korrekte Orientierung von ifnar1 in der Membran hindeut. Die Stopped-Flow Analyse zeigte, dass es sich hierbei um einen einstufigen Prozess handelt, der mit der Interferonbindung korreliert. Die Ergebnisse wiesen insgesamt auf eine Ligand-induzierte Flexibilitätsänderung und Umorientierung der Ig-ähnlichen Domänen bei ifnar1-EC hin. Vermutlich wird nach Ligandenbindung das Signal in die membranproximale Domäne von ifnar1-EC propagiert. Die Strukturen der ternären Komplexe mit den verschiedenen Typ I Interferonen wiesen keine fundamentalen Unterschiede auf. Auch die Ergebnisse der fluoreszenzbasierten Assays zeigten keine Unterschiede für IFNa2 und IFNb, was die Hypothese stützt, dass die differentielle Aktivität der Interferone nicht auf grundsätzlichen Unterschieden in der Architektur des ternären Komplexes beruht, sondern in der unterschiedlichen Dynamik der Komplexe codiert sein könnte.
The German Working Group on Vegetation Databanks has held annual meetings since 2002 with financial support by the German Federal Agency for Nature Conservation. Ca. 215 members are regularly informed through a mailing-list. The 2008 meeting was hosted by University of Oldenburg’s Landscape Ecology Group and was attended by 72 participants from 15 countries. Software demonstrations of vegetation databanks Turboveg and VegetWeb as well as plant trait databanks LEDA and BiolFlor opened the workshop. There were lecture sessions on trait databanks, recalibration of ecological indicator values and new developments in the field of vegetation databanks. Working groups were devoted to an initiative to build a meta-databank of existing vegetation databanks in Germany and to mathematical modelling of species habitats. In 2009 the 8th workshop will be held on "Vegetation Databanks and Biodindication" at the University of Greifswald.
Naturalness is one of the most important criteria in nature conservation. This paper examines the fundamental concepts underlying the definition and assessment of naturalness. Its role in nature conservation and forest management under conditions of global change is also discussed. The degree of naturalness may be defined in ordinal classes. The “static” concept of the potential natural vegetation (pnV), developed in the 1950ies, is mostly used as the reference state. In other cases, its reversed concept, the hemeroby (degree of articifiality) is assessed, based on the intensity and frequency of human impacts. Since the 1970ies, more attention has been given to natural dynamics than in earlier approaches, e.g. in forest succession models. At the end of the 1980ies, the previous importance was increasingly stressed of natural browsing by large herbivores and the role of predators. These large herbivors are extinct today in most cultural European landscapes. It is assumed, that they open up the canopy, and create park-like forest structures which contain a diversity of habitats for other types of organism (birds, insects). Changed and permanently changing environments and altering patterns of competition between species continue to modify natural processes today. Some of the more conspicuous effects are the extinction of native species and immigration of species to new regions. Long-lived ecosystems like forests are however not able to adapt quickly to such changes and may be unable to find a new balance with the environment. Today, such changes occur very rapidly, and are reducing the original naturalness of ecosystems. Because of this, the criterion “naturalness” must be downweighted. Conversely, more importance should be attached to other criteria: particularly originality (= original naturalness) and restorability. Forestry is contributing to this accelerated change of biocoenoses by increasing disturbances and introducing exotic tree species. Naturalisation of some exotic tree species modifies the natural processes and creates a “new allochthonous naturalness”. Because of this, forest planning should try to preserve or restore stands with attributes of the “original forest”. Exotic species should not be planted, or only in a very restricted way.
Anhand der Daten von 33 Standorten des Bayerischen Waldboden Dauerbeobachtungsprogramms (Bodendauerbeobachtungsflächen, BDF) wurden die durch kleinräumige Variabilität verursachten Unsicherheiten bei der Charakterisierung von Böden geschätzt. Diese Datenbasis erlaubte es zudem zu untersuchen, inwieweit geostatistische Eigenschaften in Zusammenhang mit den Standortsbedingungen stehen. Für diesen Zweck entwickelten wir einen einfachen Ansatz zur Typisierung von Böden nach ihren räumlichen Eigenschaften. Beim BDF-Programm wurden auf jedem Standort 18 Proben in einem Kreuz-Transekt 18 x 18 m entnommen bei einem Mindestabstand von 3 m. Der Datenbestand umfasst die Parameter Corg und Ntot-Konzentrationen sowie -Vorräte und C / N - Verhältnis, effektive Kationen-Austausch-Kapazität (Ake), Basensättigung (BS), pH-Wert des Bodens und Grobbodenfraktion (> 2 mm). In die Metaanalyse wurden pro Bodenparameter 3780 Datensätze zur Erzeugung aggregierter Kennwerte einbezogen wie Schiefe, Variationskoeffizient (VK), Moran‘s I und den Anteil der räumlich strukturierten Varianz (SV) der Daten. Die beobachtete räumliche Struktur von Bodenparametern konnte zwar nicht eindeutig in Zusammenhang mit den Standortbedingungen gebracht werden. Es zeigt sich aber, dass die Gesamtvarianz einiger Parameter mit steigendem Tongehalt tendenziell zurück geht und dass das Niveau der Streuung (VK) der untersuchten Boden-Parameter sich erheblich unterscheidet. Die Rangfolge der Parameter hinsichtlich der Streuung ist pH-Wert (1), C/N - Verhältnis (2), C und N-Konzentration (3a), BS und Ake (3b), C- und N- Vorräte (4). Die Unsicherheitsabschätzung anhand der BDF Daten findet Eingang in das Fehlerbudget der zweiten bundesweiten Bodenzustandserhebung im Wald (BZE II) und dient dazu die Chancen zu bestimmen mit denen etwaige Bodenveränderungen nachgewiesen werden können.
Zur Kennzeichnung und Gliederung von periglaziär bedingten Differenzierungen in der Pedosphäre
(2008)
Im periglaziären Milieu der letzten Kaltzeit wurde der oberflächennahe Tiefenbereich in Mitteleuropa entscheidend geprägt, was durch lithogene und pedogene Differenzierungen bis etwa 1...2 m unter Gelände zum Ausdruck kommt. Die Prozesse Kryoklastik und Kryotranslokation, Kryoperstruktion sowie Kryopedogenese – jeweils mit mehreren Teilprozessen – prägten die Profilgliederung und Substratausbildung in der Auftauzone des Dauerfrostbodens. In den Untersuchungen und Diskussionen der letzten Jahrzehnte zur Genese der Phänomene im Bereich der Pedosphäre erfuhren die beteiligten Prozesse bei den Autoren unterschiedliche Aufmerksamkeit und Sichtung. Die verschiedenen Konzepte zur Kennzeichnung und Gliederung der Profildifferenzierungen lassen sich letztlich dem Deckenkonzept, im Wesentlichen fußend – jedoch unter Beteiligung weiterer Prozesse – auf Kryotranslokation sowie dem Konzept der Perstruktions- bzw. Umlagerungszonen, vorrangig basierend auf den Prozessen Kryoperstruktion und Kryopedogenese, zuordnen. Der entscheidende Unterschied zwischen der Ansprache der periglaziär bestimmten Differenzierungen innerhalb der Pedosphäre mit Hilfe der Abfolge verschiedener Zonen einerseits und der Abfolge verschiedener Decken – wie auch Lagen – andererseits besteht darin, dass bei der Kennzeichnung und Gliederung des Zonenprofils sedimentär bedingte Substratunterschiede nicht vorrangig und nur als Hilfskriterien herangezogen und somit gleiche Zonen auch in lithostratigraphisch unterschiedlichem Material oder auch umgekehrt in gleichem Material verschiedene Zonen ausgewiesen werden. Nach dem Decken-/Lagenkonzept werden dagegen die sedimentären Prozesse als dominante Ursachen der heute vorliegenden vertikalen Substratdifferenzierung angesehen, wobei auch den syn- und postsedimentären periglaziären Umbildungen durch Teilprozesse der Kryoperstruktion immerhin entscheidender Anteil am Deckenbildungsprozess beigemessen wird, die zur zusätzlichen Vertikaldifferenzierung innerhalb der jeweiligen Decke führen können. Zur Definition der Lagen (nach der Kartieranleitung der Staatlichen geologischen Dienste und der Bundesanstalt für Geowissenschaften und Rohstoffe) wurden die Prozesse der Kryotranslokation sowie Teilprozesse der Kryoperstruktion herangezogen, jedoch sind bisher die Kryohomogenisierung (Entschichtung, Vermischung) und (Skelett-)Umsortierung (Kryolithotropie) sowie außerdem die mit der Kryoperstruktion häufig verknüpften Prozesse der Kryopedogenese in die Definition nicht eingegangen. In vielen Fällen ist eine Zuweisung der Profile zu einem bestimmten Gliederungsprinzip bzw. Genesetyp nicht möglich. So ist es nicht haltbar, von regional abgegrenzten Gebieten sowie räumlichen Insellagen der Entstehung von periglaziären Decken einerseits und von Bereichen mit Ausbildung von Kryoperstruktionszonen andererseits zu sprechen. Im periglaziären Milieu wirkten die o. g. jeweils unterschiedlich dominanten Vorgänge im Komplex, und die Abkopplung von Teilprozessen der periglaziären Umbildung der Oberfläche ist nicht sinnvoll. Das für die Böden ausgewiesene Substratprofil baut sich aus erheblich variierenden Anteilen des durch Kryotranslokation akkumulierten Fremdmaterials sowie des ortsbürtigen Materials auf. Die jeweiligen Komponenten wurden im Wesentlichen durch das örtlich anstehende Gestein und Relief, die Exposition und Höhenlage sowie die Lage zum Eisrand und zu den äolischen Akkumulationsräumen gesteuert. Im Zuge einer Analyse der oberflächennahen Profildifferenzierungen ist durchaus die detaillierte Kennzeichnung des Substratprofils nach fremden und ortsbürtigen Komponenten einerseits sowie nach Merkmalen der Kryoperstruktion andererseits möglich. Darüber hinaus ist aber eine integrierende und aggregierende sowie landschaftsübergreifende Gliederung und Kennzeichnung der periglaziär bedingten Profildifferenzierungen notwendig. Dafür ist der Begriff „Lage“ nach bisheriger Definition nur bedingt geeignet, da dieser nicht die Beteiligung des gesamten Prozesskomplexes ausdrückt. Deshalb wird zur Unterscheidung vorerst der Neubegriff „Segment“ (bzw. periglaziäres Segment) vorgeschlagen, der hinsichtlich Kryoperstruktions-, Kryotranslokations- und Kryohorizontprofil neutral ist und somit keinen Anlass für nomenklatorische Missverständnisse bietet. Bei der Weiterverwendung der Bezeichnung „Lagen“ im Sinne einer hier vorgeschlagenen ergänzenden Definition ist also nicht nur dessen neue Begriffsbestimmung erforderlich, sondern darüber hinaus auch eine Klarstellung, dass die so ergänzt definierten Lagen nach allen genannten Prozesssystemen – also erweitert gegenüber der bisherigen Lagendefinition – gekennzeichnet sind. Sofern dies mit allen Konsequenzen allgemein verbindlich würde, könnte allerdings der Lagenbegriff mit dem Zusatz „Lage – ergänzt definiert“ auch weiterhin angewandt werden. Die periglaziären Segmente bzw. die Lagen – ergänzt definiert – lassen sich folgendermaßen kennzeichnen: Periglaziäre Segmente (kurz: Segmente) oder Lagen – ergänzt definiert – sind im periglaziären Milieu im Bereich der Pedosphäre durch • Substratbereitstellung infolge Frostverwitterung (Kryoklastik) und Kryotranslokation [äolische Akkumulation und/oder (Geli-)Solifluktion bzw. Anspülung] aus den jeweils anstehenden Gesteinen sowie aus unterschiedlichen Anteilen allochthonen Materials und • durch Kryoperstruktion (Entschichtung und Homogenisierung sowie Vermischung, Umsortierung des Skelettanteils und Kryoturbation) sowie • kryopedologische Prozesse (periglaziäre Vorprägung oder sogar Prägung der pedogenen Horizontabfolge) entstanden. Die genannten Teilprozesse können mit unterschiedlichem Anteil und zu verschiedenen Zeiten an der Bildung und Differenzierung der Bodendecke beteiligt sein. In Abhängigkeit vom Paläorelief (Hangneigung, Hangform, Hangexposition) und vom Verbreitungsmuster der anstehenden Gesteine sowie vom Anteil allochthonen Materials und von den lokalklimatischen Bedingungen ist die stoffliche Zusammensetzung, Lagerungsart und Struktur sowie die Ausprägung der Bodenhorizonte in der Vertikalabfolge der einzelnen Segmente bzw. Lagen – ergänzt definiert – und in der horizontalen Ausprägung differenziert. Die Vertikalabfolge der periglaziär bedingten Differenzierung der Bodendecke wird gegliedert in das bisher nur lokal im Bergland sicher nachgewiesene Obersegment bzw. in die Oberlage – ergänzt definiert, außerdem in das fast flächendeckend an der Oberfläche verbreitete Hauptsegment, bzw. Hauptlage – ergänzt definiert, das von einem häufig unterteilten Mittelsegment (oberer Teil und unterer Teil) bzw. Mittellage – ergänzt definiert – unterlagert sein kann. Über dem periglaziär kaum oder nicht beeinflussten Untergrund lagert fast überall das Basissegment bzw. die Basislage – ergänzt definiert, das u. a. nach Zusammensetzung, Strukturmerkmalen sowie ggf. nach der Altersstellung differenziert werden kann. Durch die konsequente Verknüpfung aller im periglaziären Milieu wirksamen Prozesssysteme mit Hilfe der Ausweisung periglaziärer Segmente bzw. der Lagen – ergänzt definiert – ist eine detaillierte sowie integrierende und landschaftsübergreifende Kennzeichnung der Substratdifferenzierung der Böden möglich.
Objectives To examine the dose-response relationship between cumulative exposure to kneeling and squatting as well as to lifting and carrying of loads and symptomatic knee osteoarthritis (OA) in a population-based case-control study. Methods In five orthopedic clinics and five practices we recruited 295 male patients aged 25 to 70 with radiographically confirmed knee osteoarthritis associated with chronic complaints. A total of 327 male control subjects were recruited. Data were gathered in a structured personal interview. To calculate cumulative exposure, the self-reported duration of kneeling and squatting as well as the duration of lifting and carrying of loads were summed up over the entire working life. Results The results of our study support a dose-response relationship between kneeling/squatting and symptomatic knee osteoarthritis. For a cumulative exposure to kneeling and squatting > 10.800 hours, the risk of having radiographically confirmed knee osteoarthritis as measured by the odds ratio (adjusted for age, region, weight, jogging/athletics, and lifting or carrying of loads) is 2.4 (95% CI 1.1-5.0) compared to unexposed subjects. Lifting and carrying of loads is significantly associated with knee osteoarthritis independent of kneeling or similar activities. Conclusions As the knee osteoarthritis risk is strongly elevated in occupations that involve both kneeling/squatting and heavy lifting/carrying, preventive efforts should particularly focus on these "high-risk occupations".
The moderate halophile Halobacillus halophilus is the paradigm for chloride dependent growth in prokaryotes. Recent experiments shed light on the molecular basis of the chloride dependence that is reviewed here. In the presence of moderate salinities Halobacillus halophilus mainly accumulates glutamine and glutamate to adjust turgor. The transcription of glnA2 (encoding a glutamine synthetase) as well as the glutamine synthetase activity were identified as chloride dependent steps. Halobacillus halophilus switches its osmolyte strategy and produces proline as the main compatible solute at high salinities. Furthermore, Halobacillus halophilus also shifts its osmolyte strategy at the transition from the exponential to the stationary phase where proline is exchanged by ectoine. Glutamate was found as a second messenger" essential for proline production. This observation leads to a new model of sensing salinity by sensing the physico-chemical properties of different anions.
Die guten bayerischen Ergebnisse der PISA-Studien haben ihren Preis. Hohe Hürden vor dem Gymnasium führen nicht nur der Realschule viele Schüler/innen zu, die in anderen Bundländern das Gymnasium besuchen. Profitiert davon hat lange Zeit auch die bayerische Hauptschule mit einem hohen Schüler/innen-Anteil, der außerhalb Bayerns vor allem Real- und Gesamtschulen besucht. Diese Situation hat sich nun ausgerechnet durch PISA auch für das deutsche PISA-Siegerland Bayern geändert. Zum einen findet auch in Bayern bei der Zuordnung zu den drei Regelschulformen Hauptschule, Realschule und Gymnasium die für ganz Deutschland so beschämende soziale Selektion statt. Was die bayerische Schulpolitik jedoch härter trifft, ist die im internationalen Vergleich viel zu geringe deutsche Quote an Schüler/innen mit Hochschulreife. Darin ist Bayern nun auch Spitze unter den Bundesländern mit gerade einmal 20 Prozent Abiturienten. Was die PISA-Debatte noch öffentlich gemacht hat, ist der hohe Anteil an „Risikoschüler/innen” mit oder ohne Hauptschulabschluss, die immer geringere Vermittlungschancen auf dem Ausbildungsmarkt haben, in der Konkurrenz zu denen mit einem Mittleren Abschluss oder Abitur, und das auch in traditionellen Handwerksberufen. Dieser Trend der Abwertung der Hauptschule und des Hauptschulabschlusses macht auch vor den bayerischen Landesgrenzen nicht Halt und es hilft wenig, dass Bayern bei PISA gerade aufgrund seiner verschärften Auslese mit dem geringsten Anteil an „Risikoschüler/innen” im innerdeutschen Vergleich aufwarten kann. Ausgelöst wurde die Hauptschulkrise bereits durch eine innerbayerische Strukturmaßnahme, die bereits vor PISA durchgeführt wurde. Bayern war, wie die ostdeutschen Länder Sachsen, Sachsen-Anhalt und Thüringen, bis Ende Klasse 6 zweigliedrig, ehe die Staatsregierung sich entschloss, Haupt- und Realschüler/innen auch bereits nach der Grundschule zu trennen. Damit verschärften sich die Probleme an Hauptschulen und begann das schleichende Hauptschulsterben, das der CSU schwer zu schaffen macht. Wer will noch freiwillig sein Kind einer Schule anvertrauen, in der im Verbund mit der Sonderschule sich die meisten der „Risikoschüler/innen” versammeln? Die Folge ist auch in Bayern ein verstärkter Druck auf die Grundschule, die ja verpflichtet ist, bis zum Ende von Klasse 4 verbindlich zu entscheiden, wer die Realschule oder das Gymnasium besuchen darf und wer in die Hauptschule muss. ...
Ein bakteriendichter Kavitätenverschluss zur Vermeidung von Pulpairritationen und möglicher Sekundärkaries stellt eines der obersten Ziele in der modernen minimalinvasiven Füllungstherapie dar. Ziel dieser Studie war es, den Einfluss unterschiedlicher Sekundärpräparations- und Konditionierungstechniken (konventionell, SÄT, sonoabrasiv mit Rondoflex und oszillierend mit Sonicflex Seal) auf die Randqualität von Fissurenversiegelung und kunststoffgefüllten Klasse V Kavitäten von 60 menschlichen extrahierten Zähnen mittels Farbstoffpenetrationtests zu prüfen. Die statistischen Analysen ergaben, dass in der Untersuchungsreihe der Fissurenversiegelungen die Zähne, die mit Rondoflex konditioniert wurden, die geringsten prozentualen Farbstoffpenetration (1,65 %) gemessen an der zu penetrierenden Gesamtstrecke aufwiesen. Diese Gruppe konnte eine nicht signifikant günstigere Randspaltqualität aufweisen als die Gruppe, in der mit Sonicflex die Fissur aufgezogen wurde. Hier wiesen 2,00 % der Gesamtstrecke eine Farbstoffpenetration auf. Die höchste prozentuale Penetration (4,31 %) wurden bei den konventionellen Versiegelungen ausgewertet. Diese Gruppe weist nicht signifikant die höchste Penetrationsrate aller drei Gruppen auf. Bei den Klasse V Kavitäten erwies sich die Untersuchungsgruppe „mit Anschrägung“ als die mit der signifikant geringsten Penetrationsrate (7,44 %). Die Gruppe, bei der mit Rondoflex konditioniert wurde, wurde eine signifikant geringere Randqualität ausgewertet (19,15 %) als bei der Gruppe „mit Anschrägung“ und eine nicht signifikant geringere Penetrationsrate festgestellt als in der Gruppe „ohne Anschrägung“ (22,65 %).
Increasingly, individuals are in charge of their own financial security and are confronted with ever more complex financial instruments. However, there is evidence that many individuals are not well-equipped to make sound saving decisions. This paper demonstrates widespread financial illiteracy among the U.S. population, particularly among specific demographic groups. Those with low education, women, African-Americans, and Hispanics display particularly low levels of literacy. Financial literacy impacts financial decision-making. Failure to plan for retirement, lack of participation in the stock market, and poor borrowing behavior can all be linked to ignorance of basic financial concepts. While financial education programs can result in improved saving behavior and financial decision-making, much can be done to improve these programs’ effectiveness.
Traditionally, aggregate liquidity shocks are modelled as exogenous events. Extending our previous work (Cao & Illing, 2007), this paper analyses the adequate policy response to endogenous systemic liquidity risk. We analyse the feedback between lender of last resort policy and incentives of private banks, determining the aggregate amount of liquidity available. We show that imposing minimum liquidity standards for banks ex ante are a crucial requirement for sensible lender of last resort policy. In addition, we analyse the impact of equity requirements and narrow banking, in the sense that banks are required to hold sufficient liquid funds so as to pay out in all contingencies. We show that such a policy is strictly inferior to imposing minimum liquidity standards ex ante combined with lender of last resort policy.
Modern macroeconomics empirically addresses economy-wide incentives behind economic actions by using insights from the way a single representative household would behave. This analytical approach requires that incentives of the poor and the rich are strictly aligned. In empirical analysis a challenging complication is that consumer and income data are typically available at the household level, and individuals living in multimember households have the potential to share goods within the household. The analytical approach of modern macroeconomics would require that intra-household sharing is also strictly aligned across the rich and the poor. Here we have designed a survey method that allows the testing of this stringent property of intra-household sharing and find that it holds: once expenditures for basic needs are subtracted from disposable household income, household-size economies implied by the remainder household incomes are the same for the rich and the poor.
Die zunehmende Technologisierung aller Lebensbereiche sowie der seit Mitte der 60er Jahre wachsende Touristenstrom lassen uns fast jeden Tag von Katastrophen hören, bei denen eine Vielzahl von Menschen ums Leben kommen. Bei solchen Vorfällen werden viele Menschen oftmals bis zur Unkenntlichkeit verstümmelt. Ziel muss es daher sein, die Leichen so schnell wie möglich zu identifizieren. „Sei es in Ramstein, Bopal, Enschede oder New York am 11.September 2001: Nur ein Zahn kann ausreichen, um einem Toten seinen Namen zurückzugeben2.“ Diese Aussage von Benedix kann als Anstoß für die vorliegende Arbeit gesehen werden. .... Zur Verifizierung der anfangs formulierten Vermutungen wurde im Verlauf der vorliegenden Dissertation schrittweise vorgegangen. Durch die Bearbeitung der russischen Fachliteratur wurde das notwendige Basiswissen für eine genauere Umschreibung der These geschaffen. Die anschließenden Untersuchungen in der JVA, der Zahnarztpraxis mit überwiegend russischem Patientenanteil sowie der Karteikartenauswertung in der Ukraine bestätigten in manchen Hinsichten die These, wiesen aber auch deutliche Grenzen auf. So konnte festgestellt werden, dass die Arbeiten sich häufig sehr voneinander unterschieden. Während in der Universitätsklinik von Kiev zeitgemäßer, zum Teil moderner Standard der Zahnmedizin praktiziert wurde, gab es Dorfkliniken sowie kleineren Zahnarztpraxen in und um Kiev, die in der Entwicklung noch Jahre von diesem Standard entfernt waren. Gleichzeitig konnten jedoch auch Patienten der höheren sozialen Schicht registriert werden, die sich in Behandlung in Privatpraxen befanden, welche sich bereits Ende der 90er Jahre dem hohen westeuropäischen Standard angenähert hatten. Aber nicht nur während der Reise in die Ukraine waren Unterschiede erkennbar. Bei der Auswertung der Untersuchungen aus der JVA wurde eine ähnliche Problematik erkennbar. Während in der JVA selbst häufig provisorische oder eher kostengünstige Lösungen gesucht wurden, gab es Patienten, die sich vorher entweder in ihrem Herkunftsland oder aber bereits in Westeuropa in zahnärztlicher Behandlung befanden und sich somit unterschiedliche Arbeiten im Mund befanden. Das gleiche Bild zeichnete sich in der Zahnarztpraxis in Frankfurt am Main ab. Es gab Patienten, die jahrelang in Behandlung in ihrem Heimatland waren und sich in Westeuropa nur nach Bedarf einzelne Komponente haben erneuern lassen, so dass auch bei diesen Patienten sehr unterschiedliche Arbeiten im Mund registriert wurde. Dieser Faktor würde im DVI-Fall die Arbeit erheblich erschweren. Dennoch kann man bestimmte wiederkehrende und auffallende Merkmale sowohl in der prothetischen als auch in der konservierenden Zahnheilkunde festhalten. Die konservierende Zahnheilkunde lieferte, wie aufgrund der Fachliteratur zu vermuten war, nur einen eindeutigen Hinweis im Identifizierungsfall: eine rosafarbene Verfärbung der Zahnkrone als Hinweis auf mit Paracinzement aufgefüllte Kanäle nach einer Wurzelbehandlung. Die statistische Auswertung in der Ukraine wird durch die Fachliteratur im Hinblick auf die weite Verbreitung einer solchen Versorgungsart in den 80er bis in die 90er Jahre im molaren sowie prämolaren Bereich bestätigt. Aufgrund der hohen und lang anhaltenden antibakteriellen Wirkung von Parazinzement kann ein Zahn nach einer solchen Behandlung noch lange im Mund bleiben. Obwohl diese Zähne häufig spröde geworden sind, die Zähne brechen zum Teil ab und werden oftmals überkront. Dennoch ist bei abstehenden Kronenrändern oder häufig auch unterhalb des Kronenrandes die rosa Verfärbung deutlich erkennbar. Dies kann aufgrund der vorliegenden Untersuchungen aus der JVA und der Zahnarztpraxis bestätigt werden, wo Zähne mit einer solchen Versorgung häufig anzutreffen waren. Auf den dort gefertigten Röntgenbildern wurde deutlich, dass die Versorgungsart sich auf Röntgenbildern deutlich von einer in Westeuropa als Standard angesehen Wurzelbehandlung unterscheidet. Es sind im Gegensatz zu Behandlungen aus dem westeuropäischen Raum keine Guttaperchastifte zu erkennen, sondern ein spinnennetzartiges Gewebemuster, das sich wie ein dünnes Netz durchzieht. Häufig reicht das Wurzelfüllngsmaterial nur bis zum oberen Drittel des Wurzelkanals. Im westeuropäischen Raum ist Parazinzement auf Resorzinformalinbasis nicht erlaubt aufgrund der enthaltenen kanzerogenen Substanzen. Die weiteren zeitlich aufeinanderfolgenden Versorgungsarten der konservierenden Zahnheilkunde wie die Füllungen mit Gamma 2 – Amalgam hatte zwar eine starke Korrosionserscheinung (schwarze Verfärbung) der Zähne zur Folge, dies kann jedoch nicht als eindeutiges Merkmal im realen DVI-Fall gewertet werden. In den 80er Jahren waren Kunststoffe, die nicht auf der Adhäsivbasis eingesetzt worden sind, sowie Zemente weit verbreitet. Diese Versorgungsart führte jedoch zu einem schnellen Verlust der Zähne, im Falle der Kunststoffe häufig hervorgerufen durch eine Entzündung der Pulpa und bei der Versorgung mit Zement aufgrund der negativen mechanischen Eigenschaften, so dass Zähne mit diesen Versorgungsarten in der Regel nicht mehr anzutreffen sind. Erst Mitte Ende der 90er Jahre war mit Kunststoffen auf Adhäsivbasis, zunächst aus Westeuropa stammend, dann in Osteuropa nachproduziert, eine Alternative zu Amalgam als Füllungsmaterial im Front- und Seitenzahnbereich gefunden worden. Kunststoffe dieser Art waren farbbeständig und hatten positive mechanische Eigenschaften. Für den realen Identifikationsfall liefert diese Versorgungsart jedoch keinerlei Hinweise auf die Herkunft einer unbekannten Leiche. Die Untersuchung im Hinblick auf die prothetische Zahnheilkunde ergab zusammenfassend folgende Ergebnisse: • Die gestanzte Krone war im osteuropäischen Raum in den 70er und 80er Jahren weit verbreitet und lässt mit Ihrer Form einen Rückschluss auf die Herkunft einer unbekannten Leiche zu. • Die goldähnliche Beschichtung war bei allen Untersuchungen anzutreffen und weist ebenfalls auf eine Herkunft aus dem osteuropäischen Raum hin. • Die gestanzte Brücke mit gelöteten Zwischengliedern lässt in dieser Form den Schluss einer osteuropäischen Herkunft zu. • Die gestanzte Krone mit Kunststoffverblendung ist ebenfalls nur im osteuropäischen Raum anzutreffen. • Der typische Rotgoldton der gestanzten Goldkrone kann ebenfalls als Merkmal einer osteuropäischen Herkunft gewertet werden. Im Hinblick auf die herausnehmbare prothetische Versorgung wurde im Verlauf der Untersuchungen deutlich, dass weder die MEG- noch die Totalprothese Hinweise auf die Herkunft einer unbekannten Leiche liefern können. Die Teilprothese mit handgebogener Klammer liefert zwar insofern Hinweise, als dass eine solche Art der Versorgung im osteuropäischen Raum als defintive Versorgung galt, während eine solche Versorgung im westeuropäischen Raum nur als Interimsversorgung genutzt wurde. Zusammenfassend muss man zu dem Schluss kommen, dass der festsitzende Zahnersatz eindeutigere Merkmale für den DVI-Fall liefern kann.
In der vorliegenden Arbeit werden die angewendeten Kräfte, die von drei Behandlergruppen (Studenten, Zahnärzte und Spezialisten) während der lateralen Kondensation von Guttapercha aufgebracht werden, in Abhängigkeit vom Qualifikationsgrad des Behandlers und der unterschiedlichen Kanalkonizität untersucht. Die Behandlergruppen bestehen aus jeweils 12 Personen. Jeder Proband füllt in folgender Reihenfolge einen vorgefertigten Kunststoffkanal der Konizität .02, .04, .06 und p30 (ProTaper F3) nach der Methode der lateralen Kondensation unter Verwendung von AH plus Sealer und Guttapercha. Dabei werden von einem Kraftsensor die entstehenden vertikalen Kräfte gemessen, aufgezeichnet und dann mittels geeigneter Software hinsichtlich folgender Ergebnisgrößen ausgewertet: • Absolute Maxima der angewendeten Kraft bei Wurzelkanalfüllung • Durchschnittswerte der angewendeten Kraft • Häufigkeitsverteilung der Kraftmesswerte • Zugkraftwerte (Minima der angewendeten Kraft) • Streuungsmaße (Standardabweichung und Varianz) • Anzahl der auftretenden Kraftspitzen pro Kanalfüllung • zugrunde liegende probandenspezifische Füllmuster • Anzahl der zur Kanalfüllung verwendeten Guttaperchastifte • benötigte Kanalfüllzeit Folgende Ergebnisse sind erarbeitet worden: 1. Die 36 Probanden haben durchschnittliche Maximalwerte von 1,10-2,12 kg eingesetzt: Spezialisten wendeten im Mittel 2,12 kg an, Studenten 1,48 kg und Zahnärzte 1,10 kg. 2. Die Durchschnittswerte der eingesetzten Lasten der 36 Probanden liegen zwischen 0,51-0,92 kg: Spezialisten wendeten im Mittel 0,92 kg an, Studenten 0,65 kg und Zahnärzte 0,51 kg. Auch hier kondensieren die Spezialisten mit höheren Kraftwerten. 3. Statistisch signifikante Unterschiede zwischen den Behandlergruppen bestehen bei: • Maximalkraft: bei allen Konizitäten • Durchschnittskraft: bei den Konizitäten .02 und .04 • Minimalkraft: keine signifikanten Unterschiede • Standardabweichung: bei allen Konizitäten • Kraftspitzen: keine signifikanten Unterschiede 4. Statistisch signifikante Unterschiede zwischen den Kanalkonizitäten bestehen bei: a) Studenten • Maximalkraft: keine signifikanten Unterschiede • Durchschnittskraft: zwischen den Konizitäten .04 und .06 • Minimalkraft: keine signifikanten Unterschiede • Standardabweichung: keine signifikanten Unterschiede b) Zahnärzten • Maximalkraft: keine signifikanten Unterschiede • Durchschnittskraft: zwischen den Konizitäten .06 und p30 • Minimalkraft: keine signifikanten Unterschiede • Standardabweichung: keine signifikanten Unterschiede c) Spezialisten • Maximalkraft: zwischen den Konizitäten .04 und .06 • Durchschnittskraft: bei allen Konizitäten bis auf zwischen .02 und .04 sowie zwischen .06 und p30 • Minimalkraft: keine signifikanten Unterschiede • Standardabweichung: keine signifikanten Unterschiede 5. Es gibt bei den untersuchten Kraftwerten keine signifikanten Unterschiede zwischen weiblichen und männlichen Behandlern. 6. Es wurde ein individuelles Kraftauftragsmuster bei den Behandlern der unterschiedlichen Gruppen festgestellt. 7. Mit ansteigender Konizität werden von allen Behandlergruppen signifikant mehr Guttaperchastifte in den Kanal eingebracht. Zahnärzte tendieren dazu, weniger Guttaperchastifte zu verwenden und die Kanäle schneller zu füllen, als die Probanden der anderen beiden Gruppen.
Mit der Ausweitung von Implantatversorgungen auf den Seitenzahnbereich teilbezahnter Patienten haben sich in der internationalen Zahnheilkunde verschiedene Therapiekonzepte mit teilweise konträren Inhalten entwickelt, um die Komplikationsraten der prothetischen Versorgungen zu senken. Ziel dieser Arbeit ist die Analyse von implantatprothetischen Konzepten bei festsitzenden Versorgungen im Seitenzahnbereich sowie der Vergleich internationaler Studien mit der vorliegenden klinischen Langzeitstudie zur Bewährung von Suprastrukturen. Im Rahmen dieser prospektiven klinischen Studie wurden 357 Patienten mit 799 Implantaten im Seitenzahnbereich versorgt und regelmäßig jährlich nachuntersucht. Entsprechend ihrer Versorgung werden 346 implantatgetragene Einzelkronen, 83 verblockte Kronen, 108 reinimplantat- getragene Brücken und 111 Verbundbrücken unterschieden und die Überlebensraten dieser Suprastrukturen verglichen. In der Gruppe der implantatgetragenen Einzelkronen beträgt die Überlebensrate der Implantate nach fünf Jahren 97,9%. Der Anteil komplikationsloser Versorgungen in diesem Zeitraum beträgt 78%. Bei den verblockten Kronen wurden während des Untersuchungszeitraums keine Implantatverluste festgestellt, der Anteil komplikationsloser Versorgungen liegt nach fünf Jahren bei 84%. Im Bereich der reinimplantatgetragenen Brücken frakturierte eines der Implantate unter Belastung, so dass daraus eine 5-Jahres-Überlebensrate der Implantate von 99,6% resultiert. Bei 66,7% der Brücken traten keinerlei prothetische Komplikationen auf. Auch in der Gruppe der Verbundbrücken traten keine Implantatverluste auf. Zudem wiesen die Versorgungen in diesem Bereich mit einem Anteil komplikationsloser Versorgungen von 89,2% nach fünf Jahren die besten prothetischen Ergebnisse auf. In allen vier Gruppen zeigte sich die Dezementierung als häufigstes prothetisches Ereignis. Sowohl die Wahl des Implantatsystems als auch die Liegedauer weisen einen statistisch signifikanten Einfluss auf die Komplikationsrate der Suprastrukturen auf. Dagegen haben der Implantationsort (Ober- bzw. Unterkiefer, Prämolaren- bzw. Molarengebiet), die Zahl der Implantate im Verbund der prothetischen Konstruktion sowie der Implantatdurchmesser keinen statistisch signifikanten Einfluss hinsichtlich des Anteils der Suprakonstruktionen mit Komplikationen. Die festsitzende Versorgung von Implantaten mit bewährten prothetischen Konzepten zeigt in unserer klinischen Studie niedrigere Komplikationsraten als die Literatur. Selbst bei hohen Kaubelastungen, wie sie vor allem im Molarengebiet auftreten, kann auf die Verblockung von Kronen verzichtet werden. Zudem können Implantate im Rahmen einer Pfeilervermehrung mit natürlichen Zähnen verbunden werden, ohne dass daraus eine höhere Rate technischer Misserfolge resultiert. Dabei stellt die Dezementierung als häufigstes Ereignis keine echte prothetische Komplikation dar. Sie ist vielmehr abhängig von der Größe des verwendeten Abutments, von der Oberflächenbeschaffenheit von Abutment und Krone (poliert oder gestrahlt), von der Art des Befestigungszementes sowie von der Passgenauigkeit. Die Ergebnisse dieser klinischen Studie zeigen, dass bei Verwendung eines mechanisch hochfesten Implantatsystems auf spezielle implantatprothetische Konzepte verzichtet werden kann, sondern vielmehr zahnbasierte prothetische Konzepte übertragen werden können.
Die ionenstrahlinduzierte Desorption ist eine Beeinträchtigung der Leistungsfähigkeit moderner Hochstrom-Schwerionensynchrotrons. Umgeladene Projektilionen folgen in den Ablenkmagneten nicht der Sollbahn des Strahls und kollidieren mit der Strahlrohrwand. Dies führt zu einer stimulierten Gasabgabe an das Beschleunigervakuum. Der resultierende erhöhte Druck hat eine deutliche Einschränkung der Strahllebensdauer zur Folge. Um die Menge des abgegebenen Gases zu minimieren wurden zahlreiche Experimente durchgeführt, die der Bestimmung der Desorptionsausbeute (desorbierte Gasmoleküle pro auftretendem Ion) unterschiedlicher Materialien unter Bestrahlung mit verschiedenen Ionen dienten. Die vorliegende Arbeit ist ein Beitrag zum Verständnis der physikalischen Prozesse der ionenstrahlinduzierten Desorption. Die Messung der Desorptionsausbeuten mittels der Druckanstiegsmethode wurde erstmals mit Materialanalytiken wie ERDA und RBS kombiniert. Mit diesem einzigartigen experimentellen Aufbau kann das Desorptionsverhalten mit den Oberflächen- und Festkörpereigenschaften der Proben korreliert werden. Anhand der durchgeführten Experimente mit 1,4 MeV/u Xenon-Ionen konnte gezeigt werden, dass die ionenstrahlinduzierte Desorption im Wesentlichen ein Oberflächeneffekt ist. Zerstäubte Verunreinigungen oder abgetragene Oxidschichten von Metallen liefern keinen nennenswerten Beitrag zum desorbierten Gas. Dennoch ist die Desorptionsausbeute stark von den Festkörpereigenschaften der Probe abhängig. Rein metallische Proben desorbieren unter Bestrahlung mit schnellen Schwerionen weniger stark als Isolatoren. Durch die experimentellen Ergebnisse wurde es möglich, Desorptionsausbeuten unter Ionenbestrahlung anhand eines modiffizierten inelastischen Thermal-Spike-Modells vorauszusagen. Die Erweiterung des Modells ist die Kombination des Temperaturprofils mit der thermischen Desorption. Damit kann die ionenstrahlinduzierte Desorption als die Abgabe von Oberflächenadsorbaten, ausgelöst durch eine kurzzeitige Erhöhung der Oberflächentemperatur um den Ioneneinschlag herum, betrachtet werden.
Die Tradition des Drachenbootsports ist über 2200 Jahre alt und kommt aus dem fernen Osten Chinas. Doch erst vor einigen Jahrzehnten kam dieser Mannschaftssport auch nach Deutschland, der seitdem so viele Menschen begeistert. Dieser Faszination gegenüber steht die Sportwissenschaft, die sich bemüht, neu aufkommende Trendsportarten zu erforschen. Doch im Bereich des „Dragonboatings“ gab es bislang nur wenige Hinweise in der Literatur, so liegen derzeit keine aktuellen Zahlen über eine Verletzungs- und Fehlbeanspruchungsinzidenz vor. Im Rahmen dieser deskriptiven Arbeit wurden zum ersten Mal (in Deutschland) Erkenntnisse zur Epidemiologie und Pathogenese in einer bisher unerforschten Sportart geliefert.
Antibiotic resistance of pathogenic bacteria is a major worldwide problem. Bacteria can resist antibiotics by active efflux due to multidrug efflux pumps. The focus of this study has been the mycobacterial multidrug transporter TBsmr because it belongs to the small multidrug resistance (SMR) family whose members are a paradigm to study multidrug efflux due to their small size. SMR proteins are typically 11-12 kDa in size and have a four-transmembrane helix topology. They bind cationic, lipophilic antibiotics such as ethidium bromide (EtBr) and TPP+, and transport them across the membrane in exchange for protons. To understand the molecular mechanism of multidrug resistance, we have to gain information about the structure and function of these proteins. The research described in this thesis aimed to deduce details about the topology, transport cycle and key residues of TBsmr using biophysical techniques. Solid-state NMR (ssNMR) can provide detailed insight into structural organization and dynamical properties of these systems. However, a major bottleneck is the preparation of mg amounts of isotope labeled protein. In case of proteoliposomes, the problem is compounded by the presence of lipids which have to fit into the small active volume of the ssNMR rotor. In Chapter 3, an enhanced protein preparation is described which yields large amounts of TBsmr reconstituted in a native lipid environment suitable for further functional and structual studies. The achieved high protein-to-lipid ratios made a further characterization by ssNMR feasible. The transport activity and oligomeric state of the reconstituted protein in different types of lipid was studied as shown in Chapter 4. The exact oligomeric state of native SMR proteins is still uncertain but a number of biochemical and biophysical studies in detergent suggest that the minimal functional unit capable of binding substrate is a dimer. However, binding assays are not ideal since a protein may bind substrate without completing the transport cycle which can only be shown for reconstituted protein in transport assays.By combining functional data of a TPP+ transport assay with information about theoligomeric state of reconstituted TBsmr obtained by freeze-fracture electron microscopy, it could be shown that lipids affect the function and the oligomeric state of the protein, and that the TBsmr dimer is the minimal functional unit necessary for transport. The transport cycle must involve various conformational states of the protein needed for substrate binding, translocation and release. A fluorescent substrate will therefore experience a significant change of environment while being transported, which influences its fluorescence properties. Thus the substrate itself can report intermediate states that form during the transport cycle. In Chapter 5, the existence of such a substrate-transporter complex for the TBsmr and its substrate EtBr could be shown. The pH gradient needed for antiport has been generated by co-reconstituting TBsmr with bacteriorhodopsin. The measurements have shown the formation of a pH-dependant, transient substrate-protein complex between binding and release of EtBr. This state was further characterized by determining the Kd, by inhibiting EtBr transport through titration with non-fluorescent substrate and by fluorescence anisotropy measurements. The findings support a model with a single occluded intermediate state in which the substrate is highly immobile. Liquid-state NMR is a useful tool to monitor protein-ligand interactions by chemical shift mapping and thus identify and characterize important residues in the protein which are involved in substrate binding. In agreement with previous studies (Krueger-Koplin et al., 2004), the detergent LPPG was found to be highly suitable for liquid-state NMR studies of the membrane protein TBsmr and 42% of the residues could be assigned, as reported in Chapter 6. However, no specific interactions with EtBr were found. This observation was confirmed by LILBID mass spectrometry which showed that TBsmr was predominantly in the non-functional monomeric state. Functional protein was prepared in proteoliposomes which can be investigated by solidstate NMR (Chapter 7). Besides the essential E13, the aromatic residues W63, Y40, and Y60 have been shown to be directly involved in drug binding and transport. Different isotope labeling strategies were evaluated to improve the quality of the NMR spectra to identify and characterize these key residues. In a single tryptophan mutant of reconstituted TBsmr W30A, the binding of ethidium bromide could be detected by 13C solid-state NMR. The measurements have revealed two populations of the conserved W63 residue with distinct backbone structures in the presence of substrate. There is a controversy about the parallel or anti-parallel arrangement of the protomers in the EmrE dimer (Schuldiner, 2007) but this structural asymmetry is consistent with both a parallel and anti-parallel topology.
Auch Erdbeben haben ihre Geschichte. Obgleich Erdbeben nur kurze Ereignisse sind, die Erdstöße oft nicht länger als ein paar Sekunden dauern, haben sie eine lange Geschichte ihrer Deutung. Sie geht den Beben voraus und folgt ihnen noch lange nach. Von einer solchen Geschichte der Deutung handelt dieser Beitrag. Er nimmt ein Ereignis zur Vorlage, das wie kaum ein zweites Erdbeben in der Geschichte Europas Epoche gemacht hat: das Erdbeben von Lissabon 1755. Von dieser Katastrophe gibt es fast nur Deutungen, kaum Augenzeugenberichte, die nicht schon von den philosophischen und theologischen Diskursen überschrieben wären.
Die spinale Kompression bei Wirbelsäulenfrakturen löst eine komplexe Abfolge von pathophysiologischen Ereignissen aus. Dem neuronalen Primärschaden, der unmittelbar durch das Trauma entsteht, folgt ein Sekundärschaden, der durch die Aktivierung immunkompetenter Zellen vermittelt wird. Durch die Ausschüttung proinflammatorischer Zytokine und anderer potentiell neurotoxischer Faktoren wie Interleukin (IL)-1, IL-6, Tumor Nekrose Faktor (TNF)-α, Stickstoffmonoxid (NO) oder freier Radikale wird der initial entstandene Primärschaden verstärkt. Um die Hypothese zu prüfen, dass eine Hemmung von immunkompetenten Zellen mit dem Immunsuppressivum Mycophenolatmofetil (MMF) zu einem verbesserten Erhalt neuronaler Strukturen führt, wurde das etablierte Modell der organotypischen hippocampalen Schnittkultur (OHSC) gewählt. In diesem Modell können die komplexen Vorgänge der neuronalen Schädigung und der glialen Aktivierung exzellent dargestellt werden, da die verschiedenen Zelltypen des Hirngewebes in organotypischer Anordnung erhalten bleiben. Die reproduzierbare experimentelle Schädigung der OHSC wurde am 6. Tag in vitro (div) durch exzitotoxische Behandlung mit N-Methyl-d-Aspartat (NMDA; 50 μM; 4 h) erzielt. Zeitgleich mit der Schädigung mittels NMDA und weiter bis zum Fixationszeitpunkt nach 9 div wurde das Immunsuppressivum MMF verabreicht. Die mit NMDA geschädigten Schnittkulturen zeigten einen dramatischen neuronalen Schaden und eine starke Zunahme der Zahl der Mikrogliazellen. Die hier nach quantitativer Analyse mittels konfokaler Laser Scanning Mikroskopie ermittelten Korrelate des neuronalen Schadens, also die Zahl mit Propidiumiodid (PI) angefärbter, lädierter Neurone, und die Zahl der mit Griffonia simplicifolia (IB4) markierten Mikrogliazellen, wurden auf einen Wert von 100% normalisiert. Die Kontrollkulturen zeigten im Vergleich zu den geschädigten Kulturen fast keinen neuronalen Schaden (1,1% PI-markierte Zellen verglichen mit 100% in der mit NMDA geschädigten Gruppe, p<0,05), und nur wenige, ruhende Mikrogliazellen (13,8%, p<0,05). Nach Schädigung mittels NMDA und gleichzeitiger Verabreichung von MMF (10 μg/ml) zeigte sich eine signifikante Reduktion der Zahl PI-markierter Neurone auf 51,0% (p<0,05) und der Zahl der Mikrogliazellen auf 47,1 % (p<0,05), jeweils verglichen mit der NMDA-Gruppe. Bei der Verwendung von MMF in höherer Konzentration (100 μg/ml) wurden Werte von 50,4 % (p<0,05) für den neuronalen Schaden und 31,9 % (p<0,05) für die Zahl der Mikrogliazellen ermittelt. Die Kurzzeitverabreichung von MMF in einer Konzentration von 100 μg/ml für nur 4 Stunden parallel mit der exzitotoxischen Schädigung mittels NMDA resultierte nur in einer signifikanten Verminderung der Anzahl Mikrogliazellen auf 34,9% (p<0,01), nicht hingegen in einer signifikanten Reduzierung des neuronalen Schadens. Weiterhin konnte gezeigt werden, dass MMF einen antiproliferativen Effekt auf Gliazellen hat. Mittels Ki67-Färbung konnte nach Gabe von MMF im Vergleich zu den nur mit NMDA geschädigten Kulturen (100%) ein Rückgang der Zahl proliferierender Ki67+-Gliazellen auf 21,9% (MMF 10 μg/ml; p<0,01) bzw. 17% (MMF 100 μg/ml; p<0,01) gezeigt werden. Ferner wurden viele Zellen gesehen, die nach MMF-Gabe fragmentierte Kerne aufwiesen. Dieses Phänomen wurde als Zeichen von apoptotischen Vorgängen in Gliazellen aufgefasst. Die hier beschriebenen Ergebnisse zeigen, dass MMF den neuronalen Schaden und das Ausmaß der Mikrogliaaktivierung um ca. 50% reduziert. Zusätzlich wurde belegt, dass MMF einen antiproliferativen Effekt auf Mikrogliazellen und Astrozyten hat. Die Befunde sprechen für die genauere Charakterisierung der ermittelten neuroprotektiven Effekte in einem in vivo-Modell der spinalen Kompression.
Die Analyse der Ionisation des in Zürich durchgeführten Ionisationsexperimentes an Helium hat in erster Line gezeigt, wie exakt die optischen Eigenschaften der lambda/4 Platte bekannt sein müssen, um die richtigen Schlussfolgerungen aus den experimentellen Daten zu ziehen. Insbesondere, dass bei der Bandbreite des verwendeten Lichtes, rein zirkulare Laserpulse mit den heutzutage zu Verfügung stehenden Verzögerungsplatten nicht erzeugt werden können und wie gravierend sich eine Restelliptizität von wenigen Prozent auf die Impulsverteilung auswirkt. Wird dieses Wissen jedoch in die Analyse mit eingebracht, so erlaubt der präsentierte Ansatz eine Bestimmung des Ionisationszeitpunktes mit der Genauigkeit in der Größenordnung von 10 Prozent der Dauer einer Laserperiode. Diese Analyse erlaubt in Zukunft in Experimenten mit zirkular polarisierter Laserstrahlung beim Auftreten von Mehrfachionisation die Bestimmung der Zeitintervalle zwischen den einzelnen Ionisatiosereignissen. Des weiteren ermöglicht die vorgestellte Analyse aus den gemessenen Impulsvereilungen eine CEO-Phasenbeestimmung durzuführen, bei welcher die Anzahl der benötigten Ionisationsvorgänge geringer ist als bei der Benutzung eines Stereo-ATI. In Verbindung mit Detektorsystemen, welche in der Lage sind die Winkelverteilungen für Ereignisse zu bestimmen, bei denen sehr viele Ionisationsereignisse auf einmal auftreten, kann die Anzahl der Laserschüsse, die für die Bestimmung der CEO-Phase benötigt werden, stark verringert werden. Das Pump-and-Probe-Experiment liefert trotz der Problematik, welche sich in diesem Fall bei der Anwendung des Pump-and-Probe-Schemas auf Grund der zur Verfügung stehenden Wellenlänge ergeben einen Hinweis auf die Zeitdauer, die zur Isomerisation benötigt wird. Bei den gewählten Intensitäten ist nach einem Zeitraum zwischen 30 und 60 fs zwischen dem Pump- und Probe-Puls ein Anstieg der Anzahl der in drei Teilchen fragmentierten Moleküle zu beobachten, welche einer Vinylidenkonfiguration entstammen. Der relative Anstieg der Vinylidenpopulation beträgt zehn Prozent. Der Grund, dass kein Anstieg der Vinyliden Population von null an zu beobachten ist, ist wahrscheinlich dadurch begründet, dass die Isomerisation schon an den Flanken des Pump-Pulses stattfindet und schon vor Erreichen der maximalen Intensität des Pump-Pulses abgeschlossen ist. Der Analoge Prozess könnte an den Flanken des Probe-Pulses stattfinden. Dies muss durch eine separate theoretische Behandlung erörtert werden.
Während zerebraler Ischämie und Reperfusion (I/R) kommt es zur Bildung von reaktiver Sauerstoffspezies (ROS), von welchen ausgegangen wird, dass sie zum neuronalen Schaden beitragen. NADPH Oxidasen produzieren ROS. Wir untersuchten daher, ob und in welchem Maße NADPH Oxidasen am Gewebeschaden und insbesondere an der Schädigung der Blut-Hirn-Schranke (BHS) nach experimenteller I/R beteiligt sind. Hierfür induzierten wir an Wildtyp und NADPH Oxidase (gp91phox-/-) Knockout Mäusen in An-und Abwesenheit pharmakologischer Inhibitoren eine transiente zerebrale Ischämie mittels Fadenverschlusses der Arteria cerebri media (MCAO) für 120 Minuten mit anschließender Reperfusion. Das Infarktvolumen nach 24 Stunden war bei den Tieren mit fehlender funktioneller NADPH Oxidase (gp91phox-/-) bzw. (p47phox-/-) deutlich kleiner als in der Gruppe der Wildtyp Mäuse (TTC Färbung). I/R erhöhte bei den Wildtyp Mäusen im Vergleich zur kontralateralen Hemisphäre die BHS Permeabilität für Evans Blue innerhalb der ersten Stunde nach Ischämie signifikant. Apocynin, ein NADPH Oxidase Inhibitor schwächte diesen Effekt dosisabhängig signifikant ab. In der Gruppe der gp91phox Knockout-Tieren war dieser protektive Effekt auf die BHS Permeabilität noch ausgeprägter. In Schweinehirnendothelzellen (PBEC) induzierten wir durch I/R eine Translokation des NADPH Oxidase Aktivators Rac-1 an die Membran.Die deutliche Reduktion des BHS Schadens nach Hemmung von Rac-1 durch Clostridium difficile lethal Toxin B ( TcdB) und Atorvastatin weist darauf hin, dass dies die Folge der Inhibition der NADPH Oxidase Aktivierung war. Die Stimulation von PBEC mit H2O2 steigerte die Permeabilität, was durch die Inhibition der Phosphatidyl-Inositol-3-Kinase oder c-Jun N-terminale Kinase abgeschwächt werden konnte. Die Inhibition der Extracellular-regulated Kinase 1/2 oder p38 mitogen-activated-protein Kinase hatte dagegen keinen Effekt. Jedoch konnte die Inhibition von Rho eine ROS induzierte Steigerung der Permeabilität sowie eine ROS induzierte Polymerisation des Zytoskelett vollkommen unterbinden. Die Ergebnisse dieser Studie belegen, dass die Aktivierung der NADPH Oxidase ein zentraler Bestandteil der Pathophysiologie des ischämischen Infarktes ist und liefern darüber hinaus eine Erklärung für die positiven Effekte der Statintherapie beim Schlaganfall des Menschen. Die direkte Hemmung der NADPH Oxidase stellt ein vielversprechendes Prinzip in der Akuttherapie des ischämischen Infarktes dar.
The phenomenon of ´Siva-Buddha cult in Bali is more pronounced than in other places such as in East Java, South East Asian, or even in India itself, where ´Siva-Buddha took place as a major re-ligious life of the masses. We found in Bali that the Sanghyang ´Siva-Buddha has been wor-shipped as Sanghyang Tunggal, i.e. One God. As it is well known that the main problem of the syncretism of ´Siva-Buddha Cult in the course of Indonsian’s history is how to determine the proper meaning of syncretism, wether it is did happen on the level of philosophy, theology, or on the ground of social activities. In this regard, Bali has been provided rich sources to overcome of these difficulties. Many traditional’s literature of Bali called lontar contains either similarities or deep ties of the two religious lifes. Moreover, it is mingled with various aspects of Balinese arts, traditions, cultures and local worship. As the result that syncretism of ´Siva-Buddha Cult in Bali is considered very unique in sense that the fact that the ´Siva-Buddha Cult is the existing religious life till mowadays. Balinese scholar, particularly the Hindu’s priests has been maintain the problem through the ages, so that, literatures has been wrote and publish in accordance to the ´Siva-Buddha Cult. But, unfortunately, as it is mainly pre-seved in the royal pamily, the masses of Bali did not aware about what does they had practiced in daily live. Actually, they had practices the cult of ´Siva-Buddha, but they do not aware about it. The present work is tray to sum up the worship of ´Siva-Buddha Cult in Balinese traditional in regard to it main problem of syncretism on the bases of Tantrayana’s teaching and their approach to the historical background.
Der Verkauf von Immobiliendarlehen sorgt nach wie vor für Aufregung. Die Kreditwirtschaft sieht sich mit vehementen öffentlichen Vorwürfen konfrontiert, die den Kredithandel beeinträchtigen. Die Kreditinstitute werden indes nicht müde in ihren Beteuerungen, ordnungsgemäß bediente Kredite nicht an Finanzinvestoren zu veräußern und dabei hinzunehmen, dass ihre Kreditnehmer ihrer Wohnimmobilie verlustig gehen. Die praktische Bedeutung des Kredithandels ist gerade in Deutschland immens. Exemplarisch genannt sei als eine der größten bisherigen Transaktionen der Ende 2007 erfolgte Erwerb eines 53.000 Immobiliarkredite umfassenden Portfolios im Volumen von ca. 4,3 Mrd. Euro durch die ING Diba von der Hypo Real Estate. Unter der Überschrift "Verbesserte Transparenz bei Verkäufen von Kreditforderungen" hat die Bundesregierung um die letzte Jahreswende ein Maßnahmenpaket vorgelegt, mit dem auf Missbrauchsfälle beim Verkauf von Krediten reagiert werden soll. Inzwischen ist die Diskussion fortgeschritten, weitere Reformvorschläge sind in der Welt. Dabei sind die rechtlichen Rahmenbedingungen von Kreditverkäufen de lege lata auch nach einer einschlägigen BGH-Entscheidung vom 27. Februar 2007 noch immer nicht abschließend geklärt. Bevor in nachfolgendem Beitrag die aktuellen Reformansätze vorgestellt und einer kurzen Bewertung unterzogen werden, seien daher die derzeitige Praxis und Rechtslage untersucht.
After the pioneering German “Aktiengesetz” of 1965 and the Brazilian “Lei das Sociedades Anónimas” of 1976, Portugal has become the third country in the world to enact a specific regulation on groups of companies. The Code of Commercial Companies (“Código das Sociedades Comerciais”, abbreviately hereinafter CSC), enacted in 1986, contains a unitary set of rules regulating the relationships between companies, in general, and the groups of companies, in particular (arts. 481° to 508°-E CSC). With this set of rules, the Portuguese legislator has dealt with one of the major topics of modern Company Law. While this branch of law is traditionally conceived as the law of the individual company, modern economic reality is characterized by the massive emergence of large-scale enterprise networks, where parts of a whole business are allocated and insulated in several legally independent companies submitted to an unified economic direction. As Tom HADDEN put it: “Company lawyers still write and talk as if the single independent company, with its shareholders, directors and employees, was the norm. In reality, the individual company ceased to be the most significant form of organization in the 1920s and 1930s. The commercial world is now dominated both nationally and internationally by complex groups of companies”. This trend, which is now observable in any of the largest economies in the world, holds also true for small markets such as Portugal. Although Portuguese economy is still dominated by small and medium-sized enterprises, the organizational structure of the group has always been extremely common. During the 70s, it was estimated that the seven largest groups of companies owned about 50% of the equity capital of all domestic enterprises and were alone responsible for 3/4 of the internal national product. Such a trend has continued and even highlighted in the next decades, surviving to different political and economic scenarios: during the 80s, due to the process of state nationalization of these groups, an enormous public group with more than one thousand controlled companies has been created (“IPE - Instituto de Participações do Estado”); and during the 90s until today, thanks to the reprivatisation movement and the opening of our national market, we assisted to the re-emergence of some large private groups, composed of several hundred subsidiaries each, some of which are listed in foreign stock exchange markets (e.g., in the banking sector, “BCP – Banco Comercial Português”, in the industrial area, “SONAE”, and in the media and communication area, “Portugal-Telecom”).
Reform of the securities class action is once again the subject of national debate. The impetus for this debate is the reports of three different groups – The Committee on Capital Market Regulation, The Commission on the Regulation of U.S. Capital Markets In the 21st Century, and McKinsey & Company. Each of the reports focuses on a single theme: how the contemporary regulatory culture places U.S. capital markets at a competitive disadvantage to foreign markets. While multiple regulatory forces are targeted by each report’s call for reform, each of the reports singles out securities class actions as one of the prime villains that place U.S. capital markets at a competitive disadvantage. The reports’ recommendations range from insignificant changes to drastic curtailments of private class actions. Surprisingly, these current-day cries echo calls for reform heeded by Congress in the not too distant past. Major reform of the securities class action occurred with the Private Securities Litigation Reform Act of 1995.5 Among the PSLRA’s contributions is the introduction of procedures by which the court chooses from among competing petitioners a lead plaintiff for the class. The statute commands that the petitioner with the largest financial loss suffered as a consequence of the defendant’s alleged misrepresentation is presumed to be the most adequate plaintiff. Thus, the lead plaintiff provision supplants the traditional “first to file” rule for selecting the suit’s plaintiff with a mechanism that seeks to harness to the plaintiff’s economic self interest to the suits’ prosecution. Also, by eliminating the race to be the first to file, the lead plaintiff provision seeks to avoid “hair trigger” filings by overly eager plaintiffs’ counsel which Congress believed too frequently gave rise to incomplete and insubstantially pled causes of action. The PSLRA also introduced for securities class actions a heightened pleading requirement8 as well as a bar to the plaintiff obtaining any discovery prior to the district court disposing of the defendants’ motions to dismiss. By introducing the requirement that allegations involving fraud must be plead not only with particularity, but also that the pled facts must establish a “strong inference” of fraud, the PSLRA cast aside, albeit only for securities actions, the much lower notice pleading requirement that has been a fixture of American civil procedure for decades. Substantive changes to the law were also introduced by the PSLRA. With few exceptions, joint and several liability was replaced by proportionate liability so that a particular defendant’s liability is capped by that defendant’s relative degree of fault. Similarly, contribution rights among co-violators are also based on proportionate fault of each defendant. Three years after the PSLRA, Congress returned to the topic again by enacting the Securities Litigation Uniform Standards Act;13 this provision was prompted by aggressive efforts of plaintiff lawyers to bypass the limitations, most notably the bar to discovery and higher pleading requirement, of the PSLRA by bringing suit in state court. Post-SLUSA, securities fraud class actions are exclusively the domain of the federal court. In this paper, we examine the impact of the PSLRA and more particularly the impact the type of lead plaintiff on the size of settlements in securities fraud class actions. We thus provide insight into whether the type of plaintiff that heads the class action impacts the overall outcome of the case. Furthermore, we explore possible indicia that may explain why some suits settle for extremely small sums – small relative to the “provable losses” suffered by the class, small relative to the asset size of the defendantcompany, and small relative to other settlements in our sample. This evidence bears heavily on the debate over “strike suits.” Part I of this paper sets forth the contemporary debate surrounding the need for further reforms of securities class actions. In this section, we set forth the insights advanced in three prominent reports focused on the competitiveness of U.S. capital markets. In Part II we first provide descriptive statistics of our extensive data set, and thenuse multivariate regression analysis to explore the underlying relationships. In Part III, we closely examine small settlements for clues to whether they reflect evidence of strike suits. We conclude in Part IV with a set of policy recommendations based on our analysis of the data. Our goals in this paper are more modest than the Committee Report, the Chamber Report and the McKinsey Report, each of which called for wide-ranging reforms: we focus on how the PSLRA changed securities fraud settlements so as to determine whether the reforms it introduced accomplished at least some of the Act’s important goals. If the PSLRA was successful, and we think it was, then one must be somewhat skeptical of the need for further cutbacks in private securities class action so soon after the Act was passed.
Der Referentenentwurf eines Gesetzes zur Umsetzung der Aktionärsrechterichtlinie (ARUG), der am 6. Mai 2008 der Öffentlichkeit zugeleitet wurde, bringt einige lang erwartete und vorab in der Literatur viel diskutierte Neuerungen des Aktiengesetzes. Anlass für den Entwurf ist die Umsetzung der Richtlinie 2007/36/EG vom 11. Juli 2007 über die Ausübung bestimmter Rechte von Aktionären in börsennotierten Gesellschaften (sog. Aktionärsrechterichtlinie).2 Dem Ziel der Richtlinie folgend soll die grenzüberschreitende Ausübung von Aktionärsrechten erleichtert werden; dies betrifft vor allem die Möglichkeiten der Online-Teilnahme an der Hauptversammlung und die Kommunikation mit den Aktionären im Vorfeld der Hauptversammlung. Darüber hinaus wird die Richtlinienumsetzung vom deutschen Gesetzgeber zum Anlass genommen, das Aktienrecht noch in einigen weiteren Punkten zu ändern. So wird das Depotstimmrecht der Kreditinstitute weiter dereguliert und die Festsetzung eines Mindestbetrages bei Wandelschuldverschreibungen ermöglicht. Die Werthaltigkeitsprüfung bei Sacheinlagen im Rahmen von Gründungen und Kapitalerhöhungen wird eingeschränkt; damit werden einige Optionen der durch die Richtlinie 2006/68/EG3 geänderten Kapitalrichtlinie4 umgesetzt. Ein besonderer Schwerpunkt des Referentenentwurfs liegt auf der Konkretisierung der aktien-, umwandlungs- und konzernrechtlichen Freigabeverfahren, durch welche missbräuchliche Aktionärsklagen weiter eingedämmt werden sollen.
The market reaction to legal shocks and their antidotes : lessons from the sovereign debt market
(2008)
This Article examines the market reaction to a series of legal events concerning the judicial interpretation of the pari passu clause in sovereign debt instruments. More generally, the Article provides insights into the reactions of investors (predominantly financial institutions), issuers (sovereigns), and those who draft bond covenants (lawyers), to unanticipated changes in the judicial interpretation of certain covenant terms.
Im Normalfall, in dem Vorstand und Aufsichtsrat den Jahresabschluß feststellen (vgl. § 172 AktG), können sie einen Teil des Jahresüberschusses, höchstens jedoch die Hälfte, in „andere Gewinnrücklagen“1 einstellen (§ 58 Abs. 2 S. 1 AktG). Die Satzung kann Vorstand und Aufsichtsrat zur Einstellung eines größeren oder kleineren Teils des Jahresüberschusses ermächtigen; allerdings darf die Verwaltung aufgrund einer solchen Satzungsbestimmung keine Beträge in andere Gewinnrücklagen einstellen, wenn die anderen Gewinnrücklagen die Hälfte des Grundkapitals übersteigen oder soweit sie nach der Einstellung die Hälfte übersteigen würden (§ 58 Abs. 2 S. 2, 3 AktG). Nach § 58 Abs. 3 AktG kann die Hauptversammlung sodann in ihrem Beschluß über die Verwendung des Bilanzgewinns (vgl. § 174 AktG) weitere Beträge in Gewinnrücklagen einstellen oder als Gewinn vortragen. Im Folgenden werden nach einer Sichtung wirtschaftswissenschaftlicher Erwägungen zu Thesaurierung und Ausschüttung (unten II.) die Pflichten und die Kontrolle der Entscheidungen über die Gewinnverwendung von Vorstand und Aufsichtsrat einerseits (unten III.) und der Hauptversammlung andererseits (unten IV.) erörtert. V. faßt die Ergebnisse zusammen. Die besonderen Rechtsfragen, die sich bei Rücklagenbildung in abhängigen Gesellschaften ergeben, werden nicht behandelt.
How do fiscal and technology shocks affect real exchange rates? : New evidence for the United States
(2008)
Using vector autoregressions on U.S. time series relative to an aggregate of industrialized countries, this paper provides new evidence on the dynamic effects of government spending and technology shocks on the real exchange rate and the terms of trade. To achieve identification, we derive robust restrictions on the sign of several impulse responses from a two-country general equilibrium model. We find that both the real exchange rate and the terms of trade – whose responses are left unrestricted – depreciate in response to expansionary government spending shocks and appreciate in response to positive technology shocks.
Motivated by the prominent role of electronic limit order book (LOB) markets in today’s stock market environment, this paper provides the basis for understanding, reconstructing and adopting Hollifield, Miller, Sandas, and Slive’s (2006) (henceforth HMSS) methodology for estimating the gains from trade to the Xetra LOB market at the Frankfurt Stock Exchange (FSE) in order to evaluate its performance in this respect. Therefore this paper looks deeply into HMSS’s base model and provides a structured recipe for the planned implementation with Xetra LOB data. The contribution of this paper lies in the modification of HMSS’s methodology with respect to the particularities of the Xetra trading system that are not yet considered in HMSS’s base model. The necessary modifications, as expressed in terms of empirical caveats, are substantial to derive unbiased market efficiency measures for Xetra in the end.
We explore the pattern of elderly homeownership using microeconomic surveys of 15 OECD countries, merging 60 national household surveys on about 300,000 individuals. In all countries the survey is repeated over time, permitting construction of an international dataset of repeated cross-sectional data. We find that ownership rates decline considerably after age 60 in all countries. However, a large part of the decline depends on cohort effects. Adjusting for them, we find that ownership rates start falling after age 70 and reach a percentage point per year decline after age 75. We find that differences across country ownership trajectories are correlated with indicators measuring the degree of market regulations.
This paper introduces adaptive learning and endogenous indexation in the New-Keynesian Phillips curve and studies disinflation under inflation targeting policies. The analysis is motivated by the disinflation performance of many inflation-targeting countries, in particular the gradual Chilean disinflation with temporary annual targets. At the start of the disinflation episode price-setting firms’ expect inflation to be highly persistent and opt for backward-looking indexation. As the central bank acts to bring inflation under control, price-setting firms revise their estimates of the degree of persistence. Such adaptive learning lowers the cost of disinflation. This reduction can be exploited by a gradual approach to disinflation. Firms that choose the rate for indexation also re-assess the likelihood that announced inflation targets determine steady-state inflation and adjust indexation of contracts accordingly. A strategy of announcing and pursuing short-term targets for inflation is found to influence the likelihood that firms switch from backward-looking indexation to the central bank’s targets. As firms abandon backward-looking indexation the costs of disinflation decline further. We show that an inflation targeting strategy that employs temporary targets can benefit from lower disinflation costs due to the reduction in backward-looking indexation.
Monetary policy analysts often rely on rules-of-thumb, such as the Taylor rule, to describe historical monetary policy decisions and to compare current policy to historical norms. Analysis along these lines also permits evaluation of episodes where policy may have deviated from a simple rule and examination of the reasons behind such deviations. One interesting question is whether such rules-of-thumb should draw on policymakers "forecasts of key variables such as inflation and unemployment or on observed outcomes. Importantly, deviations of the policy from the prescriptions of a Taylor rule that relies on outcomes may be due to systematic responses to information captured in policymakers" own projections. We investigate this proposition in the context of FOMC policy decisions over the past 20 years using publicly available FOMC projections from the biannual monetary policy reports to the Congress (Humphrey-Hawkins reports). Our results indicate that FOMC decisions can indeed be predominantly explained in terms of the FOMC´s own projections rather than observed outcomes. Thus, a forecast-based rule-of-thumb better characterizes FOMC decision-making. We also confirm that many of the apparent deviations of the federal funds rate from an outcome-based Taylor-style rule may be considered systematic responses to information contained in FOMC projections.
Risk transfer with CDOs
(2008)
Modern bank management comprises both classical lending business and transfer of asset risk to capital markets through securitization. Sound knowledge of the risks involved in securitization transactions is a prerequisite for solid risk management. This paper aims to resolve a part of the opaqueness surrounding credit-risk allocation to tranches that represent claims of different seniority on a reference portfolio. In particular, this paper analyzes the allocation of credit risk to different tranches of a CDO transaction when the underlying asset returns are driven by a common macro factor and an idiosyncratic component. Junior and senior tranches are found to be nearly orthogonal, motivating a search for the whereabout of systematic risk in CDO transactions. We propose a metric for capturing the allocation of systematic risk to tranches. First, in contrast to a widely-held claim, we show that (extreme) tail risk in standard CDO transactions is held by all tranches. While junior tranches take on all types of systematic risk, senior tranches take on almost no non-tail risk. This is in stark contrast to an untranched bond portfolio of the same rating quality, which on average suffers substantial losses for all realizations of the macro factor. Second, given tranching, a shock to the risk of the underlying asset portfolio (e.g. a rise in asset correlation or in mean portfolio loss) has the strongest impact, in relative terms, on the exposure of senior tranche CDO-investors. Our findings can be used to explain major stylized facts observed in credit markets.
We show that the use of correlations for modeling dependencies may lead to counterintuitive behavior of risk measures, such as Value-at-Risk (VaR) and Expected Short- fall (ES), when the risk of very rare events is assessed via Monte-Carlo techniques. The phenomenon is demonstrated for mixture models adapted from credit risk analysis as well as for common Poisson-shock models used in reliability theory. An obvious implication of this finding pertains to the analysis of operational risk. The alleged incentive suggested by the New Basel Capital Accord (Basel II), amely decreasing minimum capital requirements by allowing for less than perfect correlation, may not necessarily be attainable.