Refine
Year of publication
- 2007 (1960) (remove)
Document Type
- Article (786)
- Doctoral Thesis (313)
- Part of Periodical (245)
- Part of a Book (119)
- Book (111)
- Review (102)
- Working Paper (99)
- Conference Proceeding (58)
- Report (43)
- Diploma Thesis (16)
- Preprint (16)
- magisterthesis (12)
- Magister's Thesis (9)
- Other (9)
- Periodical (8)
- diplomthesis (5)
- Contribution to a Periodical (3)
- Course Material (2)
- Lecture (2)
- Master's Thesis (1)
- Study Thesis (1)
Language
- German (1231)
- English (587)
- Croatian (42)
- Portuguese (38)
- French (18)
- mis (9)
- Italian (7)
- Multiple languages (5)
- Yiddish (5)
- dut (3)
Keywords
- Deutsch (38)
- Kroatisch (37)
- Film (21)
- Literatur (19)
- Brasilien (18)
- Rezensionen (17)
- Deutschland (15)
- Bibliographie (14)
- Johann Wolfgang von Goethe (14)
- Literaturwissenschaft (11)
Institute
- Medizin (196)
- Extern (120)
- Biowissenschaften (78)
- Biochemie und Chemie (76)
- Physik (62)
- Rechtswissenschaft (45)
- Gesellschaftswissenschaften (41)
- Präsidium (41)
- Wirtschaftswissenschaften (40)
- Geschichtswissenschaften (35)
Die Montagne Noire am Südrand des französischen Zentralmassivs gehört in das Vorland der französischen Varisziden. Es handelt sich um einen metamorphen Kemkomplex mit einem Kern ("Axialzone") aus Graniten sowie teilweise migmatisierten Ortho- und Paragesteinen. Die Axialzone wird im Norden ("Nordflügel") und Süden ("Südflügel") von paläozoischen Sedimenten umrahmt. Der Nordflügel wird in die "westlichen Monts de Lacaune" (im Westen) und die "Nördliche Schuppenzone" (im Osten) unterteilt und besteht aus Gesteinen mit kambrischem bis silurischem Alter. Der Südflügel wird von einem Stapel aus mehreren Deckeneinheiten aufgebaut, deren stratigraphisches Alter vom Kambrium bis ins Karbon reicht. Die Deckeneinheiten heißen (von oben nach unten im Stapel): Pardailhan-Decke, Minervois-Decke, Mont Peyroux-Decke, Faugeres-Decke und Parautochthon. Die Montagne Noire repräsentiert den seltenen Fall eines "heißen" metamorphen Kernkomplexes, ist aber auch ein ideales Gebiet für vergleichende methodische Studien der sehr niedriggradigen Metamorphose: unterschiedliche Gesteinstypen (Sand- und Siltsteine, Tonschiefer, verschiedene Karbonate) lassen sich quer zur Metamorphosezonierung vom Bereich der Diagenese bis in die Grünschieferfazies verfolgen. In der vorliegenden Arbeit wurde die tektono-metamorphe Entwicklung der niedriggradigen paläozoischen Sedimente untersucht. Dazu wurde eine flächenhafte Studie der Schichtsilikatentwicklung in den Peliten durchgeführt. Es wurden folgende Methoden angewandt: Kubier Index ("Illitkristallinität"), Arkai-Index ("Chloritkristallinität"), "bo-Index" (zur Bestimmung des geothermischen Gradienten), Polytypie-Untersuchungen, sowie an ausgesuchten Proben Mikrosondenanalytik und Röntgenfluoreszenzanalyse. Femer wurden von K. Wemmer (Göttingen) an einigen Proben K-Ar-Datierungen der Feinfraktionen (<2 mikro m und <0,2 mikro m) durchgeführt, um die Entwicklung auch zeitlich zu erfassen. Die petrologischen und geochronologische Daten wurden zur Deformation in Bezug gesetzt. Dabei wurden sowohl Literaturdaten als auch eigene strukturgeologische Befunde verwendet. Es konnten drei tektono-metamorphe Hauptphasen nachgewiesen werden: Die erste Phase (D1 entspricht dem variszischen Deckenbau. Dabei wurde eine M1-Metamorphose angelegt, die durch den bo-Index als Mitteldruck-Metamorphose charakterisiert werden kann. Das Strukturinventar belegt einen etwa südgerichteten tektonischen Transport während D1. Diese Phase ist in der Nördlichen Schuppenzone sowie im W-Teil der Pardailhan-Decke erhalten. Das Alter dieser Phase konnte in kambro-ordovizischen Gesteinen mit der K-Ar-Methode auf 340 bis 330 Ma datiert werden. Diese Alter zeigen eine gute Übereinstimmung mit Ar/Ar-Datierungen aus den im N angrenzenden grünschieferfaziellen Decken des Albigeois. In den tieferen Decken des Südflügels, die ursprünglich weiter im Süden gelegen haben, kann die D1-Deformation erst nach Ende der Flyschsedimentation an der Grenze Vise/Namur (<320 Ma) stattgefunden haben. Die zweite Phase (D2) entspricht dem Aufstieg des metamorphen Kemkomplexes. Im Kontakt mit dem aufsteigenden, heißen Kern ist der größere Teil der paläozoischen Hüllschichten kinematisch und thermisch geprägt wurden. Dabei sind Strukturen und Mineralbestand von D1 und M1 ganz oder teilweise gelöscht worden. Die Extensions-bedingte penetrative S2-Schieferung ist im größten Teil des Südflügels das dominante Flächensystem: dies gilt für das Parautochthon, die gesamte Faugeres-Decke. den westlichen Teil der Mont Peyroux-Decke, den östlichen Teil der Pardailhan- Decke und wahrscheinlich auch die Minervois-Decke. Der Grad der Mz-Metamorphose, die auch in den westlichen Monts de Lacaune (Nordflügel) die prägende Metamorphose ist, nimmt generell mit zunehmender Entfernung von der Axialzone ab. Der bo-Index belegt Niederdruck-metamorphe Bedingungen. K-Ar-Datierungen aus verschiedenen Decken des Südflügels ergeben für D2/M2 Werte zwischen 310 und 300 Ma. Dieses Altersspektrum entspricht Ar/Ar-Datierungen (etwa 311 bis 303 Ma; synkinematischer Biotit und Muskovit; Maluski et al.1991) aus Scherzonen am S-Rand der Axialzone, die während der Exhumierung angelegt wurden. Die K-Ar-Alter der paläozoischen Decken passen auch sehr gut zu U/Pb-Altem aus Paragneisen (308 Ma, Monazit; Gebauer et al. 1988), Graniten (308 Ma, Monazit) und migmatischen Gneisen (313 Ma; beide Krause et al. 2004) der Axialzone, die eine starke thermische Aktivität zu dieser Zeit belegen. Das dritte metamorphe Ereignis (M3) ist unter Anderem im Stephanbecken von Graissessac, nachgewiesen, das im Zuge der Extensionstektonik (D2) am ENE-Ende der Axialzone entstanden ist. Nach dem bisherigen Kenntnisstand ist diese Metamorphose statisch. Der bo-Index belegt - wie auch bei M2 - eine LP-Metamorphose. Sie wurde vermutlich durch magmatische Instrusionen hervorgerufen. M3 muss jünger sein als das U-Pb-Alter eines Tuffes im tiefen Teil der Stefan-Abfolge (c. 295 Ma). Dazu passen Rb-Sr Mineralisochronen von 292 bis 277 Ma aus zwei benachbarten Granitplutonen. Ähnliche Alter treten auch in Pegmatiten der Axialzone auf. Nicht alle der untersuchten Bereiche können eindeutig einer der drei tektono-metamorphen Hauptphasen zugeordnet werden (St. Gervais-Einheit im NE der Axialzone, östlicher Teil der Mont Peyroux-Decke). Dies liegt vielfach an einer unzureichenden strukturgeologischen Datenlage. Teilweise haben aber auch Alterationsprozesse stattgefunden, welche die K-Ar-Alter verjüngt haben, oder der regionale Metamorphosegrad ist sehr niedrig. Schließlich ist in schwach anchimetamorphen oder nur diagenetisch beeinflussten Gesteinen die bo-Index-Methode nicht anwendbar. Insgesamt bestätigen die regionalen Untersuchungen das Bild eines heißen Gneiskerns, der während seines Extensions-bedingten Aufstieges seine Hüllschichten syntektonisch aufheizt. Zusätzlich zur geodynamischen Fragestellung wurden in dieser Arbeit auch methodische Aspekte verfolgt. Der Schwerpunkt lag hierbei auf der Untersuchung der K-Na-Verteilung in den Illiten bzw. Muskoviten. Es hat sich gezeigt, dass einige Proben Paragonit und/oder K/Na-Illit rührten. Diese Minerale stören die Bestimmung der Illitkristallinität im Röntgendiffraktogramm, da sich ihre Peaks mit denen des Illit überlagern. Es wurden daher verschiedene "Peak-Fittings" durchgeführt, bei denen sich zum einen zeigte, dass der 10 A-Peak besser für das Fitting von Illit und diskretem Paragonit geeignet ist als der 5 A-Peak. Es wurde zudem festgestellt, dass es nur schwer oder gar nicht möglich ist, Illit und eine K/Na-Phase mit einer zufriedenstellenden Qualität zu fitten. da die Peakmaxima zu nahe beieinander liegen. Eine Mikrosondenanalyse (teilweise auch Mikrosonden- Mapping) der betreffenden Proben zeigte, wie unterschiedlich die K-Na-Verteilung in den Illiten im anchimetamorphen Bereich sein kann. Es wurden diskrete Mineralphasen, eine domänenartige Verteilung und auch relativ homogene Mischkristalle beobachtet.
First milestone of this Ph.D. thesis was the successful extension of conventional NTA/His-tag technique to self-assembling, multivalent chelator thiols for high-affinity recognition as well as stable and uniform immobilization of His-tagged proteins on chip surfaces. Bis-NTA was linked via an oligoethylene glycol to alkyl thiols by an efficient modular synthesis strategy yielding a novel, multivalent compound for formation of mixed SAMs with anti-adsorptive matrix thiols on gold. Multivalent chelator chips allow a specific, high-affinity, reversible, long-term immobilization of His-tagged proteins. In AFM studies reversibility of the specific protein immobilization process was visualized at single molecule level. The entire control over the orientation of the immobilized protein promotes this chip surface to an optimal platform for studies focusing on research targets at single molecule level and nanobiotechnology. Based on the constructed protein chip platform above and a novel AFM mode (contact oscillation mode, COM) – developed during the current Ph.D. work – protein nanolithography under physiological conditions enabling fabrication of active biomolecular patterns in countless variety has been established. Reversible COM-mediated nanostructuring is exceptionally suitable for multiplexed patterning of protein assemblies in situ. The first selfassembled protein layer acts as a biocompatible and ductile patterning material. Immobilized proteins can be replaced by the AFM tip applying COM, and the generated structures can be erased and refilled with different proteins, which are immobilized in a uniform and functional manner. Multi-protein arrays can be systematically fabricated by iterative erase-and-write processes, and employed for protein-protein interaction analysis. Fabrication of two-dimensionally arranged nanocatalytic centres with biological activity will establish a versatile tool for nanobiotechnology. As an alternative chip fabrication approach, the combined application of methodologies from surface chemistry, semiconductor technology, and chemical biology demonstrated successfully how pre-patterned templates for micro- and nanoarrays for protein chips are fabricated. The surface physical, as well the biophysical experiments, proved the functionality of this technology. The promises of such process technology are fast and economic fabrication of ready-to-use nanostructured biochips at industrial scale. Membrane proteins are complicated in handling and hence require sophisticated solutions for chip technological application. A silicon-on-insulator (SOI) chip substrate with microcavities and nanopores was employed for first technological investigation to construct a protein chip suitable for membrane proteins. The formation of an artificial lipid bilayer using vesicle fusion on oxidized SOI cavity substrates was verified by CLSM. Future AFM experiments will give further insights into the chip architecture and topography. This will provide last evidence of the sealing of the cavity by the lipid bilayer. Transmembrane proteins will be employed for reconstitution experiments on this membrane protein chip platform. Highly integrated microdevices will find application in basic biomedical and pharmaceutical research, whereas robust and portable point-of-care devices will be used in clinical settings.
Wissenschaftler, Unternehmer, Mäzen, NS-Opfer : zur Erinnerung an Arthur von Weinberg (1860 –1943)
(2007)
Im öffentlichen Bewusstsein sind die Brüder Arthur und Carl von Weinberg vielleicht wenig präsent. Aber bei den ehemaligen »Cassellanern«, in der Universität, im »Senckenberg«, im »Städel«, in der Frankfurter Gesellschaft für Handel, Industrie und Wissenschaft, bei den Leitern von Zoo oder Palmengarten, auf dem Rennplatz in Niederrad oder im dortigen Golfclub weiß man sehr wohl, wer die Brüder von Weinberg waren. Es gibt auch ausreichend Literatur, in denen ihre Verdienste hervorgehoben werden. Anlässlich der Übergabe des Schreibtischs von Arthur von Weinberg an die Universität sei versucht, die Geschichte der Familie Weinberg, insbesondere die von Arthur von Weinberg, aus fünf verschiedenen Perspektiven wenigstens anzudeuten.
Warum das humane Immundefizienzvirus Typ 1 (HIV-1) im Menschen Aids hervorruft, während nahe verwandte Affen-Immundefizienzviren (SIV »Simian Immunodeficiency Virus«) ihre natürlichen Affenwirte nicht krank machen, war lange Zeit nicht zu erklären. Dr. Michael Schindler (28), Institut für Virologie des Universitätsklinikums Ulm, hat gemeinsam mit einem internationalen Forscherteam eine der Ursachen dafür gefunden. In seiner Doktorarbeit, betreut von Prof. Dr. Frank Kirchhoff, konnte der Biologe zeigen, dass die meisten SI-Viren – im Gegensatz zu HIV-1 – die Aktivierung von infizierten T-Helferzellen blockieren. Diese Eigenschaft ist wahrscheinlich für beide Seiten von Vorteil: Das Virus kann einerseits im Affen lebenslang überdauern (persistieren) und sich vermehren, und der infizierte Affe entwickelt andererseits kein Aids. Für diese international beachteten und hochrangig publizierten Arbeiten wurde Michael Schindler mit dem Paul Ehrlich- und Ludwig Darmstaedter-Nachwuchspreis 2007 ausgezeichnet.
Normative Ordnungen legitimieren die Entstehung und Ausübung politischer Autorität, sie bilden aber auch die Grundstruktur, nach der Chancen und Lebensgüter in einer Gesellschaft verteilt werden sollen. Sie lassen sich nicht per Dekret unumstößlich fixieren, sondern leben von den dynamischen Impulsen aller Beteiligten. Solche Normen, die innerhalb einer Gesellschaft allgemeine Anerkennung beanspruchen und ihren Niederschlag zum Beispiel in Verfassungen finden können, müssen sich zudem kritisch mit der jeweiligen gesellschaftlichen Realität konfrontieren lassen. Oftmals gehen aus dieser Konfrontation neue Konflikte hervor, die zur Herausbildung einer anderen normativen Ordnung führen können. Wie bilden sich normative Ordnungen, welchen Prozessen sind sie unterworfen? Diese Fragen lassen sich unter ganz verschiedenen Gesichtspunkten betrachten: Man kann nach den ökonomischen Bedingungen fragen, nach dem Einfluss von anderen Faktoren wie den Macht- und Gewaltverhältnissen oder nach überindividuellen Mechanismen, wie sie sich in hochkomplexen Gesellschaften entwickeln und sich beispielsweise in den Eigenrationalitäten des ökonomischen oder des politischen Systems widerspiegeln, die sich unabhängig von den Absichten der Beteiligten selbst regulieren. In dem geplanten Exzellenzcluster »Die Herausbildung normativer Ordnungen« wollen wir unseren Fokus nicht so sehr auf die an diesen Prozessen beteiligten Systeme richten, sondern auf die Perspektive der Personen, die an der Herausbildung normativer Ordnungen beteiligt sind – Politiker, Richter bis zu Ehrenamtlichen bei Umweltgruppen, aber auch Bürger, die ausschließlich von ihrem Wahlrecht Gebrauch machen oder sich öffentlich engagieren. Als Akteure haben sie die Erwartung, dass normative Ordnungen ihnen gegenüber gerechtfertigt werden und dass die Rechtfertigungen sie überzeugen können. Solche Erwartungen und die Art und Weise ihrer Erfüllung lassen sich gewiss nicht von jenen anderen Faktoren trennen, aber es wäre genauso falsch, sie nur als oberflächlichen Ausdruck anonymer überindividueller Strukturen zu untersuchen. In den geplanten Projekten des Clusters sollen nicht nur historische Prozesse, sondern auch die gegenwärtigen globalen Konflikte um eine gerechte Weltordnung aus der Perspektive der agierenden Personen beleuchtet werden.
Ahnenforschung unter sozialen Amöben : die morphologische Taxonomie muss umgeschrieben werden
(2007)
Seit fast 150 Jahren forschen Wissenschaftler aus aller Welt über den faszinierenden Wechsel zwischen Einzelligkeit und Vielzelligkeit im Lebenszyklus der »zellulären Schleimpilze«. Diese Forschung war bisher so erfolgreich, dass einem Vertreter der zellulären Schleimpilze, Dictyostelium discoideum, vom US-amerikanischen Gesundheitsministerium National Institutes of Health (NIH) ganz offiziell der Status eines Modellorganismus für biomedizinische Forschung verliehen wurde. Obwohl wir inzwischen glauben, viel über die »sozialen Amöben«, die sich bei Nahrungsmangel von Einzellern zu einem vielzelligen Verband zusammenlagern, gelernt zu haben, basiert unser Wissen doch fast ausschließlich auf Arbeiten mit der einen Art D. discoideum. Man kennt allerdings heute mehr als 100 Arten sozialer Amöben. Alle bilden multizelluläre Fruchtkörper aus, die aus Stielen und Sporenpaketen bestehen. Bisher ging man davon aus, dass die Spezies mit azellulären Stielen in ihren Fruchtkörpern phylogenetische Vorläufer der Vertreter mit zellulären Stielen sind, und dass die Vertreter mit verzweigten Fruchtkörpern näher mit sich selbst als mit den anderen sozialen Amöben verwandt sind. Diese Hypothesen wurden nun durch aktuelle molekulargenetische Analysen widerlegt.
Anderer Fehler sind gute Lehrer « – so lautet ein nur wenig bekanntes altes deutsches Sprichwort. Für medizinische Fehler galt das die längste Zeit nicht: entweder totgeschwiegen oder als »Kunstfehler « in das Licht der Öffentlichkeit gezerrt, entzogen sich ärztliche Fehler einer systematischen Analyse. Damit hat die Medizin lange eine wichtige Chance vertan. Am Institut für Allgemeinmedizin der Universität Frankfurt beschäftigt sich seit einigen Jahren ein Team unter Leitung von Prof. Dr. Ferdinand Gerlach intensiv mit der Fehlerforschung. ...
Die Suche nach neuen Katalysatoren ist einer der wichtigsten Forschungszweige der Chemie. Die effizientesten Katalysatoren – die Enzyme – wurden allerdings nicht von Wissenschaftlern entwickelt, sondern sind aus Millionen Jahren Evolution hervorgegangen. Durch moderne Strukturaufklärungsmethoden lassen sich viele Enzyme in die Karten schauen und dienen Chemikern als Blaupause für neue synthetische Katalysatoren. Diese zeichnen sich dadurch aus, dass sie wesentlich besser zugänglich und robuster sind als ihr natürliches Vorbild. Mit diesem biomimetischen Ansatz gelang es uns erstmals, die Glutamat-Dehydrogenase nachzuahmen. Dadurch vereinfacht sich die industrielle Synthese von Aminen, die wichtige Bausteine für Naturstoffe und Pharmazeutika sind. Auch auf die Herstellung von Antibiotika lässt sich dieses Prinzip übertragen.
Expeditionen ins Pilzreich Panamas : Pionierarbeit in einer der artenreichsten Regionen unserer Erde
(2007)
Als Bindeglied zwischen Nord- und Südamerika ist Panama ein »Biodiversitäts-Hotspot« – es beherbergt eine außerordentlich hohe Artenvielfalt an Pflanzen, Tieren und Pilzen. Pilze übernehmen in tropischen Ökosystemen wichtige Aufgaben: Sie zersetzen totes organisches Material, helfen den Pflanzen bei der Aufnahme von Wasser und Mineralstoffen aus dem Boden, und sie leisten sogar als Parasiten einen Beitrag zum Erhalt einer großen Artenvielfalt. Aufgrund einzelner Stichproben wissen wir, dass die Anzahl der Pilzarten in den Tropen diejenige der Pflanzen um ein Vielfaches übertrifft. Doch während für Panama zirka 9500 verschiedene Arten von Gefäßpflanzen bekannt sind, zählt eine im Rahmen unserer Arbeit erstellte Checkliste der Pilze nur zirka 1800 Arten. Das zeigt, dass für die Erforschung der Pilze noch umfangreiche Pionierarbeit geleistet werden muss. Zwischen 2003 und 2006 geschah dies im Rahmen einer Universitätspartnerschaft der Universität Frankfurt mit der Universidad Autónoma de Chiriquí, die durch den Deutschen Akademischen Austauschdienst (DAAD) gefördert wurde. Im Zentrum eines Projekts der Deutschen Forschungsgemeinschaft (DFG) steht die Erforschung der Vielfalt und Ökologie pflanzenparasitischer Pilze. Des Weiteren untersucht unsere Arbeitsgruppe Pilze an Insekten sowie an menschlichen Haut- und Nagelläsionen.
Während in den Vereinten Nationen mit mäßigem Erfolg um eine international akzeptierte Weltpolitik gerungen wird, haben sich in anderen gesellschaftlichen Bereichen längst globale vernetzte Strukturen entwickelt. Ansätze für eine Vielzahl von autonomen Zivilverfassungen, die die Welt umspannen, sind erkennbar – vom »cyberspace « bis zur Weltwirtschaft. Lassen sich mit den Grundsätzen der nationalstaatlichen Verfassungen auch die Herausforderungen angehen, die sich aus den drei aktuellen Trends – Digitalisierung, Privatisierung und globaler Vernetzung – ergeben? Ging es im 18. und 19. Jahrhundert im Nationalstaat darum, die Rechte des Einzelnen gegenüber dem Staat zu stärken und die Politik durch ihre Bindung an das Recht zu disziplinieren, so dreht es sich heute um Freisetzung und Disziplinierung ganz anderer globaler Dynamiken. Der Rechtssoziologe Prof. Dr. Gunther Teubner beschäftigt sich mit der Frage: Kann man die Traditionen der Nationalstaatsverfassung fruchtbar machen und sie zugleich so umdenken, dass sie den neuen Problemlagen gerecht werden?
Peter Suhrkamp und sein Verlag stehen für den kulturellen Wiederaufbau: Suhrkamp erhält 1945 die erste Verlagslizenz, sein Programm prägt die geistige Identität der jungen Republik. Der Verleger wirkt im Stillen als Katalysator bei der Entstehung von Werken, er gibt Autoren die intellektuelle Heimat, in der entstehen kann, was zur literarischen Signatur Nachkriegsdeutschlands werden wird. Die Frage nach seinem Erfolgsrezept beantwortet Wolfgang Schopf mit einem Blick auf die Schätze des »Archivs der Peter Suhrkamp Stiftung an der Johann Wolfgang Goethe-Universität«.
Aus den zehn Jahrhunderten antiker Münzgeschichte gibt es Millionen an Fundmünzen. Jedes Jahr kommen zahllose Neufunde hinzu. Wozu haben Griechen, Römer, Kelten und andere Völker Münzen geprägt, und wie haben sie diese gebraucht? Wer Einsichten in staatliches Handeln, gesellschaftliche Vorstellungen und Verhaltensweisen, ökonomisches Denken sowie Kultpraktiken gewinnen will, kommt am Studium von Münzen (Numismatik) und ihres Gebrauchs als Geld (Geldgeschichte) nicht vorbei. An der Universität Frankfurt forschen Numismatiker, Archäologen, Althistoriker und Mineralogen aus neun verschiedenen Ländern über Münze und Geld in der antiken Welt.
Background Synchronous neuronal firing has been discussed as a potential neuronal code. For testing first, if synchronous firing exists, second if it is modulated by the behaviour, and third if it is not by chance, a large set of tools has been developed. However, to test whether synchronous neuronal firing is really involved in information processing one needs a direct comparison of the amount of synchronous firing for different factors like experimental or behavioural conditions. To this end we present an extended version of a previously published method NeuroXidence [1], which tests, based on a bi- and multivariate test design, whether the amount of synchronous firing above the chance level is different for different factors.
Background The synchrony hypothesis postulates that precise temporal synchronization of different pools of neurons conveys information that is not contained in their firing rates. The synchrony hypothesis had been supported by experimental findings demonstrating that millisecond precise synchrony of neuronal oscillations across well separated brain regions plays an essential role in visual perception and other higher cognitive tasks [1]. Albeit, more evidence is being accumulated in favour of its role as a binding mechanism of distributed neural responses, the physical and anatomical substrate for such a dynamic and precise synchrony, especially zero-lag even in the presence of non-negligible delays, remains unclear. Here we propose a simple network motif that naturally accounts for zero-lag synchronization for a wide range of temporal delays [3]. We demonstrate that zero-lag synchronization between two distant neurons or neural populations can be achieved by relaying the dynamics via a third mediating single neuron or population. Methods We simulated the dynamics of two Hodgkin-Huxley neurons that interact with each other via an intermediate third neuron. The synaptic coupling was mediated through alpha-functions. Individual temporal delays of the arrival of pre-synaptic potentials were modelled by a gamma distribution. The strength of the synchronization and the phase-difference between each individual pairs were derived by cross-correlation of the membrane potentials. Results In the regular spiking regime the two outer neurons consistently synchronize with zero phase lag irrespective of the initial conditions. This robust zero-lag synchronization naturally arises as a consequence of the relay and redistribution of the dynamics performed by the central neuron. This result is independent on whether the coupling is excitatory or inhibitory and can be maintained for arbitrarily long time delays (see Fig. 1). Conclusion We have presented a simple and extremely robust network motif able to account for the isochronous synchronization of distant neural elements in a natural way. As opposed to other possible mechanisms of neural synchronization, neither inhibitory coupling, gap junctions nor precise tuning of morphological parameters are required to obtain zero-lag synchronized neuronal oscillation.
The goal of this thesis was to gain further insight into the binding behavior of ligands in the heptahelical domain (HD) of group I metabotropic glutamate receptors (mGluRs). This was realized by the establishment of strategies for the detection and optimization of molecules acting as non-competitive antagonists of group I mGluRs (mGluR1/5). These strategies should guarantee high diversity in the retrieved chemotypes of the detected compounds not resembling original reference molecules (“scaffold-hopping”). The detection of new scaffolds, in turn, was divided into two approaches: First the development of pharmacological assays to screen compounds at a certain target for bioactivity (here: affinity towards the allosteric recognition site of mGluR1 and mGluR5), and second the evaluation of computer assisted methods for the identification of virtual hits to be screened afterwards on the pharmacological assays established before. Promising molecules should be optimized with respect to activity/affinity and selectivity, their binding mode investigated and, finally, compared to existing lead compounds. Initially, membrane based binding assays for the HD of mGlu1 and mGlu5 receptors with enhanced throughput (shifting from 24-well plates to 96-well plates) were set up. For the mGluR1 assay the potent antagonist EMQMCM exhibited high affinity towards the binding site (Ki ~3nM), which is in accordance with published data from Mabire et al. (functional IC50 3nM). For mGluR5 the reference antagonist MPEP binds with high affinity to the receptor (binding IC50 13.8nM), which confirmed earlier findings from Anderson et al. (binding IC50 15nM). In another series of experiments the properties of rat cerebellar (mGluR1) and corticalmembranes (mGluR5) as well as of radiotracers were investigated by means of binding saturation studies and kinetic experiments. Furthermore, the influence of the solvent DMSO, necessary for compound screening of lipophilic substances, on positive and negative controls was evaluated. As the precise architecture of the HD of mGluR1 is still not known our efforts in identifying new ligands for this receptor focused on the ligand-based approach. All computer assisted methods that were applied to virtually screen large compound collections and to retrieve potential hits (“activity-enriched subsets”) acting at the heptahelical domain of mGluR1 relied on the existence of a valid dataset of reference molecules. This was realized by an initial compilation of a mGluR reference data collection comprising in total 357 entries predominantly negative but also some positive allosteric modulators for mGluR1 and mGluR5. In the next step a pharmacophore model for non-competitive mGluR1 antagonists was constructed. It was based upon six selective, potent and structurally diverse ligands. Prospective virtual screening was performed using the CATS atom-pair descriptor. The Asinex Gold-Collection was screened for each seed compound and some of the most similar compounds (according to the CATS descriptor) were ordered and tested forbinding affinity and functional activity at mGluR1. A high hit rate of approximately 26% (IC50 < 15 micro M) was yielded confirming the applicability of this method. One compound exerted functional activity below one micro molar (IC50-value of C-07:362nM ± 0.03). Moreover, non-linear principal component analysis was employed. Again the Asinex vendor database served as test database and was filtered by the pharmacophore model for mGluR1 established before. Test molecules that were adjacently located with mGluR1 antagonist references were selected. 15 compounds were tested on mGluR1 in binding and functional assays and three of them exhibited functional activity (IC50) below 15 micro M. The most potent molecule P-06 revealed an IC50-value of 1.11 micro M (± 0.41). The COBRA database comprising 5,376 structurally diverse bioactive molecules affecting various targets was encoded with the CATS descriptor and used for training two selforganizing maps (SOM). The encoded mGluR reference data collection was projected onto this map according to the SOM algorithm. This projection allowed to clearly distinguish between antagonists of mGluR1 and mGluR5 subtype. 28 compounds were ordered and tested on activity and affinity for mGluR1. They exhibited functional activity down to the sub-micro molar range (IC50-value of S-08: 744nM ± 0.29) yielding a final hit rate of 46% (<15 micro M). Then, the Asinex collection was screened using the SOM approach. For a predicted target panel including the muscarinic mACh (M1) receptor, the histamine H1-receptor and the dopamine D2/D3 receptors, the tested mGluR ligands exhibited the calculated binding pattern. This virtual screening concept might provide a basis for early recognition of potential sideeffects in lead discovery. We superimposed a set of 39 quinoline derivatives as non-competitive mGluR1 antagonists that were recently published by Mabire and co-workers. A CoMFA model (QSAR) was established and the influence of several side chains on functional activity was investigated. The coumarine derivative C-07 was obtained as a result of similarity searching. Starting from this compound a series of chemical derivatives was synthesized. This led to the discovery of potent (B-28, IC50: 58nM ± 0.008; Ki: 293nM ± 0.022) and selective (rmGluR5 IC50: 28.6 micro M) mGluR1 antagonists. From a homology model of mGluR1 we derived a potential binding mode for coumarines within the allosteric transmembrane region. Potential interacting patterns with amino acids were proposed considering the difference of the binding pockets between rat and human receptors. The proposed binding modes for quinolines (here:EMQMCM) and coumarines (here:B-04) were compared and discussed considering in particular the influence on activity of several side chains of quinolines obtained from the QSAR studies. The present studies demonstrated the applicability of ligand-based virtual screening for non-competitive antagonists of a G-protein coupled receptor, resulting in novel, potent and selective agents.
The strong nuclear force is described by Quantum Chromodynamics (QCD), the parallel field theory to Quantum Electrodynamics (QED) that describes the electromagnetic force. It is propagated by gluons analogously to photons in the electromagnetic force, but unlike photons, which do not carry electric charge, gluons carry color, and they can self-interact. However, as individual quarks have never been observed in nature, it is postulated that the color charge itself is confined, and hence all baryons and mesons must be colorless objects. To study nuclear matter under extreme conditions, it is necessary to create hot and dense nuclear matter in the laboratory. In such conditions the confinement between quarks and gluons is cancelled (deconfinement). This state is characterized with a qusi-free behavior of quarks and gluons. The strange (s) and anti-strange (anti-s) quarks are not contained in the colliding nuclei, but are newly produced and show up in the strange hadrons in the final state. It was suggested that strange particle production is enhanced in the QGP with respect to that in a hadron gas. This enhancement is relative to a collision where a transition to a QGP phase does not take place, such as p+p collisions where the system size is very small. Therefore the energy- and system size dependence is studied to receive a picture about the initial state. In this thesis experimental results on the energy- and system size dependence of Xi hyperon production at the CERN SPS is shown. All measurements were performed with the NA49 detector at the CERN SPS. NA49 took central lead-lead collisions from 20 - 158 AGeV, minimus bias lead-lead collisions at 40 and 158 AGeV, and semi-central silicon-silicon colisions at 158 AGeV. The NA49 experiment features a large acceptance in the forward hemisphere allowing for measurements of Xi rapidity spectra. At the SPS accelerator at CERN Pb+Pb collisions are performed with beam energies to 158 AGeV. The analyzed data sets were taken in the period from 1999 to 2002. The NA49 experiment is a large acceptance hadron spectrometer, which measures charged hadrons in a wide acceptance. The main components are the four TPCs (Time Projection Chamber). The centrality of nucleon-nucleon collisions was done by measuring the not in the collision participating (spectator-) nucleons in the VETO-calorimeter. The study of strangeness is motivated by its role as a signature for the Quark Gluon Plasma. Any enhancement in the yield must be with respect to a ’normal’ yield, where a QGP is not formed. This is usually taken to mean suitably scaled p+p collisions, where the volume of the system created is too small for a QGP to occur. The results at SPS and RHIC energies show an enhancement, with the doubly strange Xi? being enhanced more than the Lambda, in accordance with the original prediction. However, the enhancement at SPS energies is higher than at RHIC energies.
Im Gegensatz zur Minimierung von DFAs ist die exakte Minimierung von NFAs oder regulären Ausdrücken nachweislich schwierig, im allgemeinen Fall PSpace-schwer. Wir zeigen, dass selbst schwache Approximationen zur Minimierung von NFAs und regulären Ausdrücken wahrscheinlich nicht effizient möglich sind. Falls als Eingabe ein NFA oder regulärer Ausdruck der Größe n gegeben ist, löst ein Approximationsalgorithmus für das Minimierungsproblem mit Approximationsfaktor o(n) bereits ein PSpace-vollständiges Problem. Wenn wir uns auf NFAs oder reguläre Ausdrücke über einem unären - also einelementigen - Alphabet beschränken, so ist das Problem der exakten Minimierung NP-vollständig. Wir weisen nach, dass effiziente Approximationen für das unäre Minimierungsproblem mit Approximationsfaktor n^(1-delta) für jedes delta>0 nicht möglich sind, sofern P != NP gilt. Liegt die Eingabe als DFA mit n Zuständen vor, kann sie exponentiell größer sein als ein äquivalenter NFA oder regulärer Ausdruck. Dennoch bleibt das Minimierungsproblem PSpace-schwer, wenn die Anzahl der Übergänge oder Zustände in einem äquivalenten NFA oder die Länge eines äquivalenten regulären Ausdrucks zu bestimmen ist. Wir zeigen, dass auch hierfür keine guten Approximationen zu erwarten sind. Unter der Annahme der Existenz von Pseudozufallsfunktionen, die wiederum auf der Annahme basiert, dass Faktorisierung schwierig ist, zeigen wir, dass kein effizienter Algorithmus einen Approximationsfaktor n/(poly(log n)) für die Zahl der Übergänge im NFA oder die Länge des regulären Ausdrucks garantieren kann. Für die Zahl der Zustände im NFA weisen wir nach, dass effiziente Approximationen mit Approximationsfaktor (n^(1/2))/(poly(log n)) ausgeschlossen sind. Wir betrachten dann Lernprobleme für reguläre Sprachen als Konzeptklasse. Mit den entwickelten Methoden, die auf der Annahme der Existenz von Pseudozufallsfunktionen beruhen, zeigen wir auch, dass es für das Problem des minimalen konsistenten DFAs keine effizienten Approximationen mit Approximationsfaktor n/(poly(log n)) gibt. Für den unären Fall hingegen weisen wir nach, dass es einen effizienten Algorithmus gibt, der einen minimalen konsistenten DFA konstruiert und erhalten somit auch einen effizienten PAC-Algorithmus für unäre reguläre Sprachen, die von DFAs mit n Zuständen akzeptiert werden. Für unäre Beispielmengen weisen wir außerdem nach, dass es keine effizienten Algorithmen gibt, die minimale konsistente NFAs konstruieren, falls NP-vollständige Probleme nicht in Zeit (n^(O(log n)) gelöst werden können. Andererseits geben wir einen effizienten Algorithmus an, der zu unären Beispielmengen einen konsistenten NFA mit höchstens O(opt^2) Zuständen konstruiert, wenn ein minimaler konsistenter NFA opt Zustände hat. Abschließend betrachten wir das Lernen von DFAs durch Äquivalenzfragen. Für den nicht-unären Fall ist bekannt, dass exponentiell viele Fragen für DFAs mit n Zuständen benötigt werden. Für unäre zyklische DFAs mit primer Zykluslänge und höchstens n Zuständen zeigen wir, dass Theta((n^2)/(ln n)) Äquivalenzfragen hinreichend und notwendig sind. Erlauben wir größere zyklische DFAs als Hypothesen, kommen wir mit weniger Fragen aus: Um zyklische DFAs mit höchstens n Zuständen durch Äquivalenzfragen mit zyklischen DFAs mit höchstens n^d Zuständen für d <= n als Hypothesen zu lernen, sind O((n^2)/d) Fragen hinreichend und Omega((n^2 ln d)/(d (ln n)^2)) Fragen nötig.
Background The cell cycle of all organisms includes mass increase by a factor of two, replication of the genetic material, segregation of the genome to different parts of the cell, and cell division into two daughter cells. It is tightly regulated and typically includes cell cycle-specific oscillations of the levels of transcripts, proteins, protein modifications, and signaling molecules. Until now cell cycle-specific transcriptome changes have been described for four eukaryotic species ranging from yeast to human, but only for two prokaryotic species. Similarly, oscillations of small signaling molecules have been identified in very few eukaryotic species, but not in any prokaryote. Results A synchronization procedure for the archaeon Halobacterium salinarum was optimized, so that nearly 100% of all cells divide in a time interval that is 1/4th of the generation time of exponentially growing cells. The method was used to characterize cell cycle-dependent transcriptome changes using a genome-wide DNA microarray. The transcript levels of 87 genes were found to be cell cycle-regulated, corresponding to 3% of all genes. They could be clustered into seven groups with different transcript level profiles. Cluster-specific sequence motifs were detected around the start of the genes that are predicted to be involved in cell cycle-specific transcriptional regulation. Notably, many cell cycle genes that have oscillating transcript levels in eukaryotes are not regulated on the transcriptional level in H. salinarum. Synchronized cultures were also used to identify putative small signaling molecules. H. salinarum was found to contain a basal cAMP concentration of 200 uM, considerably higher than that of yeast. The cAMP concentration is shortly induced directly prior to and after cell division, and thus cAMP probably is an important signal for cell cycle progression. Conclusions The analysis of cell cycle-specific transcriptome changes of H. salinarum allowed to identify a strategy of transcript level regulation that is different from all previously characterized species. The transcript levels of only 3% of all genes are regulated, a fraction that is considerably lower than has been reported for four eukaryotic species (6% - 28%) and for the bacterium C. crescentus (19%). It was shown that cAMP is present in significant concentrations in an archaeon, and the phylogenetic profile of the adenylate cyclase indicates that this signaling molecule is widely distributed in archaea. The occurrence of cell cycle-dependent oscillations of the cAMP concentration in an archaeon and in several eukaryotic species indicates that cAMP level changes might be a phylogenetically old signal for cell cycle progression.
„Bhinneka Tunggal Ika“ „Einheit in der Vielfalt“ – schon aus dem Staatsmotto Indonesiens wird einer der Grundkonflikte des größten in einer Nation zusammengefassten Inselarchipels der Erde ersichtlich: Es herrscht ein Widerspruch zwischen der natürlichen Heterogenität des Landes, das aus rund 13.000 Inseln besteht, die von 300 verschiedenen Ethnien bewohnt werden, und seinem Anspruch, einen stabilen Einheitsstaat zu bilden. Weiterhin stellt sich die Frage nach der geeigneten Verwaltungsform für ein derartiges Land. Diese Frage wurde von den meisten der bisherigen Machthaber in einer eindeutigen Weise beantwortet: Indonesien verfügt über eine lange zentralistische Tradition, die mit den präkolonialen Königreichen auf dem Gebiet des heutigen Indonesiens begann, sich mit der Verwaltungsstruktur des niederländischen Kolonialreiches „NiederländischIndien“ fortsetzte und im unabhängigen Indonesien unter der autoritären Herrschaft der ersten beiden Präsidenten Soekarno und Soeharto ihren vorläufigen Höhepunkt fand. Zwischenzeitliche Bemühungen, das Land zu dezentralisieren, wurden zumeist nur halbherzig durchgeführt und blieben im Ansatz stecken. ... Diese Arbeit soll sich mit einem wichtigen Teilphänomen der otonomi daerah – der neuen „regionalen Autonomie“ – beschäftigen, nämlich mit der Neugründung von Verwaltungseinheiten (also Provinzen, Distrikten und kreisfreien Städten) – oftmals mit den Schlagwörtern pemekaran („Aufblühen“) oder pembentukan („[Heraus]-Bildung“) bezeichnet – die in den Jahren seit Ende der SoehartoHerrschaft förmlich auszuufern schienen. Den Fokus meiner Analyse möchte ich auf die jeweiligen Ursachen und Beweggründe für diese Prozesse legen. Dabei soll ein bisher noch etwas vernachlässigter Ansatz, der über die offiziell vorherrschenden politischen, administrativen und ökonomischen Erklärungsansätze hinausgehen möchte und vor allem nach sprachlichen, kulturellen, ethnischen, religiösen und historischen Faktoren hinter der Gründung neuer administrativer Einheiten sucht (vgl. z.B. Nothofer 2006), weiterverfolgt und kritisch hinterfragt werden. Anhand dreier Fallstudien, die sich mit entsprechenden Entwicklungen in den Regionen Banyumas, Tapanuli und Sulawesi Selatan (Sulsel) beschäftigen, sollen dazu die jeweiligen offiziellen Begründungsansätze der lokalen Politiker den Meinungsäußerungen aus der Bevölkerung, die sich z.B. in Internet-Foren finden, gegenübergestellt werden. Die Fallstudien wurden mit Bedacht ausgewählt, da möglichst verschiedene Fälle miteinander verglichen werden sollen: Ein Dezentralisierungsprozess auf der indonesischen Hauptinsel Java wird Fällen auf den Inseln Sumatra und Sulawesi gegenübergestellt; die jeweiligen Begründungsansätze für die pemekaran-Prozesse sind untereinander z.T. sehr verschieden; und es werden zwei bisher friedlich verlaufene Prozesse einem Fall gegenübergestellt, in dem es zu Ausbrüchen von Gewalt kam. Darüber hinaus befinden sich die verschiedenen vorgestellten Fälle in einem unterschiedlichen Entwicklungsstadium mit unterschiedlichen Erfolgsaussichten. Besonders im Falle Sulsels, einer Region, in der die otonomi daerah besonders weitreichende und vielfältige Auswirkungen hatte, stellte sich dabei das Problem der Abgrenzung des Themenbereichs. Um den Rahmen dieser Arbeit nicht zu sprengen, habe ich mich auf pemekaran-Prozesse und damit in irgendeiner Weise zusammenhängende Konflikte auf dem (ehemaligen) Territorium der Provinz Sulsel beschränkt, während auf andere Folgen der Dezentralisierung, wie beispielsweise die Diskussion über die Einführung der Scharia, des islamischen Rechts, in Sulsel (vgl.z.B. Pradadimara/Burhaman 2002, Donohoe 2004), nicht weiter eingegangen wird. Im Schlusskapitel dieser Arbeit sollen Gemeinsamkeiten und Unterschiede der verschiedenen Fälle herausgearbeitet werden, so dass ersichtlich wird, ob sich der von mir verfolgte Grundansatz dieser Arbeit zur Analyse von Dezentralisierungsprozessen in Indonesien generell eignet. In einem abschließenden Ausblick soll eine These über den Einfluss der pemekaran-Prozessen auf den nationalen Zusammenhalt aufgestellt sowie ein Szenario für die Zukunft des indonesischen Staates hinsichtlich seines administrativen Aufbaus und seiner nationalen Einheit entworfen werden.
„Habemus Papam!“ – so schließt Text A und bringt die für Deutschland sensationelle Nachricht, daß ein Deutscher zum Papst gewählt wurde noch einmal mit der entsprechenden rituellen Formel zum Ausdruck. Daß diese Feststellung nicht nur sachlicher Ausdruck für die Tatsache eines Pontifikatswechsel ist, sondern vielmehr einen kirchengeschichtlichen Vorgang mit besonderer Relevanz für die katholische Kirche in Deutschland beschreibt, zeigt sich exemplarisch an den hier analysierten Pressetexten. Während die Texte aus kirchlichen und kirchennahen Medien vor allem dadurch auffallen, daß sie ein gestärktes katholische Selbstbewußtsein ausdrücken, springt bei den Beispielen aus weltlichen Medien hauptsächlich eine neue Offenheit im Umgang mit der katholischen Kirche und ihrer Lehre ins Auge. Die Artikel beider Bereiche betonen auf ihre Weise die emotionalen Aspekte des kirchlichen Lebens. Gleichzeitig thematisieren sie mehr oder weniger intensiv Grundfragen des katholischen bzw. christlichen Glaubens und sind so Beleg dafür, daß sich die Situation der katholischen Kirche in Deutschland durch die Wahl Joseph Ratzingers zum Papst maßgeblich verändert hat. Auch wenn der Umgang der Medien mit der alten „Institution Kirche“ zwischen extrem hoher medialer Aufmerksamkeit im Zusammenhang mit Papst Benedikt XVI. und völliger Mißachtung sonstiger kirchlicher Vorgänge und Themen schwankt, markieren die vorgestellten Texte einen Trend, der zwar nicht auf breiter Front, noch durchgängig zum Tragen kommt, dennoch aber vorhanden ist und neue Berührungspunkte zwischen katholischer Kirche und Medien eröffnet. Dieser Prozeß erscheint eingebettet in die gewachsene Relevanz von Religion und Glaube, so unbestimmt und diffus auch beide in der deutschen Gesellschaft vorhanden sein mögen. Der Pontifikatswechsel hat dazu geführt, daß seit 2005 auch vermehrt katholische bzw. christliche Themen im öffentlichen Diskurs über Religion, Glaube und Spiritualität Beachtung finden und sich stärker gegenüber anderen religiösen und esoterischen Angeboten profilieren können. Anzeichen dafür finden sich mit Blick auf die Medien vor allem auf dem deutschen Buchmarkt. Aber auch die Kirche selbst erfährt Aufwind und scheint trotz weiterhin bestehender Probleme und Schwierigkeiten in einigen Bereichen wieder fester Tritt zu fassen. Papst Benedikt XVI. ist sicher nicht alleiniger Auslöser dieser Entwicklung, seine Wahl und sein Wirken hatten und haben aber offensichtlich katalytische Wirkung und begünstigen einige Ansätze positiv. ...
Koalas are popular zoo animals, but difficult in husbandry. In addition to their specialised diet of eucalyptus leaves, they are prone to “stress” and disease. Particularly in European zoos, themonitoring of theirwell-being has high priority and they are protected from possible stressors. However, stress signs in koalas are vague and monitoring techniques like weighing might result in discomfort itself. Additionally, husbandry routines are planned according to keeper’s schedule, not to the endogenous rhythms of the koalas. Therefore it is necessary to investigate activity pattern in captive koalas and the signals influencing them. These signals have to be assessed on the strength and quality of their impact. A total of 17 koalas have been observed in three zoological gardens in Australia and Europe. Koalas kept in outdoor enclosures with little human contact (Koala Walkabout, Taronga Zoo, Sydney) showed a uniform activity pattern, which was clearly entrained by light. Activity levels were higher during the night, and there was a pronounced resting period in the morning which corresponds with low body temperature measured by Degabriele and Dawson (1979). Activity peaks were related to twilight and changed during the year related to day lengths. However, there was a clear influence from the introduction of fresh browse which resulted in a distinct feeding peak in the afternoon. With short day lengths, this stimulus competed with dusk. Activity patterns from koalas in indoor enclosures (Zoo Duisburg, Vienna Zoo) varied between individuals and in some cases lacked a detectable rhythm. Though activity peaks were related to light, entrainment to sunlight was weak. In winter, koalas reacted primarily to the artificial light, but some also showed activity peaks related to sunlight. Activity patterns in these koalas were less structured and differed severely from patterns expected according to literature. Activity was often related to the keeper’s presence and food introduction. Frequency of feeding bouts was considerably higher at Vienna Zoo compared to the other zoos and the bouts were shorter in duration. Time budgets of the koalas were within the range given in free-range studies. Feeding showed seasonal changes and was increased in lactating females. Koalas at Vinna Zoo had a high level of locomotor activity compared to the size of the enclosure. Koalas at Koala Walkabout were not used to handling, so they resisted the keeper. The koalas at the two European zoos were handled regularly and settled down quickly. However, handling took place in the morning; in most koalas, there was no activity prior to it. In Vienna, resting periods were interrupted daily due to weighing. Food introduction at KoalaWalkabout took place in the afternoon. It was preceded by locomotor activity and triggered a long feeding bout in the koalas. It is not clear, whether food had true Zeitgeber properties or masked the endogenous rhythm. In the two European zoos, food was introduced in the morning. The peaks related to this were smaller than those at Koala Walkabout. Activity was rarely observed prior to food introduction. The koalas at Koala Encounter, Taronga Zoo (Sydney),were regularly confronted with visitors, though no contact was allowed. Direct observation by the keepers did rarely show any stress signs. Activity patterns at night were strikingly similar to Koala Walkabout, but differed dramatically during the day. Food was introduced three times a day, which usually resulted in activity that interrupted a resting period. Generally, the koalas at Koala Encounter were more active than those at KoalaWalkabout. They also displayed a high level of locomotor activity, especially on the ground, which is an accepted sign of discomfort in koalas (Wood 1978; Zoological Society of San Diego 2001; Yusuf& Rosenthal unpublished data). In summary, this chronoethological study of the captive koalas showed that there are several problems with koala husbandry. Artificial light regimes for koalas are not sufficient for entrainment and result in unstructured activity pattern. This is especially the case in winter, when the day in Europe is artificially extended. Due to the mainly nocturnal behaviour of koalas, such an extension might not be necessary and therefore should be avoided. Handling in Europe took place during the physiological resting time of the koalas. Interruptions of resting times are considered as stressors (Wood 1978) and should be avoided. Handling in the afternoon would be more suitable for the koalas and triggered activity in the two koalas at Vienna Zoo. It is also arguable if daily weighing is necessary to monitor health in captive koalas or if the frequent interruption of resting countervail the advantages of constant monitoring. Frequent contact with visitors, evenwithout the so-called cuddling, has a considerable impact on activity patterns and time budget of koalas, even if no immediate stress signs are displayed. Such contact should therefore be reduced to a minimum and chronoethological observations of the koalas should be used. A study on koalas with direct visitor contact is also advisable to revise the current legislation on “koala cuddling”. Koalas frequently rested in living trees if they had access to it. Since no food-poisoning has been reported from koalas using living non-food trees, the provision of living trees with an appropriate canopy should be included in the husbandry guidelines. Increased locomotor activity has been shown to be related to conditions of discomfort or stress and possibly to oestrus. This is in accordance with literature (Wood 1978; Zoological Society of San Diego 2001). Further observation, combined with hormone analysis, are advisable to establish this parameter for evaluation of well-being. Chronoethology has proven to be useful for the evaluation of husbandry conditions and group dynamics. Different to other, traditional ethologicalmethods, it indicated problems and enabled me to advise more appropriate times for handling and food introduction. It is desirable that zoos already using 24-hour video observation include chronoethological aspects into their analysis.
Background: West Nile virus (WNV) infection can cause severe meningitis and encephalitis in humans. Apoptosis was recently shown to contribute to the pathogenesis of WNV encephalitis. Here, we used WNV-infected glioma cells to study WNV-replication and WNV-induced apoptosis in human brain-derived cells. Results: T98G cells are highly permissive for lytic WNV-infection as demonstrated by the production of infectious virus titre and the development of a characteristic cytopathic effect. WNV replication decreased cell viability and induced apoptosis as indicated by the activation of the effector caspase-3, the initiator caspases-8 and -9, poly(ADP-ribose)polymerase (PARP) cleavage and the release of cytochrome c from the mitochondria. Truncation of BID indicated cross-talk between the extrinsic and intrinsic apoptotic pathways. Inhibition of the caspases-8 or -9 inhibited PARP cleavage, demonstrating that both caspases are involved in WNV-induced apoptosis. Pancaspase inhibition prevented WNV-induced apoptosis without affecting virus replication. Conclusions: We found that WNV infection induces cell death in the brain-derived tumour cell line T98G by apoptosis under involvement of constituents of the extrinsic as well as the intrinsic apoptotic pathways. Our results illuminate the molecular mechanism of WNV-induced neural cell death.
Unser die Welt : sprachphilosophische Grundlegungen der Erkenntnistheorie ; ausgewählte Artikel
(2007)
Die Weiterentwicklung der Gedanken, die Wilhelm K. Essler 1972 in seinem Buch "Analytische Philosophie I" vorgetragen hat, ist bislang nur in Artikeln erfolgt. Die hier vorgelegte Auswahl hat das Ziel, den Kern seines Philosophierens, nach Sachgebieten geordnet, darzustellen. Im Zentrum seines Philosophierens steht die Untersuchung des Reflektierens, genauer: des philosophischen Reflektierens, anhand semantischer und epistemologischer Beispiele. Er orientiert sich dabei nicht an der Untersuchung vorhandener Erkenntnisakte, die oft schwer faßbar und noch schwerer eindeutig bestimmbar sind, sondern an deren rationaler Rekonstruktion in Modellen, gemäß dem Vorgehen in experimentellen Wissenschaften, und das besagt in der Philosophie natürlich: in Modellsprachen. Dieses Vorgehen hat den Vorteil, daß unter Einsatz des Instrumentariums der modernen Logik und ihrer Metalogik definitive Ergebnisse erzielt werden können, aufbauend auf den metalogischen Resultaten Gödels und Tarskis. In der Weiterführung der Ergebnisse von Gödel und Tarski wird gezeigt, daß die methodologische Unterscheidung von Erwähnen und Verwenden genau dem Vorgehen des semantischen Reflektierens gemäß der Sprachstufentheorie Tarskis entspricht und daß diese daher das geeignete Instrument zur Darstellung des epistemologischen Reflektierens und damit auch der erfahrungswissenschaftlichen Semantik ist. Anhand solcher präziser Sprachmodelle wird die Voraussetzungshaftigkeit allen sprachgebundenen Erkennens jeweils am Beispiel nachgewiesen. Macht man eben dieses Reflektieren zum neuen Gegenstand des untersuchenden Reflektierens, so benötigt man hierzu, will man die zuvor benützte Sprache des Reflektierens nun vollständig darstellen, abermals zusätzliche, in ihr noch nicht ausdrückbare Mittel des Reflektierens, und so fort ohne Ende. Dabei zeigt sich, daß dieses "und so fort ohne Ende" zum Problem der Grenze des Sagbaren gehört, und damit a fortiori zu den Grenzen des Philosophierens. Wie bei Platon wird Denken als ein inneres Sprechen verstanden, was eine enge Verbindung von Sprachphilosophie und Philosophie des Geistes impliziert. In neueren Untersuchungen hat Wilhelm K. Essler gezeigt, daß die Grundgedanken der buddhistischen Philosophie des Geistes mit diesen Ergebnissen des Reflektierens weitgehend übereinstimmen, daß jedoch diese über zwei Jahrtausende alte buddhistische Philosophie darüber hinaus auch Instrumente zur individuellen Anwendungen einer solchen sprachphilosophisch und erkenntnistheoretisch untermauerten Philosophie des Geistes enthält, die diese dann zu einer gelebten Philosophie werden lassen können, mit dem Ziel des Mottos, das auf der Eingangspforte des Tempels von Delphi zu lesen stand, nämlich: "Erkenne Dich selbst!"
Das Forschungsprojekt PROTOSOZIOLOGIE an der J.W. Goethe-Universität Frankfurt am Main hat seit 1991 eine grundlagentheoretische Forschung auf dem Gebiet der Theoriebildung der modernen Sozialwissenschaften durchgeführt. Dabei waren die drei Kontexte Phänomenologie, System- und Sprachtheorie relevant. Die Phänomenologie der Lebenswelt und die Systemtheorie haben in der Philosophie und Soziologie des 20. Jahrhunderts – neben dem Sprachbegriff – eine paradigmatische Bedeutung. Edmund Husserls Lebensweltbegriff ist in der phänomenologischen Schule und der phänomenologischen Soziologie von Alfred Schütz, in der konstruktiven Wissenschaftstheorie von Paul Lorenzen und seiner Schüler, in der Systemtheorie Niklas Luhmanns und der Theorie des kommunikativen Handelns von Jürgen Habermas wirkungsgeschichtlich geworden. Die Systemtheorie und der soziologische Funktionalismus hat seit den 40er Jahren eine paradigmatische Bedeutung für die Sozialwissenschaften und Wissenschaftstheorie. System und Lebenswelt avancierten somit zu den zentralen Begriffen der Philosophie, Soziologie und Kommunikationstheorie in der zweiten Hälfte des 20. Jahrhunderts. Für die beiden deutschen Soziologen Luhmann und Habermas ist darüber hinaus – wenn auch in unterschiedlicher Gewichtung – die Verbindung beider Begriffe von grundlegender Bedeutung. Im Rückblick können wir feststellen, daß in der Philosophie des 20. Jahrhunderts drei Philosophien dominierten: die Sprachphilosophie in der heute weitverzweigten und dominierenden analytischen Philosophie (Frege, Russell, Wittgenstein, Carnap u.a.), Husserls Phänomenologie in der »Phänomenologischen Schule« und Soziologie und Heideggers Fundamentalontologie in der Philosophischen Hermeneutik. Gemeinsam ist den Hauptrichtungen der Philosophie in diesem Jahrhundert, daß sie die Erkenntnistheorie nicht mehr cartesianisch und mentalistisch konstruieren. Paradigmatisch wurde diese Umorientierung in der Erkenntnistheorie Wittgensteins, der Frege folgend, in seinem »Tractatus« lakonisch formuliert: »Das denkende, vorstellende Subjekt gibt es nicht«. Husserl nimmt zwar eine Sonderstellung ein, da seine Egologie und Erkenntnistheorie cartesianisch orientiert ist. Mit der Hinwendung zur Lebensweltanalyse gibt er auch eine Antwort auf die Konstruktionsprobleme des modernen Mentalismus. Die Dekonstruktion des erkennenden Ichs (transzendentalen Bewußtseins) hat sich in der Philosophie, Wissenschaftstheorie und Soziologie des 20. Jahrhunderts durchgesetzt. Dies gilt sowohl für den radikalen Konstruktivismus, die allgemeine und die soziologische Systemtheorie Luhmanns aber auch für die konstruktive Philosophie von Lorenzen, den sogenannten »Erlangener Konstruktivismus« und seine heutigen Vertreter. Belegen läßt sich das Ende der Bewußtseinsphilosophie aber auch in der Erkenntnistheorie ohne erkennendes Subjekt von Popper, dem erkenntnistheoretischen Naturalismus von Quine und Davidson, der sprachtheoretischen Erkenntnis- und Wissenschaftstheorie von Essler (W.K.) und in der Organtheorie der Sprache von Chomsky. Inhalt Einleitung: »Lebenswelt« und »System« in Philosophie und Soziologie 9 Gerhard Preyer, Georg Peter, Alexander Ulfig ZUM BEGRIFF DER LEBENSWELT Ernst Wolfgang Orth ›Lebenswelt‹ als unvermeidliche Illusion? Husserls Lebensweltbegriff und seine kulturpolitischen Weiterungen 28 Walter Biemel Gedanken zur Genesis der Lebenswelt 41 Alexander Ulfig Lebenswelt und Reflexion. Anhang: Lebenswelt als Fundament der Wissenschaft 55 Gerhard Preyer Hintergrundwissen: Kritik eines Begriffs 81 Hubert A. Knoblauch Soziologie als strenge Wissenschaft? Phänomenologie, kommunikative Lebenswelt und soziologische Methodologie 93 LEBENSWELT – BEGRÜNDUNG – WISSENSCHAFT Jürgen Mittelstraß Das lebensweltliche Apriori 106 Peter Janich Die Rationalität der Naturwissenschaften 133 Jürgen Mittelstraß Rationalität und Reproduzierbarkeit 152 Elisabeth Ströker Lebenswelt durch Wissenschaft: Zum Strukturwandel von Welt- und Selbsterfahrung 163 Paul Janssen Lebenswelt, Wissen und Wissenschaft – Möglichkeiten ihrer Konstellation 184 Richard T. Murphy E. Husserl's Phenomenology of Reason 202 LEBENSWELT / LEBENSFORM – SPRACHE Pierre Kerszberg Lifeworld and Language 216 John F.M. Hunter The Motley Forms of Life in the Later Wittgenstein 228 Peter A. French Why did Wittgenstein read Tagore to the Vienna Circle? 241 Georg Peter Die Nebenbeschäftigung der Symbole: Zu Wahrheit und Funktion der Metapher 251 SYSTEM – SOZIALSYSTEM – GESELLSCHAFT Niklas Luhmann Die Lebenswelt nach Rücksprache mit Phänomenologen 268 Niklas Luhmann Observing Re-entries 290 Gerhard Preyer System-, Medien- und Evolutionstheorie. Zu Niklas Luhmanns Ansatz 302 Richard Münch Autopoesis per Definition 347 Hans Zitko Codierungen der Kunst: Zur Kunstsoziologie Niklas Luhmanns 357 James Bohman The Completeness of Macro-Sociological Explanations: System and Lifeworld 370 Göran Ahrne Outline of an Organisational Theory of Society 382 Anhang: Karl Otto Hondrich Zu Göran Ahrnes Ansatz 390
The multiplicity of hadronic species created in elementary, and in nucleus-nucleus collisions, are known to be well reproduced by the statistical hadronization model, in its canonical and grand-canonical versions.To understand the origin of the implied equilibrium we revisit the hadronization models developed for e+e- annihilation to hadrons which imply spatial color pre-confinement clusters forming at the end of the pQCD evolution, which decays into on-shell hadrons/resonances. The classical ensemble description arises as a consequence of decoherence and phase space dominance during cluster formation, and decay.For A+A collisions we assume that hadronization occurs from similar singlet clusters which will overlap spatially owing to the extreme density. This is imaged in the transition to the grand-canonical ensemble.This transition sets in with increasing A and collision centrality. It can be described by a percolation model.
We discuss the present collective flow signals for the phase transition to quark-gluon plasma (QGP) and the collective flow as a barometer for the equation of state (EoS). A study of Mach shocks induced by fast partonic jets propagating through the QGP is given. We predict a significant deformation of Mach shocks in central Au+Au collisions at RHIC and LHC energies as compared to the case of jet propagation in a static medium. Results of a hydrodynamical study of jet energy loss are presented.
The energy dependence of various hadronic observables is reviewed. The study of their evolution from AGS over SPS to the highest RHIC energy reveals interesting features, which might locate a possible onset of deconfinement. These observables include transverse spectra of different particle types and their total multiplicities, as well as elliptic flow. In this context especially the observation of a maximum of the strangeness to pion ratio is of particular interest, since on one hand it has been predicted as a signal for the onset of deconfinement but on the other hand also statistical model calculations exhibit qualitatively similar structures. The sharpness of these features is however not reproduced by hadronic scenarios. The significance of these structures will be discussed in this contribution. Other observables, such as radius parameters from Bose-Einstein correlations, on the other hand do not exhibit any structure in their energy dependence.
We study optimal investment in self-protection of insured individuals when they face interdependencies in the form of potential contamination from others. If individuals cannot coordinate their actions, then the positive externality of investing in self-protection implies that, in equilibrium, individuals underinvest in self-protection. Limiting insurance coverage through deductibles or selling “at-fault” insurance can partially internalize this externality and thereby improve individual and social welfare. JEL Classification: C72, D62, D80
Why is it hard to divide attention between dissimilar activities, such as reading and listening to a conversation? We used functional magnetic resonance imaging (fMRI) to study interference between simple auditory and visual decisions, independently of motor competition. Overlapping activity for auditory and visual tasks performed in isolation was found in lateral prefrontal regions, middle temporal cortex and parietal cortex. When the visual stimulus occurred during the processing of the tone, its activation in prefrontal and middle temporal cortex was suppressed. Additionally, reduced activity was seen in modality-specific visual cortex. These results paralleled impaired awareness of the visual event. Even without competing motor responses, a simple auditory decision interferes with visual processing on different neural levels, including prefrontal cortex, middle temporal cortex and visual regions.
Das humane Cytomegalovirus (hCMV) ist ein ubiquitär verbreitetes Pathogen. Die CMV-Infektion ist eine nicht selten lebensbedrohliche Komplikation bei immunsupprimierten Organ- und Knochenmarktransplantat-Empfängern. Bei immunkompetenten Individuen hingegen verläuft eine CMV-Infektion in der Regel asymptomatisch. Wie am Beispiel der murinen CMV (mCMV)-Infektion gezeigt werden konnte, erfolgt die Immunkontrolle durch CD8 T-Zellen. Im Infektionsmodell der BALB/c (H-2d) Maus dominieren CD8 T-Zellen mit Spezifität für zwei antigene Peptide: Ein Ld-restringiertes Peptid aus dem immediate early (IE1)-Protein m123, sowie ein Dd-restringiertes Peptid aus dem early (E)-Protein m164. Der konzertierten Aktion der viralen Immunevasionsproteine von mCMV gelingt es nicht, die Expression dieser beiden Peptide auf der Oberfläche infizierter Zellen zu verhindern. Der ORFm164 wurde 1996 von Rawlinson et al. vorhergesagt und umfasst demnach 1284 Nukleotide, die für ein Protein von 46,6 kDa kodieren. Über die mRNA und das tatsächliche Genprodukt des ORFm164 war zu Beginn dieser Arbeit jedoch nichts bekannt. Die in der vorliegenden Arbeit durchgeführten Transkriptions- und Translations-Analysen zeigten, dass der eigentliche ORFm164 kürzer ist als vorhergesagt. So konnte mittels 5´/3´ RACE eine ungespleißte, 2004 Nukleotide große mRNA identifiziert werden, die einen 1011 Nukleotide langen ORF, sowie 5´ und 3´ flankierende UTRs umfasst. Das eigentliche Start-AUG der m164-mRNA liegt in einer Kozak-ähnlichen Konsensussequenz, wobei dieses Startcodon nicht dem von Rawlinson vorhergesagten ersten AUG entspricht. Vielmehr startet die Translation am dritten AUG und generiert ein m164 Genprodukt mit einer apparenten molekularen Masse von 38 kDa. Schließlich konnte m164 als Typ-I Membranglykoprotein charakterisiert werden. Das Protein ist ein frühes E-Phase Protein, das bereits ab 2 h p.i. und während der gesamten E-Phase abundant exprimiert wird. Pulse-Chase Experimente wiesen darauf hin, dass m164 relativ instabil ist. Mit Hilfe der indirekten Immunfluoreszenz konnte neben einer ER-Lokalisation auch eine Kolokalisation von m164/gp38 mit den Proteinen der inneren Kernmembran Emerin und LaminB2 nachgewiesen werden. Eine direkte Interaktion zwischen diesen Proteinen und m164/gp38 konnte durch Fluoreszenz Resonanz Energie Transfer (FRET)-Experimente allerdings ausgeschlossen werden. FRAP (Fluorescence recovery after photobleaching)-Analysen haben ergeben, dass m164/gp38 in der äußeren Kernmembran lokalisiert ist. Somit könnte m164/gp38 eine Rolle beim Prozess des Deenvelopments der im Perinuklearraum lokalisierten primären Virionen spielen, indem es die Fusion zwischen primärer Virushülle und äußerer Kernmembran unterstützt und dadurch die Freisetzung der Kapside ins Zytoplasma ermöglicht. Diese Hypothese soll in weiterführenden Arbeiten überprüft werden.
Ausgehend von Brechts Regieanweisung im Gedicht „Das Zeigen muss gezeigt werden !“ befasst sich das erste Kapitel mit dem deiktischen Prinzip im Stück Die Dreigroschenoper. Nachgewiesen wird seine Zeigestruktur, die die Beggar’s Opera von John Gay durch die Bauform der Dreigroschenoper, letztlich aber die Oper als „romantisches Institut“ generell >beybringt<: Es handelt sich bei diesem Werk im Grunde um ein Lehrstück in Form einer Oper. Zur Darstellung kommt, wie sich das zeigt, was schon allgemein bekannt zu sein scheint (Hegel), wie die Oper und das Zeigen selbst. Im Großformat: Soziale Verelendung. In etlichen Kleinformaten: Eine Hochzeit. Oder Eifersucht, Armut, Prostitution, Trunksucht, Liebe und Verrat oder das, was gemeinhin als „Kriminalität“ bezeichnet wird. Die Dialektik von Einfühlung und Verfremdung tritt als Index zutage: Die Beteiligung am Unbeteiligtsein durch das Zeigen „ohne Mitleid“. Das zweite Kapitel nimmt Brechts Kritik der Einfühlung beim Schauspielen auf und stellt sie reformpädagogischen Unterrichtskonzepten gegenüber. Diese Studien zur Didaktik beleuch-ten die ideologischen morphings der Formel „vom Kinde aus“ und arbeiten einen völlig neuen Begriff von Verfremdung heraus. Es geht um die problematische Vorherrschaft von Familiarisierungen durch Zeigen und Verfremden unter dem Fanal einer sich kindgerecht und human ausgebenden Pädagogik – das „Einfühlungstheater“. Kritisiert werden in Rücksicht auf Brechts Theater in Theorie und Praxis die Illusionen, die das >Beybringen< betreffen. Sei es beim „erfahrungsoffenen Lernen“, das auf den Phänomenen stehe (Wagenschein, Rumpf), sei es beim „handlungs- und schülerorientierten Unterricht“ (Meyer) oder aber beim „Methoden-training“ und dem „eigenverantwortlichen Arbeiten und Lernen“ (Klippert). Das Resultat ist, dass diese Einlassungen theoretisch nicht ganz koscher sind. Die Diagnose gilt nicht minder für eine Pilotstudie zum Holocaust als Unterrichtsthema. Favorisiert wird in diesen Reformen der Pädagogik „das Anschauen des Grauens“ (Brumlik). Im Schlußkapitel entsteht aus den gewonnenen Erkenntnissen eine Theorie der Didaktik. Die Didaktik selbst wird auf ihre eigentliche Aufgabe zurückgeführt: Die Deixis. Die Säulen der vorliegenden Arbeit bilden von Anfang an die Schriften von Klaus Prange, werden aber an dieser Stelle mit den Brechtschen besonders pointiert zusammengebracht. Entgegen Pranges Auffassung ist die Artikulation des Zeigens bereits als Elementarform der Verfremdung zu konstatieren. Rezeptionsästhetische Aspekte kommen ins Spiel (Gandelmann), die Rolle von präsentativen und diskursiven Symbolisierungsformen: „Das Zeigen des Zeigens gehört zur Sprache“ (Prange). Und es gehört nicht nur zur Sprache, sondern die Sprache kommt zur Sprache. Sie erfährt durch das Zeigemoment eine Rhetorisierung, gerade weil sie auch klingt. Die Formel „vom Kinde aus“ entpuppt sich vor dem Hintergrund als „leere Benzintonne“ (Whorf): Die Claqueure der Pädagogik der Reformen wähnen sich mit ihren illusorischen Theorien in Sicherheit, „rauchen“ und „trinken“ wie gewohnt weiter und nehmen nicht für wahr, das auch hier das Wesentliche und in dem Fall Gefährliche für die Augen unsichtbar ist: „How to do Things with words“ (Austin) – diese Frage ist von zentraler Bedeutung für die Pädagogik. Der Räuberhauptmann Macheath würde sagen: „Da kannst du was lernen.“
Hintergrund: Die studentische Ausbildung sollte sowohl inhaltlich als auch organisatorisch auf qualitativ hohem Niveau durchgeführt werden. Während die Evidenzbasierte Medizin (EbM) auf inhaltlicher Ebene die medizinische Ausbildung optimieren kann, vermag dies auf organisatorischer Ebene das Qualitätsmanagement (QM). Aus diesem Grund führte die Arbeitsgruppe EBM Frankfurt des Instituts für Allgemeinmedizin am Universitätsklinikum Frankfurt am Main ein umfassendes Qualitätsmanagementsystem (QMS) ein.
Methoden: Auf Eigeninitiative einiger Arbeitsgruppenmitglieder wurde mit Unterstützung der Stabsstelle Qualitätsmanagement des Uniklinikums Frankfurt ab Oktober 2002 ein alle Teilbereiche der Arbeitsgruppe umfassendes QMS eingeführt. Unter Führung des QM-Lenkungsteams der Arbeitsgruppe wurden für alle relevanten Prozesse des Lehrbetriebs Ablaufdiagramme, Checklisten, Prozessbeschreibungen und Mindeststandards definiert und eingeführt. Hierbei wurden alle Mitglieder aktiv und kontinuierlich in den Erstellungsprozeß eingebunden.
Ergebnisse: Durch die kontinuierliche Beteiligung aller Mitarbeiter konnte ein allgemein akzeptiertes, lebendiges, effektives und zertifizierbares Qualitätsmanagementsystem eingeführt und aufrechterhalten werden. Wichtiger als eine Zertifizierung erscheint jedoch die kontinuierliche Verbesserung des Lehrbetriebs, die sich in zunehmend besseren Benotungen des curricularen EbM-Seminars (WiSe 2003/04: 2,37 vs. SoSe 2006: 1,54) und effektiver Kursgestaltung bei geringer Personalkapazität wiederspiegelt.
Schlussfolgerung/Implikation: Die Implementierung eines QMS auf freiwilliger Basis ist in Bereichen akademischer Lehre unter Beachtung wichtiger Erfolgsfaktoren mit moderatem Personal- und Sachkostenaufwand möglich und ein effektives Instrument zur Verbesserung der von den Studierenden wahrgenommenen Dienstleistungsqualität.
Hintergrund: Die praktische Anwendung der EbM bedarf neben interner Evidenz auch einiger Basis-Fertigkeiten, die schon während der medizinischen Ausbildung trainiert werden sollten. Während die EbM seit über 3 Jahren fester Bestandteil des Ausbildungscurriculums der medizinischen Fakultät in Frankfurt/Main ist, findet sie an vielen anderen Fakultäten nur langsam Einzug.
Um diesen Prozess zu unterstützen und zu beschleunigen, wurde von der Arbeitsgruppe EBM Frankfurt das Ausbildungskonzept Train the Teacher ins Leben gerufen.
Methoden: Der Train the Teacher-Kurs besteht aus zwei Teilen und basiert auf den Erfahrungen von 20 Basiskursen und über 50 curricularen Seminaren an der Universität Frankfurt. Er setzt sich aus einem „EbM-Aufbaukurs“ und einem „Didaktik-Kurs“ zusammen. Ziel des Kurses ist die Befähigung der Teilnehmer zur Konzeption eines eigenen EbM-Lehrangebotes an der jeweiligen Ausbildungseinrichtung. Beide Ausbildungsteile werden sowohl subjektiv als auch objektiv evaluiert.
Ergebnisse: Es konnten im Rahmen des Lehrkonzepts Train the Teacher mittlerweile 25 Personen aus unterschiedlichsten Fachbereichen und Einrichtungen aus dem gesamten Bundesgebiet ausgebildet werden. Sowohl die subjektiven als auch objektiven Evaluationen fallen durchweg positiv aus. Die Vorevaluation ergab bei der subjektiven Bewertung einen Score von 8,27 (Skala von 1 bis maximal 10). Bei der objektiven Evaluation wurden im Mittel 84% der gestellten Fragen richtig beantwortet.
Schlussfolgerung/Implikation: Der Train the Teacher – Kurs ist für das angestrebte Ziel Erfolg versprechend. Einige Absolventen haben bereits begonnen, an verschiedenen Ausbildungsstandorten evidenzbasierte Lehrangebote zu implementieren. Das Konzept wird erweitert und fortgeführt.
Hintergrund Die chronische Herzinsuffizienz erfordert als Systemerkrankung hausärztliche sowie spezialärztliche Versorgung. Die evidenzbasierte DEGAM-Leitlinie (LL) zur hausärztlichen Versorgung der Herzinsuffizienz wurde formal interdisziplinär konsentiert, nachdem der Entwurf ein mehrstufiges internes und externes Reviewverfahren durchlaufen hatte. Methode Wissenschaftliche Fachgesellschaften und Organisationen (FG/O) wurden zu einem Nominalen Gruppenprozeß (NGP) eingeladen und entsandten autorisierte Teilnehmer. Diese erhielten den LL-Entwurf inkl. Methodenreport sowie eine Liste zentraler LL-Empfehlungen für ein persönliches Ranking (44-Items; 6-stufige Likert-Skala). Beim Konsentierungstreffen wurden aus dem 1. Ranking Themen ohne deutliche Übereinstimmung (Likert =4) identifiziert, unter Hinzunahme weiterer Themenvorschläge in priorisierter Reihenfolge diskutiert und erneut abgestimmt. Der überarbeitete LL-Entwurf wurde in einem zweiten Ranking im Delphi-Verfahren konsentiert. Ergebnisse Im Abstimmungsprozess mit 10 Vertretern aus 11 FG/O wurden ~35 Themen diskutiert. Bei zwei Empfehlungen mit fehlender Evidenz wurde ein von internationalen LL abweichender Konsens getroffen (z.B. ß-Blocker bei asymptomatischen Patienten nur nach durchgemachtem Herzinfarkt). Vier Formulierungen bewertenden Charakters zur BNP-Bestimmung wurden zugunsten einer Negativempfehlung gestrichen, eine Empfehlung mit der STIKO harmonisiert (Pneumokokkenimpfung), bei weiteren wurden ergänzende Konditionen im Wortlaut eingefügt oder sprachliche Änderungen vorgenommen. Fünf Themen wurden neu erstellt (z.B. kontraindizierte Pharmaka). Bis auf drei (z.B. Flussdiagramme nicht vollständig konsensfähig: unangemessene Vereinfachung vs. fehlende Praktikabilität) wurden alle Empfehlungen der LL konsentiert. Schlussfolgerungen Der NGP ist für evidenzbasierte LL eine geeignete Vorgehensweise. Interdisziplinarität ist insbesondere bei Entscheidungsunsicherheit (fehlende oder inkonsistente Evidenz) und zur Schnittstellendefinition wertvoll.
Die Vermittlung der Zusammenhänge zwischen psychologischen Funktionen und körperlichen Veränderungen sowie deren Relevanz für die Entstehung und Aufrechterhaltung von Krankheiten stellt ein zentrales Ziel der Ausbildung in Medizinischer Psychologie dar. Zur Veranschaulichung dieser Zusammenhänge führten wir ein Psychophysiologie-Praktikum im ersten vorklinischen Semester ein. Die Studierenden führten in Vierergruppen mit Hilfe ausführlicher schriftlicher Instruktionen jeweils ca. 30 Minuten andauernde praktische Übungen durch, die die folgenden Themen behandelten: (1) Stress (abhängige Variable: Herzrate), (2) "Lügendetektor" (abhängige Variable: Hautleitwertsreaktionen), (3) Biofeedback (abhängige Variable: Hauttemperatur) und (4) Elektroenzephalogramm (abhängige Variable: Amplituden der vier klassischen Frequenzbänder). Die praktischen Übungen wurden durch theoretische Gruppenarbeiten und einen Termin zur Zusammenfassung der Ergebnisse der Übungen ergänzt. Die studentische Evaluation des Praktikums war durchweg positiv. So wurde das Praktikum als Bereicherung des Kurses angesehen, und der selbstbeurteilte Kenntnisstand auf dem Gebiet der Psychophysiologie zeigte eine signifikante Verbesserung. Diese Ergebnisse sowie unsere Eindrücke während des Praktikums bekräftigten unseren Entschluss, ein Psychophysiologie-Praktikum als Teil des Kurses der Medizinischen Psychologie und Medizinischen Soziologie fest zu etablieren.
Spatial interpolation of precipitation data is uncertain. How important is this uncertainty and how can it be considered in evaluation of high-resolution probabilistic precipitation forecasts? These questions are discussed by experimental evaluation of the COSMO consortium's limited-area ensemble prediction system COSMO-LEPS. The applied performance measure is the often used Brier skill score (BSS). The observational references in the evaluation are (a) analyzed rain gauge data by ordinary Kriging and (b) ensembles of interpolated rain gauge data by stochastic simulation. This permits the consideration of either a deterministic reference (the event is observed or not with 100% certainty) or a probabilistic reference that makes allowance for uncertainties in spatial averaging. The evaluation experiments show that the evaluation uncertainties are substantial even for the large area (41 300 km2) of Switzerland with a mean rain gauge distance as good as 7 km: the one- to three-day precipitation forecasts have skill decreasing with forecast lead time but the one- and two-day forecast performances differ not significantly.
This paper documents the experiences of assurance evaluation during the early stage of a large software development project. This project researches, contracts and integrates privacy-respecting software to business environments. While assurance evaluation with ISO 15408 Common Criteria (CC) within the certification schemes is done after a system has been completed, our approach executes evaluation during the early phases of the software life cycle. The promise is to increase quality and to reduce testing and fault removal costs for later phases of the development process. First results from the still-ongoing project suggests that the Common Criteria can define a framework for assurance evaluation in ongoing development projects.
RNA-Interferenz (RNAi) erlangte eine herausragende Bedeutung zum Studium der Genfunktion, nachdem auch in Säugersystemen gezeigt wurde, daß durch Applikation von 21 nt langen siRNAs (small interfering RNAs) eine Sequenz-spezifische Degradierung der mRNA-Transkripte kognitiver Gene erreicht werden konnte. Im Gegensatz zur antisense-Technologie erwies sich die Wirkung von siRNA im Hinblick auf die Hemmung der Genexpression um ein Vielfaches potenter und hoch spezifisch. Für eine längerfristige Unterdrückung von Genen kristallisierte sich die Methode der Plasmid-Vektor-vermittelten intrazellulären Expression von shRNA (short hairpin RNA) heraus, welche transient oder stabil angewendet werden kann. Diese exprimierte shRNA wird intrazellulär enzymatisch zu wirksamer siRNA prozessiert, welche den eigentlichen Enzym-vermittelten RNAi-Mechanismus der Degradierung von mRNA-Transkripten kognitiver Gene auslöst. Die Anwendung von RNA-Polymerase III-abhängigen Promotoren für die stabile konstitutive Expression von shRNA stellte ein großes Problem für behandelte Zellen dar, wenn es sich bei dem zu unterdrückenden Zielgen um ein Gen mit essentiellen Funktionen für die Zelle handelte. Im Falle der Polo-like Kinase 1 (Plk1), einer in vielen Spezies hoch konservierten Serin/Threonin-Kinase mit essentiellen mitotischen Funktionen, bedeutete eine dauerhafte und stringente Unterdrückung einen veränderten Phänotyp beteiligter Zellen, welcher sich durch Defekte bei mitotischen Ereignissen bemerkbar machte. Plk1 ist in zahlreiche mitotische Prozesse, wie den Eintritt der Zellen in die Mitose, die Segregation der Chromosomen und die Aktivierung des APC/C (anaphase promoting complex / cyclosome), eingebunden. Darüber hinaus ist bekannt, daß Plk1 in nahezu allen Tumorarten überexprimiert vorliegt und die Prognose von Tumorwachstum und Metastasierungspotential über den Plk1-Gehalt definiert werden kann. Des weiteren bewirkte eine RNAi-vermittelte Unterdrückung der Plk1-Expression bei Tumorzellen eine Hemmung der Zellproliferation mit Auslösung der Apoptose. Hingegen konnte bei gesunden primären Zellen weder eine signifikante Hemmung der Proliferation noch die Auslösung der Apoptose beobachtet werden, was die große Bedeutung von Plk1 als Ansatzpunkt für eine Krebstherapie hervorhebt. Um die Funktion von Plk1 im Hinblick auf molekularbiologische Zusammenhänge besser studieren zu können, war es notwendig, den intrazellulären Plk1-Gehalt zu variieren. Im Rahmen dieser Promotionsarbeit wurden dazu induzierbare RNAi-Elemente entwickelt, mit deren Hilfe die intrazelluläre Plk1-Expression konditionell inhibiert werden konnte. Unter Verwendung des prokaryotischen Tet-Systems wurden auf Basis des RNA-Polymerase abhängigen H1-Promotors durch Insertion von einer oder zwei Operatorsequenzen (TetO) für den Tetrazyklin-Repressor (TetR) an verschiedene Orte innerhalb der Sequenz des H1-Promotors drei induzierbare Promotor-Derivate geschaffen. Die drei entwickelten H1-Promotor-Derivate wurden zur Expression von shRNA gegen Plk1 eingesetzt und in bezug auf die Auslösung der RNAi-Antwort getestet und untereinander verglichen. Zu diesem Zwecke wurde der endogene Plk1-Gehalt von HeLa-Tumorzellen auf Transkript- und auf Proteinebene bestimmt. Die Zellen wurden zuvor mit Plasmid-Vektoren für konstitutive TetR-Expression und jeweils einer der verschiedenen shRNA-Expressions-Kassetten ko-transfiziert. Als Kontrollen dienten dabei Wildtyp-H1-Promotoren, welche zur konstitutiven Expression von shRNA gegen Plk1 und einer unwirksamen Kontroll-shRNA eingesetzt wurden. Mit Hilfe des synthetischen Tetrazyklin-Analogons Doxyzyklin, welches einen potenten Aktivator für TetR darstellt, konnten die hergestellten Promotor-Derivate induziert werden, was durch einen reduzierten intrazellulären Plk1-Gehalt sichtbar wurde. Dabei fiel auf, daß alle drei Promotor-Typen unterschiedliche Eigenschaften im nichtinduzierten Zustand wie auch im induzierten Zustand unter Anwesenheit von Doxyzyklin aufwiesen. Für die Basalaktivität in Abwesenheit von Doxyzyklin (leakiness) war die relative Lage der TetO-Sequenz(en) innerhalb des Promotors verantwortlich. So veränderte die Insertion einer TetO-Sequenz in 3’-Richtung der TATA-Box die Eigenschaften des Wildtyp-H1-Promotors weniger als die Insertion einer TetO-Sequenz in 5’-Richtung der TATA-Box. Zum Studium von Plk1 als Zielgen in der Krebstherapie wurde das Proliferationsverhalten von HeLa-Tumorzellen als Antwort auf die Doxyzyklin-vermittelte Induktion der shRNAExpression unter Kontrolle eines der induzierbaren Promotoren ermittelt. Dabei konnte die Proliferation von Tumorzellen durch einen reduzierten Plk1-Gehalt, welcher durch die Doxyzyklin-induzierte Auslösung der RNAi-Antwort vermittelt wurde, erfolgreich inhibiert werden. Zur Überprüfung der Eignung entwickelter Systeme, Tumorwachstum in vivo inhibieren zu können, wurden die entwickelten RNAi-Kassetten in das Genom von TetRexprimierenden HeLa-Zellen integriert und so stabile Klone geschaffen. Stabile HeLa-Klone zur induzierbaren Expression von Plk1-spezifischer shRNA, wie auch zur induzierbaren Expression von einer Kontroll-shRNA, wurden in die gegenüberliegenden Flanken von immunsupprimierten Nacktmäusen inokuliert, um anhand von Xenograft-Modellen einen direkten Vergleich des Tumorwachstums unter gleichen äußeren Bedingungen zu ermöglichen. Einem Teil der Mäuse wurde Doxyzyklin ins Trinkwasser gegeben, während Kontrollmäuse kein Doxyzyklin verabreicht bekamen. Das Tumorwachstum von Xenograft-Tumoren, welche aus Klonen zur Expression von shRNA gegen Plk1 hervorgingen, konnte in Doxyzyklin-behandelten Mäusen um 53% auf 47% an Tag 51 nach Inokulierung der Zellen inhibiert werden. Tumoren nicht-induzierter Mäuse, sowie Tumoren aus induzierten Mäusen, welche Kontroll-shRNA exprimierten, wuchsen dagegen unverändert in gleichem Maße. Anhand der in dieser Arbeit entwickelten induzierbaren H1-Promotor-Derivate zur konditionellen Auslösung von RNAi wurden wertvolle genetische Werkzeuge geschaffen, welche für das Studium der Genfunktion eingesetzt werden können. Im Falle der Unterdrückung von Plk1 können mit ihrer Hilfe sowohl grundlegende molekularbiologische Zusammenhänge studiert als auch die Bewertung von Plk1 als Zielgen in der Krebstherapie bewertet werden. Im Gegensatz zu kürzlich entwickelten Kinase-Inhibitoren, welche auf Proteinebene gegen Plk1 gerichtet sind und aufgrund ihrer bislang nicht nachgewiesenen Spezifität verwandte Kinasen in ihrer Wirkungsweise beeinflussen könnten, ist eine RNAibasierte Strategie hoch spezifisch und verspricht eine große Relevanz für zukünftige therapeutische Ansätze. Vorraussetzung für erfolgversprechende RNAi-basierte Strategien ist eine hohe Konservierung der Sequenz beteiligter Zielgene. Im Falle von Plk1 konnte eine hohe Konservierung durch Sequenzanalyse der Plk1-Gene von 15 Mamma-Karzinomen, 11 Ovarial-Karzinomen und mehrerer Tumorzellinien bestätigt werden.
Synaptopodin is the founding member of a family of actin-associated proline-rich proteins. It is present in a subset of telencephalic dendritic spines, where it is tightly associated with the dendritic spine apparatus, a putative calcium store. Synaptopodin-deficient mice lack the spine apparatus and show deficits in long-term potentiation and spatial memory. Thus, synaptopodin appears to play a role in synaptic plasticity. In the present thesis, three major questions were addressed: (1) What is the distribution of synaptopodin and the spine apparatus in identified hippocampal neurons? (2) Is the distribution of synaptopodin affected by denervation? (3) Is synaptopodin involved in the regulation of denervation-induced spine loss? The major findings of this thesis are: (1) Immunohistochemistry in the hippocampus of wildtype and EGFP-transgenic mice revealed significant layer-specific differences in the prevalence of synaptopodin at the level of individual neurons. (2) Light and electron microscopic analysis also revealed the presence of synaptopodin in axon initial segments of cortical and hippocampal principal neurons. There, it was found to be an essential component of the cisternal organelle, a putative axonal homologue of the dendritic spine apparatus. (3) Immunohistochemistry in the rat fascia dentata before and following entorhinal deafferentation revealed changes in synaptopodin expression in denervated and non-denervated layers of the hippocampus, suggesting that the distribution of synaptopodin in hippocampal neurons is regulated by presynaptic signals. (4) The dynamics of denervation-induced spine plasticity were studied in vitro using confocal live imaging of organotypic entorhino-hippocampal slice cultures. Whereas spines were remarkably stable under control conditions, spine loss and spine formation were seen following denervation. No significant differences were observed between cultures from wildtype and synaptopodin-deficient mice, suggesting that synaptopodin is not involved in lesion-induced spine plasticity. (5) Finally, a set of transgenic mice expressing fluorescently tagged synaptopodin were generated to facilitate future experiments on the dynamics and function of synaptopodin. In summary, this thesis presents novel findings on (1) the subcellular distribution of synaptopodin in spines and the axon initial segment, (2) the molecular composition of the cisternal organelle, and (3) the dynamics of spines and the spine apparatus organelle following deafferentation in vivo and in vitro.
Die Unternehmensbesteuerung ist eines der Instrumentarien das im Wettbewerb um den mobilen Faktor Kapital von den Industriestaaten eingesetzt wird. Hinsichtlich der wissenschaftlichen Forschung, die den Zusammenhang zwischen der Unternehmensbesteuerung und dem unternehmerischen Kapitalstock untersucht, ist mittlerweile eine beträchtliche Zahl von Literatur entstanden. Aus der vorhandenen Literatur sind jedoch zwei Schwächen zu erkennen. Erstens basieren viele der empirischen Analysen auf makroökonomischen Zeitreihendaten und zweitens finden vor allem Reduzierte-Form-Modelle Anwendung. Die vorliegende Dissertation gliedert sich in die Reihe empirischer Arbeiten unter Verwendung von Mikrodaten ein, die Aspekte der Unternehmensbesteuerung untersuchen. Die Arbeiten liefern einen Beitrag zum tieferen Verständnis aus den Teilbereichen der Finanzierunkstruktur, der gemeinsamen Bemessungsgrundlage sowie der Messung der marginalen Steuerbelastung. Dabei konzentrieren sich die Analysen auf die Aktivitäten deutscher Unternehmen im In- und Ausland sowie ausländischer Unternehmen in Deutschland. Grundlage der empirischen Untersuchungen sind vor allem vertrauliche Mikrodaten der Deutschen Bundesbank. Im Rahmen der deskriptiven und multivariaten Analyse werden Hinweise für den Zusammenhang zwischen der Besteuerung und dem unternehmerischen verhalten nachgewiesen. Damit dienen die Resultate auch als Diskussionsgrundlage für die Ausgestaltung künftiger Steuerpolitik in Deutschland und der EU.
According to the opinion of the author literary heritage of L.Holberg (Denmark, XVIII c) may be considered as a series of various realizations of one underlying ideal. Being statuary as to its essence, this ideal manifests self-sufficient and detached structure always identical with itself. But the main genre of Holberg’s work is the comedy. That’s why this ideal appears first of all indirectly, through the satirical demonstration of its opposite. Such opposite is brightly presented in image of Jeppe, the protagonist of his most renowned comedy “Jeppe paa Bierget” (1722). Jeppe is noteworthy for correlation of his weak self-consciousness and his degraded self-sensation i.e. by almost full absence of feeling of bounds proper to his own body. Close analysis shows that in accordance with nature of Holberg’s creative phantasy this antithesis of his ideal (as well as some other similar characters in Holbergian plays) is endowed with structure which is not identical with itself, unstable and disintegrating.
The potential use of variola virus, the causative agent of smallpox, as a bioweapon and the endemic presence of monkeypox virus in Africa demonstrate the need for better therapies for orthopoxvirus infections. Chemotherapeutic approaches to control viral infections have been less successful than those targeting bacterial infections. While bacteria commonly reproduce themselves outside of cells and have metabolic functions against which antibiotics can be directed, viruses replicate in the host cells using the cells' metabolic pathways. This makes it very difficult to selectively target the virus without damaging the host. Therefore, the development of antiviral drugs against poxviruses has initially focused on unique properties of the viral replication cycle or of viral proteins that can be selectively targeted. However, recent advances in molecular biology have provided insights into host factors that represent novel drug targets. The latest anti-poxvirus drugs are kinase inhibitors, which were originally developed to treat cancer progression but in addition block egress of poxviruses from infected cells. This review will summarize the current understanding of anti-poxvirus drugs and will give an overview of the development of the latest second generation poxvirus drugs.
Retirees confront the difficult problem of how to manage their money in retirement so as to not outlive their funds while continuing to invest in capital markets. We posit a dynamic utility maximizer who makes both asset location and allocation decisions when managing her retirement financial wealth and annuities, and we prove that she can benefit from both the equity premium and longevity insurance in her retirement portfolio. Even without bequests, she will not fully annuitize; rather, her optimal stock allocation amounts initially to more than half of her financial wealth and declines with age. Welfare gains from this strategy can amount to 40 percent of financial wealth (depending on risk parameters and other resources). In practice, it turns out that many retirees will do almost as well by purchasing a variable annuity invested 60/40 in stocks/bonds. JEL Classification: G11, G23, G22, D14, J26, H55
Background Olfactory receptors work at the interface between the chemical world of volatile molecules and the perception of scent in the brain. Their main purpose is to translate chemical space into information that can be processed by neural circuits. Assuming that these receptors have evolved to cope with this task, the analysis of their coding strategy promises to yield valuable insight in how to encode chemical information in an efficient way. Results We mimicked olfactory coding by modeling responses of primary olfactory neurons to small molecules using a large set of physicochemical molecular descriptors and artificial neural networks. We then tested these models by recording in vivo receptor neuron responses to a new set of odorants and successfully predicted the responses of five out of seven receptor neurons. Correlation coefficients ranged from 0.66 to 0.85, demonstrating the applicability of our approach for the analysis of olfactory receptor activation data. The molecular descriptors that are best-suited for response prediction vary for different receptor neurons, implying that each receptor neuron detects a different aspect of chemical space. Finally, we demonstrate that receptor responses themselves can be used as descriptors in a predictive model of neuron activation. Conclusions The chemical meaning of molecular descriptors helps understand structure-response relationships for olfactory receptors and their 'receptive fields'. Moreover, it is possible to predict receptor neuron activation from chemical structure using machine-learning techniques, although this is still complicated by a lack of training data.
Die vorliegende Arbeit befaßt sich mit einem Wandbild aus dem Jahre 1914 von Professor Dr. Wilhelm Steinhausen, das in mehrfacher Hinsicht Neugier weckt. Es ist sein letztes Werk vor dem Ersten Weltkrieg, während eines Jahres, als Frucht eines 40-jährigen Künstlerlebens, gereift, wovon der Erste und der Zweite Weltkrieg nichts haben sichtbar bleiben lassen - bis 2006, als der größere Teil an bisher unveröffentlichten Quellen zu Tage gefördert wurde, die Einblicke erlauben, wie biographische Entwicklungen im Leben eines Künstlers sowie die theologischen Inhalte seines Bildes in der kriegsideologischen Inanspruchnahme gewichen sind. Der Schwerpunkt des Themas liegt zwar auf Territorialkirchengeschichte, da das Ölbild Bestandteil der Kirchenraumausmalung der Frankfurter Lukaskirche war und der Verfasser von Haus aus Theologe ist. Maler Steinhausen war gebürtiger Jude; auch deswegen wurde sein Gemälde, obwohl Teil der teuersten deutschen Kirchenausmalung im 20. Jahrhundert, bewußt nicht vor Bombenangriffen in Sicherheit gebracht und verbrannte am 22. März 1944 mit der Lukaskirche. Die Arbeit ließe sich deshalb ebenso in der Kunst-, Zeit- und Stadtgeschichte einordnen. Mit dieser Publikation werden zum einen Bilder (in der pdf-Version nicht zugänglich), zum andern Dokumente (Briefe, Protokolle, Akten, Urkunden), die in verschiedenen Archiven gefunden und transkribiert wurden, erstmalig veröffentlicht und ausgewertet.
An application of EPR spectroscopy that is becoming increasingly important is the measurement of distances between electron spins. Several EPR methods have been developed for this purpose, all based on measuring the dipolar coupling between two spins. Due to the specific nature of the sample, we applied dipolar relaxation enhancement measurements to study the geometry of a protein-protein complex. The paramagnetic centers in question had EPR spectra that were too broad and had such short relaxation time that they could not be studied using the more straightforward PELDOR technique. EPR spectral resolution can be increased appreciably by measuring at a frequency higher than conventional X-band (9 GHz) frequency. The spectra of many paramagnetic species can only be resolved at frequencies higher than 90 GHz. For accurate measurement of the orientation of the vector between two dipolar coupled spins with respect to the g-tensors of the spins, high spectral resolution is required. We therefore performed our EPR measurements at G-band (180 GHz) frequency. Dipolar relaxation measurements were applied to study the complex that is formed by the two electron-transfer proteins cytochrome c and cytochrome c oxidase (CcO) from the soil bacterium Paracoccus denitrificans. We were able to detect dipolar relaxation enhancement due to complex formation of soluble subunit II of P.d. CcO (CcOII) with two substrate cytochromes, which was practically absent in a mixture of CcOII with the negative control protein cytochrome c1. This complex formation was characterized by a pronounced temperature dependence that could be simulated using a home-written computer program. The G-band EPR measurements could not be simulated with a single complex geometry. This provided evidence for the hypothesis that electron-transfer protein complexes are short-lived and highly dynamic; they do not seem to form one specific electron-transfer conformation, but rather move around on each other’s binding surfaces and transfer an electron as soon as the distance between donor and acceptor is short enough. As a test of our simulation program, we also applied dipolar relaxation measurements to specially synthesized organic molecules that contained a nitroxide radical and a metal center. The transverse relaxation of Cu2+-OEP-TPA was compared to the relaxation of Ni2+-OEP-TPA at temperatures between 20 and 120 K. In this temperature range, the nitroxide relaxation was enhanced due to the presence of Cu2+, but not by Ni2+. Similarly, relaxation enhancement was found in the nitroxide-Mn2+ pair in Mn2+-terpyridine-TPA with respect to the terpyridine-TPA ligand. Due to the fast T2 relaxation of the nitroxide radical at high temperatures, the measurements were all performed in the low-temperature regime where the T1 relaxation rate of the metal ion was smaller than the dipolar coupling frequency. In this region, no structural information about the molecule can be deduced, since the dipolar relaxation enhancement is only determined by the T1 of the metal ion. The dipolar relaxation measurements we performed at high field indicated a difference in relaxation times between X-band and G-band frequencies. Extensive T1 - measurements of different paramagnetic centers (CuA, Cu2+) confirmed a strong dependence of T1 on magnetic field in the temperature range where the direct process is the dominating T1 relaxation process. This dependence is very strong (factor of 103 with respect to X-band), but does not follow the B04 dependence predicted in literature. The T1 relaxation of low-spin iron in cytochrome c at high magnetic field, estimated from dipolar relaxation data, is also in agreement with a larger contribution by the direct process (factor of 104). Dipolar relaxation enhancement was found to be a technique that is useful for measuring distances between paramagnetic centers, but only for systems where several important conditions are met, such as: the system exists in one certain static geometry, and the relaxation rate of the fast-relaxing spin is faster than the dipolar coupling frequency within the accessible temperature range. Additionally, it is a great advantage for the analysis of dipolar relaxation data if the procedure of dividing the relaxation trace of the dipolar-coupled slow-relaxing spin by the relaxation trace of the slow-relaxing spin in absence of dipolar coupling can be applied. Another useful application of dipolar relaxation enhancement measurements is the measurement of T1 relaxation of extremely fast-relaxing spins, or spins that are otherwise difficult to detect.
Using a unique data set on trade credit defaults among French firms, we investigate whether and how trade credit is used to relax financial constraints. We show that firms that face idiosyncratic liquidity shocks are more likely to default on trade credit, especially when the shocks are unexpected, firms have little liquidity, are likely to be credit constrained or are close to their debt capacity. We estimate that credit constrained firms pass more than one fourth of the liquidity shocks they face on to their suppliers down the trade credit chain. The evidence is consistent with the idea that firms provide liquidity insurance to each other and that this mechanism is able to alleviate the consequences of credit constraints. In addition, we show that the chain of defaults stops when it reaches firms that are large, liquid, and have access to financial markets. This suggests that liquidity is allocated from large firms with access to outside finance to small, credit constrained firms through trade credit chains.
Public employee pension systems throughout the developed world have traditionally been of the pay-as-you-go (PAYGO) defined benefit (DB) variety, where pensioner payments are financed by taxes (contributions) levied on the working generation. But as the number of retirees rises relative to the working-age group, such systems have begun to face financial distress. This trend has been exacerbated in many countries, among them Germany, by high unemployment rates producing further deterioration of the contribution base. In the long run, public sector pension benefits will have to be cut or contributions increased, if the systems are to be maintained. An alternative path sometimes offered to ease the crunch of paying for public employee pensions is to move toward funding: here, plan assets are gradually built up, invested, and enhanced returns devoted to partly defray civil servants’ pension costs. In this study, we evaluate the impact of introducing partial prefunding, paired with a strategic investment policy for the German federal state of Hesse. The analysis assesses the impact of introducing a supplementary tax-sponsored pension fund whose contributions are invested in the capital market and used to relieve the state budget from (some) pension payments. Our model determines the expectation and the Conditional Value-at-Risk of economic pension costs using a stochastic simulation process for pension plan assets. This approach simultaneously determines the optimal contribution rate and asset allocation that controls the expected economic costs of providing the promised pensions, while at the same time controlling investment risk. Specifically, we offer answers to the following questions: 1. How can the plan be designed to control cash-flow shortfall risk, so as to mitigate the potential burden borne by future generations of taxpayers? 2. What is the optimal asset allocation for this fund as it is built up, to generate a maximum return while simultaneously restricting capital market and liability risk? 3. What are reasonable combinations of annual contribution rates and asset allocation to a state-managed pension fund, which will limit costs of providing promised public sector pensions? We anticipate that this research will interest several sorts of policymaker groups. First, focusing on the German case, the state and Federal governments should find it relevant, as these entities face considerable public sector pension liabilities. Second, our findings will also be of interest to other European countries, as most have substantial underfunded defined benefit plans for civil servants. In what follows, we first offer a brief description of the structure of civil servant pensions in Germany, focusing on their benefit formulas, their financing, and the resulting current as well as future plan obligations for taxpayers. Next, we turn to an analysis of the actuarial status of the Hesse civil servants’ pension plan and evaluate how much would have to be contributed to fund this plan in a nonstochastic context. Subsequently we evaluate the asset-liability and decision-making process from the viewpoint of the plan sponsor, to determine sensible plan asset allocation behavior. A final section summarizes findings and implications.
Das im Theiss-Verlag erschienene Buch „Grenzen des Imperiums. Leben am römischen Limes“ von Margot Klee behandelt die Regionen an den Rändern des römischen Reiches und nimmt die Bedeutung des Limes für diese Gebiete in Augenschein. Der geographische Bogen spannt sich dabei vom Hadrians- und Antoninuswall in Großbritannien über die römischen Provinzen Mittel- und Osteuropas bis nach Kleinasien, die Levante und Nordafrika. Dabei werden in jedem Kapitel nicht allein die jeweiligen archäologisch nachgewiesenen Limesanlagen, sondern auch Kastelle, Brücken und Straßen entlang der Grenze untersucht und in kurzen Abschnitten dargestellt, um so einen möglichst breitflächigen Gesamteindruck der Anlage vermitteln zu können. ...
Das Odeion des Perikles am Südabhang der Athener Akropolis – in direkter Nachbarschaft zum Dionysostheater – stellte mit seinem nahezu quadratischen Grundriss, dem pyramidalen Dach und den neun zu zehn Säulenreihen im Inneren eine architektonische Besonderheit innerhalb der Gattung der hypostylen Gebäude dar, worunter rechteckige bis quadratische Hallen zu verstehen sind, deren Dach von meist zahlreichen Säulen getragen wird1. Derlei Gebäude können geschlossen oder offen konzipiert sein. Die Athener Anlage gilt mit 68 x 62 m als größter überdachter Bau, der in der griechischen Antike fertig gestellt wurde und ist zudem das einzige in Resten überlieferte Odeion dieser Zeit (Abb. 1). Dieses Beispiel muss allerdings deutlich vom römischen odeum abgesetzt werden, denn es besitzt keinerlei Ähnlichkeit mit allen späteren Odeia, als welche spätestens ab dem 2. Jh. n. Chr. gemeinhin die überdachten Theater galten, die sich durch ansteigende Sitzreihen und eine meist halbrunde Orchestra mit Bühne auszeichneten6.Eine bauliche Übereinstimmung ist somit trotz des gleichen Terminus nicht gegeben. Über die Gestaltung des Odeion ist von Plutarch zu erfahren, dass es „im Inneren eine große Zahl von Sitzen und viele Säulen enthielt, während sich das Dach, von einer Spitze ausgehend, in ringsum gleichmäßiger Neigung herabsenkte.“ Die Umzeichnung einer Münze stellt das einzige Abbild der Anlage dar (Abb. 2). Sie ist jedoch wegen der verkürzten Darstellung für eine Rekonstruktion nur bedingt heranzuziehen. Auch ist das Münzbild aufgrund der Umzeichnung in seiner Authentizität einschränkt. So bleibt zudem offen, ob es sich bei dem die Spitze des Daches bekrönenden Aufsatz um ein Opaion, eine Öffnung zur Beleuchtung, handelt. Dass die optische Wirkung des Bauwerkes indes beträchtlich gewesen sein muss, spiegelt sich in den Worten des Pseudo-Dikaiarch, der in der Mitte des 4. Jhs. v. Chr. das Odeion als „das Schönste der Welt“ bezeichnet.
Im Folgenden sollen zwei zoomorph gestaltete Keramiken aus dem Umfeld der römischen Töpfereien von Mainz-Weisenau vorgestellt werden. Beide Stücke wurden bereits 1965 bzw. 1972 von privater Seite geborgen und stammen aufgrund der überlieferten Fundortangaben aus dem nördlichen Teil der römischen Siedlung.
Dynamische Aspekte im Kaufverhalten : die Determinanten von Kaufzeitpunkt, Marken- und Mengenwahl
(2007)
Die vorliegende Arbeit untersucht das Wahlverhalten von Konsumenten in differenzierten Produktkategorien des Konsumgütermarktes. Ausgangspunkt ist die Beobachtung, dass ein Marketing-Mix nicht nur die aktuellen Reaktionen der Konsumenten, sondern auch die resultierenden Konsequenzen für die Zukunft berücksichtigen muss. So führen insbesondere Preispromotions, welche den größten Anteil des Marketing-Budgets bei Konsumgütern in Anspruch nehmen, oft lediglich zu einer Vorverlagerung der Käufe statt zu einem Mehrabsatz durch Markenwechsel und sind daher durchaus kritisch zu bewerten. Anhand von Haushaltspaneldaten zweier Produktkategorien wird der Einfluss dynamischer Aspekte im Rahmen der Konsumentenentscheidungen hinsichtlich Kaufzeitpunkt, Marken- und Mengenwahl untersucht. Auf Grund kontroverser Diskussionen in der Marketing-Forschung bezüglich der korrekten Modellierung der drei Entscheidungen, steht diese neben der expliziten Spezifikation der Dynamiken im Fokus der Betrachtungen. Die empirischen Analysen sowie die anschließenden Simulationen von Marktszenarien zeigen zunächst die Überlegenheit einer getrennten gegenüber einer gemeinsamen Nutzenfunktion bei der Modellierung der drei Entscheidungen auf. Des Weiteren findet sich in einer Produktkategorie die Abhängigkeit der Preissensitivität der Konsumenten von der in der Vergangenheit beobachteten Häufigkeit von Preispromotions. Die Preissensitivität in der Mengenwahl ist dabei von dieser Häufigkeit wesentlich stärker betroffen als die der Markenwahl, was als Erklärungsansatz für die empirisch beobachtete Vorverlagerung von Käufen gewertet werden kann.
Die vorliegende Arbeit verdeutlicht für das Handlungsfeld „Ethnomarketing in Deutschland“, wie ethnische Grenzen gezogen werden. Sein Ausgangspunkt ist der gesellschaftliche Diskurs über das Deutschsein und seine Gegenstücke: das Türkische, Russische, Orientalische, Südländische usw.. Im Niemandsland zwischen Fremdem und Eigenem führen die Akteure des Ethnomarketings ihr eigenes Spiel mit der Ethnizität auf, indem sie sich die kursierenden ethnischen Zuschreibungen zu nutze machen. Sie übernehmen selektiv die im Diskurs vorgefundenen ethnischen Konstruktionen eines „kollektiven Gedächtnisses“ in der Gesellschaft über sich selbst und „die Anderen“, modifizieren diese Konstruktionen in ihrem Marketing entsprechend eigener Vorstellungen und Interessen, verstärken ihre Wirkung durch Ausstrahlung in den Medien und greifen so selbst ein in den machtbasierten gesellschaftlichen Prozess ethnischer Rollenzuweisung und Anerkennung. Die Gestaltung des eigenen Marketings zwingt die Akteure, sich auf eindeutige Werbebilder festzulegen, und ihre Präsenz in der Öffentlichkeit nötigt sie, sich und ihr ethnisches Marketing zu erklären. Sie offenbaren dadurch ihre Persönlichkeiten, Interessen, Vorstellungen, Fähigkeiten, Rollenverständnisse und Strategien – nicht jedoch das vermeintliche „Wesen“ ethnischer Zielgruppen, die sie adäquat zu bewerben glauben. Wie aus einleitender Definition hervorgeht, ist für Ethnomarketing ein Umfeld ethnischer Divergenz notwendig, um bestehen und funktionieren zu können. Es sind die fortwährenden Debatten in Deutschland über Ausländer, Asylanten, deutsche Werte, Einbürgerung, Fundamentalismus usw., in welchen entlang vermeintlich realer Kriterien wie Herkunft, Mentalität, Religion, Aussehen, Sprache usw. die soziale Realität ethnischer Gruppen (re-)konstruiert und ihnen stigmatisierend Eigenschaften zugeschrieben werden. Am vorläufigen Ende dieses Prozesses stehen Einbürgerungstests, mit welchen das „Deutsche“ vom „Undeutschen“ getrennt und bewahrt werden soll, die jedoch lediglich den Glauben ihrer Urheber demonstrieren, dies sei möglich. Als Gegenpol zum „guten“ Deutschen hat der Diskurs eine Chimäre aus zahlreichen, zumeist abwertenden Zuschreibungen für das Östliche, Südländische, Orientalische, Islamische usw. hervorgebracht, die im Türkischen oft einen Platzhalter findet: „Der Türke“ ist für viele Menschen zum Bild vom „unliebsamen“ Ausländer generell geworden. Vor diesem gesellschaftlichen Hintergrund ist Ethnomarketing erfolgreich, wenn es gelingt, den „verletzten Seelen“ die ethnische Wertschätzung zu geben, die sie sich von der „deutschen“ Gesellschaft vergeblich wünschen. Ethnomarketing kompensiert jedoch nicht nur das Gefühl mangelnder ethnischer Akzeptanz, das viele ethnisch stigmatisierte Rezipienten empfinden, sondern ist auch ein Mikrokosmos, in welchem die gleichen Prozesse der Konstruktion und Instrumentalisierung von Ethnizität wirksam sind wie in der umschließenden Gesellschaft. ....
Die Kernidee der kommunalen Kriminalprävention – die Sicherheitsgewährleistung auf der örtlichen Ebene – ist in den letzten Jahren in den Mittelpunkt sicherheitspolitischer Debatten gerückt. Schlüsselkonzepte wie Gemeinschaftlichkeit, Vernetzung und Bürgernähe gewinnen in den Kommunen zunehmend an Relevanz und münden in die Etablierung lokaler ressortübergreifender Zusammenschlüsse zur Kriminalitätsverhütung. Unter der Bezeichnung „Kriminalpräventionsräte“ versammeln sich allerdings sehr unterschiedliche inhaltliche und strategische Konzepte sowie eine Vielzahl lokaler Institutionalisierungsformen. Eine systematische Bestandaufnahme und Gegenüberstellung hat bislang nicht stattgefunden. Hinzu kommt, dass die Verbreitung lokaler Präventionsgremien in Deutschland von anhaltender Kritik begleitet wird: Auf Tagungen zur kommunalen Kriminalprävention werden z. B. immer wieder unzureichende Handlungsbefugnis, mangelnde Einbindung der Bürger/innen oder die große Bandbreite an Maßnahmen der Präventionsarbeit bemängelt, die letztlich zu einer Aushöhlung des Konzepts führten. Die Beobachtungen waren Anlass für die vorliegende Studie. In den zahlreichen Gesprächen mit Akteuren aus dem Bereich der kommunalen Kriminalprävention hat sich abgezeichnet, dass das Feld lokaler Präventionsarbeit nicht systematisch erfasst ist. Es gibt bislang keine Studie, die einen deutschlandweiten Überblick über die Verteilung der Gremien, die unterschiedlichen Organisationsformen, die beteiligten Akteure und die Projektarbeit liefert. Vor diesem Hintergrund erschien es notwendig, die Gremien deutschlandweit zu erheben und das Feld lokaler Präventionsarbeit zu strukturieren. Zu diesem Zweck werden im Folgenden die lokalen Netzwerke in vier thematischen Blöcken untersucht: • Präventionslandschaft: Wie verteilen sich die Gremien in Deutschland und in welchen Bundesländern sind lokale Präventionsnetzwerke besonders verbreitet? • Organisation: Wie sind die Präventionsgremien intern strukturiert und lokal ausgerichtet? • Vernetzung: Welche lokalen Institutionen arbeiten in den Gremien zusammen? Inwieweit sind die Bürger in die Präventionsarbeit einbezogen? • Projektarbeit: In welchen Bereichen sind die Gremien aktiv und welche Projekte werden durchgeführt? An welchen Zielen orientiert sich die Projektarbeit? Die vorliegende Studie ist die erste deutschlandweite Online-Befragung unter lokalen Präventionsgremien. An ihr haben sich über 250 Gremien beteiligt. Ihnen gilt besonderer Dank, sowie dem Deutschen Forum Kriminalprävention (DFK), dem Europäischen Zentrum für Kriminalprävention (EZK) und dem Leibniz-Institut für Länderkunde (IfL) für die Unterstützung bei der Umfrage.
Scholars of institutional design attribute large importance to the choice of new institutions. The comparative analysis of how Rwanda and Zambia crafted their new electoral systems and the systems of government regards procedural, structural and rational choice variables which may influence the option for particular solutions. External influences and the type of transition are determinants that can decide which actors make their interests prevail. The degree of innovation or conservatism of new institutions is mainly a result of the speed of the process and the kind of actors involved. However, rational reflections on how to produce legitimacy and minimize personal risks which take into consideration the state of conflict in the country decide on the speed and on innovative outcomes. The structured analysis of only two cases uncovers already that it is rather difficult to realise the transfer of design recommendations into reality.
Starting from controversial findings about the relationship between party systems and the prospects of democratic consolidation, this article argues that problems can only be properly addressed on the basis of a differentiated typology of party systems. Contradictory research results do not pose an ‘African puzzle’ but can be explained by different and inadequate approaches. We argue that a modified version of Sartori's typology of party systems provides an appropriate method for classifying African party systems. Based on Sartori's framework, a preponderance of predominant and dominant party systems is identified. This can partly be explained by the prevailing authoritarian nature of many multiparty regimes in Africa as well as by the ethnic plurality of African societies. High ethnic fragmentation is not transformed into highly fragmented party systems. This phenomenon can be attributed to the most frequent ‘ethnic congress party’ which is based on an ethnic elite coalition.
This paper focuses on dynamic interactions of equity prices among theoretically related assets. We explore the existence of intraday non-linearities in the FTSE 100 cash and futures indices. We test whether the introduction of the electronic trading systems in the London Stock Exchange in 1997 and in the London International Financial Futures and Options Exchange (LIFFE) in 1999 has eliminated the non-linear dynamic relationship in the FTSE 100 markets. We show that the introduction of the electronic trading systems in the FTSE 100 markets has increased the efficiency of the markets by enhancing the price discovery process, namely by facilitating the increase of the speed of adjustment of the futures and cash prices to departures of the mispricing error from its non-arbitrage band. Nevertheless, we conclude that the automation of the markets has not completely eliminated the non-linear properties of the FTSE 100 cash and futures return series. JEL Classification: G12, G14, G15
Exchanges in Europe are in a process of consolidation. After the failure of the proposed merger between Deutsche Börse and Euronext, these two groups are likely to become the nuclei for further mergers and co-operation with currently independent exchanges. A decision for one of the groups entails a decision for the respective trading platform. Against that background we evaluate the attractiveness of the two dominant continental European trading systems. Though both are anonymous electronic limit order books, there are important differences in the trading protocols. We use a matched-sample approach to compare execution costs in Euronext Paris and Xetra. We find that both quoted and effective spreads are lower in Xetra. When decomposing the spread we find no systematic differences in the adverse selection component. Realized spreads, on the other hand, are significantly higher in Euronext. Neither differences in the number of liquidity provision agreements nor differences in the minimum tick size or in the degree of domestic competition for order flow explain the different spread levels. We thus conclude that Xetra is the more efficient trading system. JEL Classification: G10, G15
The European Central Bank has assigned a special role to money in its two pillar strategy and has received much criticism for this decision. The case against including money in the central bank’s interest rate rule is based on a standard model of the monetary transmission process that underlies many contributions to research on monetary policy in the last two decades. In this paper, we develop a justification for including money in the interest rate rule by allowing for imperfect knowledge regarding unobservables such as potential output and equilibrium interest rates. We formulate a novel characterization of ECB-style monetary cross-checking and show that it can generate substantial stabilization benefits in the event of persistent policy misperceptions regarding potential output. JEL Classification: E32, E41, E43, E52, E58
The European Central Bank has assigned a special role to money in its two pillar strategy and has received much criticism for this decision. In this paper, we explore possible justifications. The case against including money in the central bank’s interest rate rule is based on a standard model of the monetary transmission process that underlies many contributions to research on monetary policy in the last two decades. Of course, if one allows for a direct effect of money on output or inflation as in the empirical “two-pillar” Phillips curves estimated in some recent contributions, it would be optimal to include a measure of (long-run) money growth in the rule. In this paper, we develop a justification for including money in the interest rate rule by allowing for imperfect knowledge regarding unobservables such as potential output and equilibrium interest rates. We formulate a novel characterization of ECB-style monetary cross-checking and show that it can generate substantial stabilization benefits in the event of persistent policy misperceptions regarding potential output. Such misperceptions cause a bias in policy setting. We find that cross-checking and changing interest rates in response to sustained deviations of long-run money growth helps the central bank to overcome this bias. Our argument in favor of ECB-style cross-checking does not require direct effects of money on output or inflation. JEL Classification: E32, E41, E43, E52, E58
Die Richtlinie vom 6. September 2006 zur Änderung der Kapitalrichtlinie soll den Mitgliedstaaten erlauben, das bislang geltende Kapitalschutzregime in verschiedenen Bereichen zu liberalisieren. Größerer Freiraum kann danach den betroffenen Unternehmen unter anderem für einen Erwerb eigener Aktien eingeräumt werden. Der nachfolgende Beitrag geht der Frage nach, welcher Gestaltungsspielraum den Mitgliedstaaten bei der Umsetzung der insoweit maßgeblichen Bestimmungen zusteht und welcher Anpassungsbedarf sich für das deutsche Recht ergibt.
Der vorstehende Beitrag hat untersucht, ob die Praxis, „defensive bids“ in Staatsanleiheauktionen abzugeben oder die Veröffentlichung einer künstlich erhöhten „Bid to Cover-Ratio“ durch die Emittenten von Staatsanleihen sowie ihre „Primary Dealers“ eine verbotene Marktmanipulation im Sinne des § 20 a WpHG darstellen. Das rechtspolitisch wenig überzeugende Ergebnis ist, dass der Emittent und Auslöser dieser Vorgänge – mangels Anwendbarkeit der Norm – nicht gegen das Verbot des § 20 a WpHG verstößt, die privatrechtlich organisierten „Primary Dealers“ – durch die Veröffentlichung der Kennzahl – hingegen durchaus. Inwiefern das aufgezeigte und als Marktmanipulation erkannte Verhalten strafrechtlich sanktioniert werden kann, soll hier nicht erörtert werden, hängt es doch sehr stark vom jeweiligen Einzelfall ab. Der Reputationsschaden, der aus dem Vorwurf der Marktmanipulation entsteht, ist indes nicht zu unterschätzen. Vielleicht gelingt es den „Primary Dealers“ aber gerade deswegen, unter Hinweis auf § 20 a WpHG die Finanzagenturen der Emittenten davon abzuhalten, „defensive bids“ von ihnen einzufordern. Insbesondere der gemeinschaftsrechtliche Hintergrund des Verbots der Marktmanipulation und das Streben nach einem Gleichlauf der Aufsichtspraxis für Marktmanipulationen legen es nahe, dass sich die Aufsichtsbehörden der entsprechenden Emittenten genauer mit den Vorgängen um die Staatsanleiheauktionen befassen. Schließlich besteht auch in Frankreich ein Verbot der Marktmanipulation in Form der Art. L. 465-2 Code monétaire et financier i.V.m. Art. 631-1 Règlement général de l’autorité des marchés financiers (AMF). Darüber hinaus stehen die Anforderungen der Richtlinie über Märkte für Finanzinstrumente (MiFiD) zur „best practice“ und dem Transparenzgebot zum Schutz der Anleger im Widerspruch zu dem geschilderten Verhalten. Vor diesem Hintergrund sollten weder „defensive bids“ eingefordert noch abgegeben werden. Damit wäre nicht nur den „Primary Dealers“, sondern vor allem dem Markt für Staatsanleihen und den Anlegern gedient.
Unerwartete Geschäftszahlen und die daraus resultierende Notwendigkeit der Anpassung von Ergebnisprognosen zeigen sich bereits bei der Vorbereitung der Regelberichterstattung. Damit stellt sich für die Unternehmensleitung die Frage, ob sie solche Insiderinformationen adhoc publizieren muss oder ob sie die Veröffentlichung aufschieben und bis zu dem für die Regelberichterstattung vorgesehenen Termin zuwarten darf. ... Zusammenfassung Ergeben sich bei den Vorbereitungen für die Regelberichterstattung Abweichungen von den Erwartungen an die Geschäftszahlen, die im Falle ihres Bekanntwerdens erheblichen Einfluss auf den Kurs von Insiderpapieren haben können, kann sich der Vorstand des Emittenten vor die Frage gestellt sehen, ob er die Ad-hoc-Veröffentlichung dieser Insiderinformation bis zu dem Zeitpunkt aufschieben darf, der im Finanzkalender für die Regelberichterstattung vorgesehen ist. Jedenfalls dann, wenn der Termin für diese Berichterstattung unmittelbar bevorsteht, überwiegt das Interesse des Emittenten an einem solchen Aufschub regelmäßig das Interesse des Kapitalmarkts an sofortiger Veröffentlichung. Das gilt auch dann, wenn aufgrund der Geschäftszahlen Ergebnisprognosen angepasst werden müssen. Sofern nicht ausnahmsweise eine Irreführung der Öffentlichkeit zu befürchten ist oder Bedenken hinsichtlich der Gewährleistung der Vertraulichkeit der Insiderinformation bestehen, ist der Emittent daher nach § 15 Abs. 3 WpHG bis zu dem für die Regelberichterstattung angekündigten Zeitpunkt von der Pflicht zur Veröffentlichung befreit.
This paper will sketch out some of the developments in European company law as seen from the current moment, which might be referred to as post- 2003 Action Plan, and from my purely personal viewpoint. I will thus restrict myself to presenting the current and expected legislative projects of the EU, with particular focus on the plans and activities of the Commission, and for the moment bracket out both a number of important and interesting decisions of the European Court of Justice and the debates among European legal scholars.
Die vorliegende Arbeit behandelt die Entwicklung und Überprüfung von Modellen zur Berechnung von Schwingungspektren von Peptiden und Proteinen. Solche Modelle verbinden die Konformationsstruktur eines Moleküls mit seinen Schwingungseigenschaften und sind demzufolge wichtig für die Interpretation der Schwingungspektren. Die im Rahmen dieser Arbeit durchgeführte theoretische Erforschung dieses Gebietes beschränkt sich auf die Betrachtung der Amide-I-Moden, welche aufgrund ihrer physikalischen Eigenschaften sich zur Untersuchung der Peptidkonformationen eignen. Die Arbeit kann prinzipiell in zwei Teile separiert werden. In dem ersten Teil werden Fragen betrachtet, die mit der Entwicklung des Schwingungshamiltonian verbunden sind. Im zweiten Teil wurden die erhaltenen Hamiltonian für die Berechnung der Schwingungspektren verwendet. Bei der Berechnung der Schwingungspektren wurden verschiedene spektroskopische Näherungen verwendet und erforscht. Die Entwicklung des Schwingungshamiltonian beinhaltet zwei Aufgaben. Die ab initio Parametrisierung des Schwingungshamiltonian von Dipeptiden, sowie die Analyse der Entwicklungsmethoden für Schwingungshamiltonian von Polypeptiden. Die Entwicklungsmethoden stützen sich auf ab initio berecheten Schwingungseigenschaften von Dipeptiden und/oder elektrostatische Modelle. Die ab initio Parametrisierung basiert auf einer Geometrieoptimierung und anschließender Berechnung von Normalmoden. Hierbei wurde die Abhängigkeit der Ergebnisse vom theoretischen Niveau und dem verwendeten Basissatz untersucht. Die Transformation der errechneten Normalmoden lieferte die Schwingungseigenschaften der lokale Amide-I-Mode. Die Lokalisierung der Normalmode folgt diversen Kriterien. Sie ist von der Wahl der Lokalmoden und somit implizit auch von der Art der Geometrieoptimierung abhängig. Mit dieser Arbeit konnte die Abhängigkeit der Ergebnisse von der Parameterwahl weitgehend aufgeklärt und eine für das Amide-I-System geeignet Parametrisierung gefunden werden. Im nächsten Arbeitsschritt wurde die Abhängigkeit der Amide-I-Schwingungseigenschaften von den Peptidseitenketten und terminalen Gruppen untersucht. Desweiteren wurden Methoden zur Formulierung der Hamiltonian für Polypeptide konzeptionell entwickelt. Diese Untersuchung ist außerordentlich wichtig, da direkte quantenmechanische Berechnungen von Polypeptiden zu zeitaufwendig sind. Solche Methoden beruhen auf dem sogenannten “Building-Block”-Ansatz und verschiedenen elektrostatischen Modellen. In dieser Arbeit wurden sowohl die einzelnen Methoden als auch ihre Kombination für die Entwicklung des Hamiltonians verwendet. Zur Abschätzung der Genauigkeit der verwendeten Methoden wurden Vergleichsrechnungen durchgeführt. Im zweiten Teil dieser Arbeit wurden die erhaltenen Schwingungshamiltonian zur Berechnung von Schwingungsspektren diverser gelöster Peptide angewandt. In diesem Zusammenhang konnte die Genauigkeit unterschiedlicher spektroskopischer Approximationen überprüft werden. Auf Grundlage der erhaltenen Ergebnisse können wir sagen, dass eine angemessene Beschreibung der konformationellen Verteilung und eine korrekte Berechnung des dynamischen Absorptionsspektrum gewährleistet ist. Was noch fehlt, ist ein hinreichend genaues quantenchemisches Modell für die Schwingungsfrequenzen eines gelösten Peptids. Diese Aufgabe stellt zur Zeit ein aktives Forschungsgebiet dar. Zuletzt wurde das Schwingungsspektrum eines sogenanten “Photoschaltbaren”-Peptids simuliert. Mit Hilfe des dafür aufgestellten Hamiltonians ist man in der Lage spektroskopische Beobachtungen auf Konformationsänderungen direkt zu übertragen.
The development of novel drugs targeting GPCRs is of particular interest since modulation of subfamilies of this receptor class highly influences neurotransmission in the central nervous system. This study has focused on the development of ligands for the dopamine D3 receptor. The receptor belongs to the dopamine D2-like family among the biogenic amine binding GPCRs. The dopamine D3 receptor is involved in neurological and neuropsychiatric disorders such as Parkinson’s disease, schizophrenia and drug addiction. Due to its close structural similarity to the dopamine D2 receptor subtype, it is still a challenge to identify and further optimize new leads. Therefore an in vitro screening assay, which also allows elucidating comprehensive structure-affinity relationships, is required. In this investigation the implementation and evaluation of radioligand binding assays for human dopamine D2S and dopamine D3 receptors and for the related aminergic human histamine H1 receptor stably expressed in Chinese hamster ovary (CHO) cells has been performed. Saturation binding experiments with [³H]spiperone at dopamine D2S and D3 receptors and with [³H]mepyramine at histamine H1 receptors were carried out. The determined equilibrium dissociation constant of radioligands (Kd) and the total number of specific binding sites (Bmax) of the receptor membrane preparations were in good agreement with reference data. Inhibition constants (Ki) of reference ligands obtained in radioligand competition binding experiments at dopamine hD2S, hD3 and histamine H1 receptors validated the reliability and reproducibility of the assay. In order to discriminate agonists from antagonists, a GTP shift assay has been investigated for dopamine D2S and D3 receptors. In competition binding studies at dopamine D2S receptors the high- and low affinity state in the absence of the GTP analogue Gpp(NH)p has been recognized for the agonists pramipexole and the seleno analogue 54. In the presence of Gpp(NH)p a decrease in affinity, referred to as “GTP shift”, has been revealed for agonists at dopamine D2S and D3 receptors. An effect of Gpp(NH)p on dopamine D2S receptor binding has not been observed for the antagonists ST 198 and BP 897, while a reverse “GTP shift” has been noticed at the dopamine D3 receptor. For the development of novel ligands with high affinity and selectivity for dopamine D3 receptors, investigation in refined structure-affinity relationships (SAR) of analogues of the lead BP 897 has been performed. Replacement of the naphthalen-2-carboxamide of BP 897 by aryl amide residues (1 - 4) had a clear influence on affinity binding and selectivity for dopamine D3 receptors. Introduction of the benzo[b]thiophen-2-carboxamide (1) has markedly improved binding with subnanomolar affinity and enhanced selectivity for dopamine D3 receptors. Exchanging the aryl substituted basic alkanamine residue of 1 by a 1,2,3,4-tetrahydroisoquinoline moiety (6) emphasized the benefit of the 4-(2-methoxyphenyl) piperazine residue of BP 897 regarding dopamine D2 and D3 receptor affinities. The change of particular elements of BP 897 and the rearrangement of the amide functionality resulted in inverse amide compounds with new chemical properties. Moderate affinity binding data, as obtained for the isoindol-1-carbonyl compound 11, suggest that inverse amides provide a worthwhile new lead structure with a novel structural scaffold. A hybrid approach combining privileged scaffolds of histamine H1 receptor antagonists and fragments of dopamine D3 receptor-preferring ligands, related to BP 897and analogues has been investigated. Various benzhydrylpiperazine derivatives and related structures have shown moderate to high affinities for dopamine D3 receptors with the impressive enhancement of the cinnamide substituted bamipine-related hybrid 39, exhibiting the highest affinity and selectivity for dopamine D3 receptors. Improved affinity profiles of structural modified histamine H1 receptor antagonists for dopamine D2 and D3 receptors and a refined SAR has been achieved. A SAR of derivatives of the dopamine agonist pramipexole and the related etrabamine has been studied. The propargyl substituted etrabamine derivative 61 demonstrated highest affinity and selectivity. The ligand attracts attention since neuroprotective properties have been reported for the propargyl functionality. Further development resulted in the most promising compound 64, a cinnamide derivative with 4-fluoro substitution on the phenyl ring. Subnanomolar affinity and remarkable selectivity for dopamine D3 receptors has aroused particular interest in this ligand due to its development potential as a radioligand for PET studies. Radioligand binding studies in combination with virtual screening and different classification techniques of chemoinformatic methods resulted in further elucidation of SAR. New leads with novel chemical scaffolds have been found in the bicycle[2.2.1]heptane derivative 95 and the benzhydrylidene substituted pyrrolidindione 112 and can be further optimized by chemical modifications. The outcome of the studies provides the development of various novel high affine and dopamine D3 receptor selective ligands. Modifications of lead structures or application of chemoinformatic tools in combination with radioligand competition binding assays have resulted in new leads with different chemical scaffolds. Furthermore, a comprehensive insight into structure-affinity relationships of ligands at dopamine D3 receptors has been revealed. This refined SAR is valuable to develop more affine and selective drug candidates with a designed pharmacological receptor profile.
We propose a new approach to measuring the effect of unobservable private information or beliefs on volatility. Using high-frequency intraday data, we estimate the volatility effect of a well identified shock on the volatility of the stock returns of large European banks as a function of the quality of available public information about the banks. We hypothesise that, as the publicly available information becomes stale, volatility effects and its persistence should increase, as the private information (beliefs) of investors becomes more important. We find strong support for this idea in the data. We argue that the results have implications for debate surrounding the opacity of banks and the transparency requirements that may be imposed on banks under Pillar III of the New Basel Accord.
This paper traces the location of foreign banks in Germany from 1949 to 2006. As suggested by new economic geography models we find a ‘u’-shaped concentration of foreign banks in Germany. Only after a competition between several cities, Frankfurt has emerged as the pre-eminent financial centre, triggered by the ‘historical event’ of setting up the German central bank in Frankfurt. After a strong increase, Frankfurt’s share in the location of foreign banks in Germany decreases slowly but significantly since the mid 1980’s. We conclude that there will be a lesser role in Europe for secondtier financial centres in the future.
Many tax-codes around the world allow for special taxable treatment of savings in retirement accounts. In particular, profits in retirement accounts are usually tax exempt which allow investors to increase an asset’s return by holding it in such a retirement account. While the existing literature on asset location shows that risk-free bonds are usually the preferred asset to hold in a retirement account, we explain how the tax exemption of profits in retirement accounts affects private investors’ asset allocation. We show that total final wealth can be decomposed into what the investor would have earned in a taxable account and what is due to the tax exemption of profits in the retirement account. The tax exemption of profits can thus be considered a tax-gift which is similar to an implicit bond holding. As this tax-gift’s impact on total final wealth decreases over time, so does the investor’s equity exposure.
This paper analyses cross-border contagion in a sample of European banks from January 1994 to January 2003. We use a multinomial logit model to estimate the number of banks in a given country that experience a large shock on the same day (“coexceedances”) as a function of variables measuring common shocks and coexceedances in other countries. Large shocks are measured by the bottom 95th percentile of the distribution of the first difference in the daily distance to default of the bank. We find evidence in favour of significant cross-border contagion. We also find some evidence that since the introduction of the euro cross-border contagion may have increased. The results seem to be very robust to changes in the specification.
We compute the optimal dynamic asset allocation policy for a retiree with Epstein-Zin utility. The retiree can decide how much he consumes and how much he invests in stocks, bonds, and annuities. Pricing the annuities we account for asymmetric mortality beliefs and administration expenses. We show that the retiree does not purchase annuities only once but rather several times during retirement (gradual annuitization). We analyze the case in which the retiree is restricted to buy annuities only once and has to perform a (complete or partial) switching strategy. This restriction reduces both the utility and the demand for annuities.
Germanistik im Netz - das Fachportal zur deutschen Sprach- und Literaturwissenschaft - ist seit Juni 2006 online. Germanistik im Netz richtet sich vorrangig an Germanistinnen und Germanisten in Forschung und Lehre und ermöglicht eine übergreifende Suche nach ausgewählten digitalen und konventionellen Medien sowie nach weiteren fachrelevanten Informationen. Beteiligt waren bei Projektstart Ende 2004 vier Partner: Die Universitätsbibliothek Frankfurt/Main (SSG-Bibliothek für Germanistik), das Deutsche Literaturarchiv Marbach, der Deutsche Germanistenverband sowie die Initiativgruppe Fachportal Germanistik, im Juni 2005 stieß die Mailingliste H-Germanistik hinzu, in Förderphase II verstärken u.a. die Anna Amalia Bibliothek Weimar und die Herzog August Bibliothek Wolfenbüttel das Projektkonsortium.
Worum geht es in dieser Arbeit? Dies ist eine Arbeit über Websites. Darüber, wie sie gelesen und geschrieben werden und wie man das lernen kann. Da es in dieser Arbeit um Lesen, Schreiben und Lernen geht, fließen in sie sowohl Aspekte der Sprachwissenschaft als auch der Sprachdidaktik ein. Was will diese Arbeit? Diese Arbeit hat zwei Ziele, ein sprachwissenschaftliches und ein sprachdidaktisches. In sprachwissenschaftlicher Hinsicht sollen, auf der Grundlage einer gründlichen Analyse seiner Eigenschaften, die Besonderheiten des Lesens und Schreibens im World Wide Web herausgearbeitet werden. Aufbauend auf dieser Analyse sollen im sprachdidaktischen Teil der Arbeit die Kompetenzen ermittelt und in Beziehung zueinander gesetzt werden, die zur Erstellung von Websites notwendig sind. Das so entstehende Kompetenzmodell bildet die Basis für eine zielgerichtete, effektive und evaluierbare Umsetzung der Gestaltung von Websites in der Schule und die Grundlage für weiterführende empirische Arbeiten. Wie ist die Arbeit aufgebaut? Im ersten Kapitel der Arbeit wird die Entwicklung der technischen und strukturellen Formate geschildert, welche die Grundlage des Websiteformats bilden. Darauf aufbauend werden seine wichtigsten Eigenschaften beschrieben. Im zweiten Kapitel wird das Websiteformat von anderen kommunikativen Formaten abgegrenzt und mit Hilfe der besonderen Charakteristika, die es besitzt, sein überwältigender Erfolg erklärt. Im dritten Kapitel wird unter Rückgriff auf Ergebnisse der Leseforschung und empirische Untersuchungen zum Lesen im World Wide Web erarbeitet, welchen Einfluss das Websiteformat auf das Lesen von Texten hat und welche Unterschiede es zum Lesen von Texten in anderen kommunikativen Formaten gibt. Auf dieser Grundlage wird ein Bewertungs- und Analyseraster für die Lesbarkeit von Texten im Websiteformat entwickelt. Im vierten Kapitel wird auf der Grundlage verschiedener Modelle des Schreibprozesses dargestellt, was das Schreiben für das Websiteformat vom Schreiben für andere Formate unterscheidet, was dabei besonders beachtet werden muss und welche Entwicklungen für die Zukunft zu erwarten sind. Dabei werden, unter Berücksichtigung des in Kapitel drei erarbeiteten Bewertungs- und Analyserasters, Hinweise für eine sinnvolle Vorgehensweise bei der Gestaltung von Websites gegeben. Im fünften Kapitel wird vor dem Hintergrund der aktuellen bildungspolitischen Diskussion ein Kompetenzmodell für die Gestaltung von Websites entwickelt, das als Basis für die Festlegung von Bildungsstandards und die Beschreibung der Rahmenbedingungen dient, unter denen diese in der Schule verwirklicht werden können. In einer abschließenden Diskussion werden die wichtigsten Ergebnisse nochmals herausgearbeitet und es wird auf Perspektiven für zukünftige sprachwissenschaftliche und sprachdidaktische Forschungsvorhaben hingewiesen.