Refine
Year of publication
- 2007 (1960) (remove)
Document Type
- Article (786)
- Doctoral Thesis (313)
- Part of Periodical (245)
- Part of a Book (119)
- Book (111)
- Review (102)
- Working Paper (99)
- Conference Proceeding (58)
- Report (43)
- Diploma Thesis (16)
Language
- German (1231)
- English (587)
- Croatian (42)
- Portuguese (38)
- French (18)
- mis (9)
- Italian (7)
- Multiple languages (5)
- Yiddish (5)
- dut (3)
Keywords
- Deutsch (38)
- Kroatisch (37)
- Film (21)
- Literatur (19)
- Brasilien (18)
- Rezensionen (17)
- Deutschland (15)
- Bibliographie (14)
- Johann Wolfgang von Goethe (14)
- Literaturwissenschaft (11)
Institute
- Medizin (196)
- Extern (120)
- Biowissenschaften (78)
- Biochemie und Chemie (76)
- Physik (62)
- Rechtswissenschaft (45)
- Gesellschaftswissenschaften (41)
- Präsidium (41)
- Wirtschaftswissenschaften (40)
- Geschichtswissenschaften (35)
Background: West Nile virus (WNV) infection can cause severe meningitis and encephalitis in humans. Apoptosis was recently shown to contribute to the pathogenesis of WNV encephalitis. Here, we used WNV-infected glioma cells to study WNV-replication and WNV-induced apoptosis in human brain-derived cells. Results: T98G cells are highly permissive for lytic WNV-infection as demonstrated by the production of infectious virus titre and the development of a characteristic cytopathic effect. WNV replication decreased cell viability and induced apoptosis as indicated by the activation of the effector caspase-3, the initiator caspases-8 and -9, poly(ADP-ribose)polymerase (PARP) cleavage and the release of cytochrome c from the mitochondria. Truncation of BID indicated cross-talk between the extrinsic and intrinsic apoptotic pathways. Inhibition of the caspases-8 or -9 inhibited PARP cleavage, demonstrating that both caspases are involved in WNV-induced apoptosis. Pancaspase inhibition prevented WNV-induced apoptosis without affecting virus replication. Conclusions: We found that WNV infection induces cell death in the brain-derived tumour cell line T98G by apoptosis under involvement of constituents of the extrinsic as well as the intrinsic apoptotic pathways. Our results illuminate the molecular mechanism of WNV-induced neural cell death.
Unser die Welt : sprachphilosophische Grundlegungen der Erkenntnistheorie ; ausgewählte Artikel
(2007)
Die Weiterentwicklung der Gedanken, die Wilhelm K. Essler 1972 in seinem Buch "Analytische Philosophie I" vorgetragen hat, ist bislang nur in Artikeln erfolgt. Die hier vorgelegte Auswahl hat das Ziel, den Kern seines Philosophierens, nach Sachgebieten geordnet, darzustellen. Im Zentrum seines Philosophierens steht die Untersuchung des Reflektierens, genauer: des philosophischen Reflektierens, anhand semantischer und epistemologischer Beispiele. Er orientiert sich dabei nicht an der Untersuchung vorhandener Erkenntnisakte, die oft schwer faßbar und noch schwerer eindeutig bestimmbar sind, sondern an deren rationaler Rekonstruktion in Modellen, gemäß dem Vorgehen in experimentellen Wissenschaften, und das besagt in der Philosophie natürlich: in Modellsprachen. Dieses Vorgehen hat den Vorteil, daß unter Einsatz des Instrumentariums der modernen Logik und ihrer Metalogik definitive Ergebnisse erzielt werden können, aufbauend auf den metalogischen Resultaten Gödels und Tarskis. In der Weiterführung der Ergebnisse von Gödel und Tarski wird gezeigt, daß die methodologische Unterscheidung von Erwähnen und Verwenden genau dem Vorgehen des semantischen Reflektierens gemäß der Sprachstufentheorie Tarskis entspricht und daß diese daher das geeignete Instrument zur Darstellung des epistemologischen Reflektierens und damit auch der erfahrungswissenschaftlichen Semantik ist. Anhand solcher präziser Sprachmodelle wird die Voraussetzungshaftigkeit allen sprachgebundenen Erkennens jeweils am Beispiel nachgewiesen. Macht man eben dieses Reflektieren zum neuen Gegenstand des untersuchenden Reflektierens, so benötigt man hierzu, will man die zuvor benützte Sprache des Reflektierens nun vollständig darstellen, abermals zusätzliche, in ihr noch nicht ausdrückbare Mittel des Reflektierens, und so fort ohne Ende. Dabei zeigt sich, daß dieses "und so fort ohne Ende" zum Problem der Grenze des Sagbaren gehört, und damit a fortiori zu den Grenzen des Philosophierens. Wie bei Platon wird Denken als ein inneres Sprechen verstanden, was eine enge Verbindung von Sprachphilosophie und Philosophie des Geistes impliziert. In neueren Untersuchungen hat Wilhelm K. Essler gezeigt, daß die Grundgedanken der buddhistischen Philosophie des Geistes mit diesen Ergebnissen des Reflektierens weitgehend übereinstimmen, daß jedoch diese über zwei Jahrtausende alte buddhistische Philosophie darüber hinaus auch Instrumente zur individuellen Anwendungen einer solchen sprachphilosophisch und erkenntnistheoretisch untermauerten Philosophie des Geistes enthält, die diese dann zu einer gelebten Philosophie werden lassen können, mit dem Ziel des Mottos, das auf der Eingangspforte des Tempels von Delphi zu lesen stand, nämlich: "Erkenne Dich selbst!"
Das Forschungsprojekt PROTOSOZIOLOGIE an der J.W. Goethe-Universität Frankfurt am Main hat seit 1991 eine grundlagentheoretische Forschung auf dem Gebiet der Theoriebildung der modernen Sozialwissenschaften durchgeführt. Dabei waren die drei Kontexte Phänomenologie, System- und Sprachtheorie relevant. Die Phänomenologie der Lebenswelt und die Systemtheorie haben in der Philosophie und Soziologie des 20. Jahrhunderts – neben dem Sprachbegriff – eine paradigmatische Bedeutung. Edmund Husserls Lebensweltbegriff ist in der phänomenologischen Schule und der phänomenologischen Soziologie von Alfred Schütz, in der konstruktiven Wissenschaftstheorie von Paul Lorenzen und seiner Schüler, in der Systemtheorie Niklas Luhmanns und der Theorie des kommunikativen Handelns von Jürgen Habermas wirkungsgeschichtlich geworden. Die Systemtheorie und der soziologische Funktionalismus hat seit den 40er Jahren eine paradigmatische Bedeutung für die Sozialwissenschaften und Wissenschaftstheorie. System und Lebenswelt avancierten somit zu den zentralen Begriffen der Philosophie, Soziologie und Kommunikationstheorie in der zweiten Hälfte des 20. Jahrhunderts. Für die beiden deutschen Soziologen Luhmann und Habermas ist darüber hinaus – wenn auch in unterschiedlicher Gewichtung – die Verbindung beider Begriffe von grundlegender Bedeutung. Im Rückblick können wir feststellen, daß in der Philosophie des 20. Jahrhunderts drei Philosophien dominierten: die Sprachphilosophie in der heute weitverzweigten und dominierenden analytischen Philosophie (Frege, Russell, Wittgenstein, Carnap u.a.), Husserls Phänomenologie in der »Phänomenologischen Schule« und Soziologie und Heideggers Fundamentalontologie in der Philosophischen Hermeneutik. Gemeinsam ist den Hauptrichtungen der Philosophie in diesem Jahrhundert, daß sie die Erkenntnistheorie nicht mehr cartesianisch und mentalistisch konstruieren. Paradigmatisch wurde diese Umorientierung in der Erkenntnistheorie Wittgensteins, der Frege folgend, in seinem »Tractatus« lakonisch formuliert: »Das denkende, vorstellende Subjekt gibt es nicht«. Husserl nimmt zwar eine Sonderstellung ein, da seine Egologie und Erkenntnistheorie cartesianisch orientiert ist. Mit der Hinwendung zur Lebensweltanalyse gibt er auch eine Antwort auf die Konstruktionsprobleme des modernen Mentalismus. Die Dekonstruktion des erkennenden Ichs (transzendentalen Bewußtseins) hat sich in der Philosophie, Wissenschaftstheorie und Soziologie des 20. Jahrhunderts durchgesetzt. Dies gilt sowohl für den radikalen Konstruktivismus, die allgemeine und die soziologische Systemtheorie Luhmanns aber auch für die konstruktive Philosophie von Lorenzen, den sogenannten »Erlangener Konstruktivismus« und seine heutigen Vertreter. Belegen läßt sich das Ende der Bewußtseinsphilosophie aber auch in der Erkenntnistheorie ohne erkennendes Subjekt von Popper, dem erkenntnistheoretischen Naturalismus von Quine und Davidson, der sprachtheoretischen Erkenntnis- und Wissenschaftstheorie von Essler (W.K.) und in der Organtheorie der Sprache von Chomsky. Inhalt Einleitung: »Lebenswelt« und »System« in Philosophie und Soziologie 9 Gerhard Preyer, Georg Peter, Alexander Ulfig ZUM BEGRIFF DER LEBENSWELT Ernst Wolfgang Orth ›Lebenswelt‹ als unvermeidliche Illusion? Husserls Lebensweltbegriff und seine kulturpolitischen Weiterungen 28 Walter Biemel Gedanken zur Genesis der Lebenswelt 41 Alexander Ulfig Lebenswelt und Reflexion. Anhang: Lebenswelt als Fundament der Wissenschaft 55 Gerhard Preyer Hintergrundwissen: Kritik eines Begriffs 81 Hubert A. Knoblauch Soziologie als strenge Wissenschaft? Phänomenologie, kommunikative Lebenswelt und soziologische Methodologie 93 LEBENSWELT – BEGRÜNDUNG – WISSENSCHAFT Jürgen Mittelstraß Das lebensweltliche Apriori 106 Peter Janich Die Rationalität der Naturwissenschaften 133 Jürgen Mittelstraß Rationalität und Reproduzierbarkeit 152 Elisabeth Ströker Lebenswelt durch Wissenschaft: Zum Strukturwandel von Welt- und Selbsterfahrung 163 Paul Janssen Lebenswelt, Wissen und Wissenschaft – Möglichkeiten ihrer Konstellation 184 Richard T. Murphy E. Husserl's Phenomenology of Reason 202 LEBENSWELT / LEBENSFORM – SPRACHE Pierre Kerszberg Lifeworld and Language 216 John F.M. Hunter The Motley Forms of Life in the Later Wittgenstein 228 Peter A. French Why did Wittgenstein read Tagore to the Vienna Circle? 241 Georg Peter Die Nebenbeschäftigung der Symbole: Zu Wahrheit und Funktion der Metapher 251 SYSTEM – SOZIALSYSTEM – GESELLSCHAFT Niklas Luhmann Die Lebenswelt nach Rücksprache mit Phänomenologen 268 Niklas Luhmann Observing Re-entries 290 Gerhard Preyer System-, Medien- und Evolutionstheorie. Zu Niklas Luhmanns Ansatz 302 Richard Münch Autopoesis per Definition 347 Hans Zitko Codierungen der Kunst: Zur Kunstsoziologie Niklas Luhmanns 357 James Bohman The Completeness of Macro-Sociological Explanations: System and Lifeworld 370 Göran Ahrne Outline of an Organisational Theory of Society 382 Anhang: Karl Otto Hondrich Zu Göran Ahrnes Ansatz 390
The multiplicity of hadronic species created in elementary, and in nucleus-nucleus collisions, are known to be well reproduced by the statistical hadronization model, in its canonical and grand-canonical versions.To understand the origin of the implied equilibrium we revisit the hadronization models developed for e+e- annihilation to hadrons which imply spatial color pre-confinement clusters forming at the end of the pQCD evolution, which decays into on-shell hadrons/resonances. The classical ensemble description arises as a consequence of decoherence and phase space dominance during cluster formation, and decay.For A+A collisions we assume that hadronization occurs from similar singlet clusters which will overlap spatially owing to the extreme density. This is imaged in the transition to the grand-canonical ensemble.This transition sets in with increasing A and collision centrality. It can be described by a percolation model.
We discuss the present collective flow signals for the phase transition to quark-gluon plasma (QGP) and the collective flow as a barometer for the equation of state (EoS). A study of Mach shocks induced by fast partonic jets propagating through the QGP is given. We predict a significant deformation of Mach shocks in central Au+Au collisions at RHIC and LHC energies as compared to the case of jet propagation in a static medium. Results of a hydrodynamical study of jet energy loss are presented.
The energy dependence of various hadronic observables is reviewed. The study of their evolution from AGS over SPS to the highest RHIC energy reveals interesting features, which might locate a possible onset of deconfinement. These observables include transverse spectra of different particle types and their total multiplicities, as well as elliptic flow. In this context especially the observation of a maximum of the strangeness to pion ratio is of particular interest, since on one hand it has been predicted as a signal for the onset of deconfinement but on the other hand also statistical model calculations exhibit qualitatively similar structures. The sharpness of these features is however not reproduced by hadronic scenarios. The significance of these structures will be discussed in this contribution. Other observables, such as radius parameters from Bose-Einstein correlations, on the other hand do not exhibit any structure in their energy dependence.
We study optimal investment in self-protection of insured individuals when they face interdependencies in the form of potential contamination from others. If individuals cannot coordinate their actions, then the positive externality of investing in self-protection implies that, in equilibrium, individuals underinvest in self-protection. Limiting insurance coverage through deductibles or selling “at-fault” insurance can partially internalize this externality and thereby improve individual and social welfare. JEL Classification: C72, D62, D80
Why is it hard to divide attention between dissimilar activities, such as reading and listening to a conversation? We used functional magnetic resonance imaging (fMRI) to study interference between simple auditory and visual decisions, independently of motor competition. Overlapping activity for auditory and visual tasks performed in isolation was found in lateral prefrontal regions, middle temporal cortex and parietal cortex. When the visual stimulus occurred during the processing of the tone, its activation in prefrontal and middle temporal cortex was suppressed. Additionally, reduced activity was seen in modality-specific visual cortex. These results paralleled impaired awareness of the visual event. Even without competing motor responses, a simple auditory decision interferes with visual processing on different neural levels, including prefrontal cortex, middle temporal cortex and visual regions.
Das humane Cytomegalovirus (hCMV) ist ein ubiquitär verbreitetes Pathogen. Die CMV-Infektion ist eine nicht selten lebensbedrohliche Komplikation bei immunsupprimierten Organ- und Knochenmarktransplantat-Empfängern. Bei immunkompetenten Individuen hingegen verläuft eine CMV-Infektion in der Regel asymptomatisch. Wie am Beispiel der murinen CMV (mCMV)-Infektion gezeigt werden konnte, erfolgt die Immunkontrolle durch CD8 T-Zellen. Im Infektionsmodell der BALB/c (H-2d) Maus dominieren CD8 T-Zellen mit Spezifität für zwei antigene Peptide: Ein Ld-restringiertes Peptid aus dem immediate early (IE1)-Protein m123, sowie ein Dd-restringiertes Peptid aus dem early (E)-Protein m164. Der konzertierten Aktion der viralen Immunevasionsproteine von mCMV gelingt es nicht, die Expression dieser beiden Peptide auf der Oberfläche infizierter Zellen zu verhindern. Der ORFm164 wurde 1996 von Rawlinson et al. vorhergesagt und umfasst demnach 1284 Nukleotide, die für ein Protein von 46,6 kDa kodieren. Über die mRNA und das tatsächliche Genprodukt des ORFm164 war zu Beginn dieser Arbeit jedoch nichts bekannt. Die in der vorliegenden Arbeit durchgeführten Transkriptions- und Translations-Analysen zeigten, dass der eigentliche ORFm164 kürzer ist als vorhergesagt. So konnte mittels 5´/3´ RACE eine ungespleißte, 2004 Nukleotide große mRNA identifiziert werden, die einen 1011 Nukleotide langen ORF, sowie 5´ und 3´ flankierende UTRs umfasst. Das eigentliche Start-AUG der m164-mRNA liegt in einer Kozak-ähnlichen Konsensussequenz, wobei dieses Startcodon nicht dem von Rawlinson vorhergesagten ersten AUG entspricht. Vielmehr startet die Translation am dritten AUG und generiert ein m164 Genprodukt mit einer apparenten molekularen Masse von 38 kDa. Schließlich konnte m164 als Typ-I Membranglykoprotein charakterisiert werden. Das Protein ist ein frühes E-Phase Protein, das bereits ab 2 h p.i. und während der gesamten E-Phase abundant exprimiert wird. Pulse-Chase Experimente wiesen darauf hin, dass m164 relativ instabil ist. Mit Hilfe der indirekten Immunfluoreszenz konnte neben einer ER-Lokalisation auch eine Kolokalisation von m164/gp38 mit den Proteinen der inneren Kernmembran Emerin und LaminB2 nachgewiesen werden. Eine direkte Interaktion zwischen diesen Proteinen und m164/gp38 konnte durch Fluoreszenz Resonanz Energie Transfer (FRET)-Experimente allerdings ausgeschlossen werden. FRAP (Fluorescence recovery after photobleaching)-Analysen haben ergeben, dass m164/gp38 in der äußeren Kernmembran lokalisiert ist. Somit könnte m164/gp38 eine Rolle beim Prozess des Deenvelopments der im Perinuklearraum lokalisierten primären Virionen spielen, indem es die Fusion zwischen primärer Virushülle und äußerer Kernmembran unterstützt und dadurch die Freisetzung der Kapside ins Zytoplasma ermöglicht. Diese Hypothese soll in weiterführenden Arbeiten überprüft werden.
Ausgehend von Brechts Regieanweisung im Gedicht „Das Zeigen muss gezeigt werden !“ befasst sich das erste Kapitel mit dem deiktischen Prinzip im Stück Die Dreigroschenoper. Nachgewiesen wird seine Zeigestruktur, die die Beggar’s Opera von John Gay durch die Bauform der Dreigroschenoper, letztlich aber die Oper als „romantisches Institut“ generell >beybringt<: Es handelt sich bei diesem Werk im Grunde um ein Lehrstück in Form einer Oper. Zur Darstellung kommt, wie sich das zeigt, was schon allgemein bekannt zu sein scheint (Hegel), wie die Oper und das Zeigen selbst. Im Großformat: Soziale Verelendung. In etlichen Kleinformaten: Eine Hochzeit. Oder Eifersucht, Armut, Prostitution, Trunksucht, Liebe und Verrat oder das, was gemeinhin als „Kriminalität“ bezeichnet wird. Die Dialektik von Einfühlung und Verfremdung tritt als Index zutage: Die Beteiligung am Unbeteiligtsein durch das Zeigen „ohne Mitleid“. Das zweite Kapitel nimmt Brechts Kritik der Einfühlung beim Schauspielen auf und stellt sie reformpädagogischen Unterrichtskonzepten gegenüber. Diese Studien zur Didaktik beleuch-ten die ideologischen morphings der Formel „vom Kinde aus“ und arbeiten einen völlig neuen Begriff von Verfremdung heraus. Es geht um die problematische Vorherrschaft von Familiarisierungen durch Zeigen und Verfremden unter dem Fanal einer sich kindgerecht und human ausgebenden Pädagogik – das „Einfühlungstheater“. Kritisiert werden in Rücksicht auf Brechts Theater in Theorie und Praxis die Illusionen, die das >Beybringen< betreffen. Sei es beim „erfahrungsoffenen Lernen“, das auf den Phänomenen stehe (Wagenschein, Rumpf), sei es beim „handlungs- und schülerorientierten Unterricht“ (Meyer) oder aber beim „Methoden-training“ und dem „eigenverantwortlichen Arbeiten und Lernen“ (Klippert). Das Resultat ist, dass diese Einlassungen theoretisch nicht ganz koscher sind. Die Diagnose gilt nicht minder für eine Pilotstudie zum Holocaust als Unterrichtsthema. Favorisiert wird in diesen Reformen der Pädagogik „das Anschauen des Grauens“ (Brumlik). Im Schlußkapitel entsteht aus den gewonnenen Erkenntnissen eine Theorie der Didaktik. Die Didaktik selbst wird auf ihre eigentliche Aufgabe zurückgeführt: Die Deixis. Die Säulen der vorliegenden Arbeit bilden von Anfang an die Schriften von Klaus Prange, werden aber an dieser Stelle mit den Brechtschen besonders pointiert zusammengebracht. Entgegen Pranges Auffassung ist die Artikulation des Zeigens bereits als Elementarform der Verfremdung zu konstatieren. Rezeptionsästhetische Aspekte kommen ins Spiel (Gandelmann), die Rolle von präsentativen und diskursiven Symbolisierungsformen: „Das Zeigen des Zeigens gehört zur Sprache“ (Prange). Und es gehört nicht nur zur Sprache, sondern die Sprache kommt zur Sprache. Sie erfährt durch das Zeigemoment eine Rhetorisierung, gerade weil sie auch klingt. Die Formel „vom Kinde aus“ entpuppt sich vor dem Hintergrund als „leere Benzintonne“ (Whorf): Die Claqueure der Pädagogik der Reformen wähnen sich mit ihren illusorischen Theorien in Sicherheit, „rauchen“ und „trinken“ wie gewohnt weiter und nehmen nicht für wahr, das auch hier das Wesentliche und in dem Fall Gefährliche für die Augen unsichtbar ist: „How to do Things with words“ (Austin) – diese Frage ist von zentraler Bedeutung für die Pädagogik. Der Räuberhauptmann Macheath würde sagen: „Da kannst du was lernen.“
Hintergrund: Die studentische Ausbildung sollte sowohl inhaltlich als auch organisatorisch auf qualitativ hohem Niveau durchgeführt werden. Während die Evidenzbasierte Medizin (EbM) auf inhaltlicher Ebene die medizinische Ausbildung optimieren kann, vermag dies auf organisatorischer Ebene das Qualitätsmanagement (QM). Aus diesem Grund führte die Arbeitsgruppe EBM Frankfurt des Instituts für Allgemeinmedizin am Universitätsklinikum Frankfurt am Main ein umfassendes Qualitätsmanagementsystem (QMS) ein.
Methoden: Auf Eigeninitiative einiger Arbeitsgruppenmitglieder wurde mit Unterstützung der Stabsstelle Qualitätsmanagement des Uniklinikums Frankfurt ab Oktober 2002 ein alle Teilbereiche der Arbeitsgruppe umfassendes QMS eingeführt. Unter Führung des QM-Lenkungsteams der Arbeitsgruppe wurden für alle relevanten Prozesse des Lehrbetriebs Ablaufdiagramme, Checklisten, Prozessbeschreibungen und Mindeststandards definiert und eingeführt. Hierbei wurden alle Mitglieder aktiv und kontinuierlich in den Erstellungsprozeß eingebunden.
Ergebnisse: Durch die kontinuierliche Beteiligung aller Mitarbeiter konnte ein allgemein akzeptiertes, lebendiges, effektives und zertifizierbares Qualitätsmanagementsystem eingeführt und aufrechterhalten werden. Wichtiger als eine Zertifizierung erscheint jedoch die kontinuierliche Verbesserung des Lehrbetriebs, die sich in zunehmend besseren Benotungen des curricularen EbM-Seminars (WiSe 2003/04: 2,37 vs. SoSe 2006: 1,54) und effektiver Kursgestaltung bei geringer Personalkapazität wiederspiegelt.
Schlussfolgerung/Implikation: Die Implementierung eines QMS auf freiwilliger Basis ist in Bereichen akademischer Lehre unter Beachtung wichtiger Erfolgsfaktoren mit moderatem Personal- und Sachkostenaufwand möglich und ein effektives Instrument zur Verbesserung der von den Studierenden wahrgenommenen Dienstleistungsqualität.
Hintergrund: Die praktische Anwendung der EbM bedarf neben interner Evidenz auch einiger Basis-Fertigkeiten, die schon während der medizinischen Ausbildung trainiert werden sollten. Während die EbM seit über 3 Jahren fester Bestandteil des Ausbildungscurriculums der medizinischen Fakultät in Frankfurt/Main ist, findet sie an vielen anderen Fakultäten nur langsam Einzug.
Um diesen Prozess zu unterstützen und zu beschleunigen, wurde von der Arbeitsgruppe EBM Frankfurt das Ausbildungskonzept Train the Teacher ins Leben gerufen.
Methoden: Der Train the Teacher-Kurs besteht aus zwei Teilen und basiert auf den Erfahrungen von 20 Basiskursen und über 50 curricularen Seminaren an der Universität Frankfurt. Er setzt sich aus einem „EbM-Aufbaukurs“ und einem „Didaktik-Kurs“ zusammen. Ziel des Kurses ist die Befähigung der Teilnehmer zur Konzeption eines eigenen EbM-Lehrangebotes an der jeweiligen Ausbildungseinrichtung. Beide Ausbildungsteile werden sowohl subjektiv als auch objektiv evaluiert.
Ergebnisse: Es konnten im Rahmen des Lehrkonzepts Train the Teacher mittlerweile 25 Personen aus unterschiedlichsten Fachbereichen und Einrichtungen aus dem gesamten Bundesgebiet ausgebildet werden. Sowohl die subjektiven als auch objektiven Evaluationen fallen durchweg positiv aus. Die Vorevaluation ergab bei der subjektiven Bewertung einen Score von 8,27 (Skala von 1 bis maximal 10). Bei der objektiven Evaluation wurden im Mittel 84% der gestellten Fragen richtig beantwortet.
Schlussfolgerung/Implikation: Der Train the Teacher – Kurs ist für das angestrebte Ziel Erfolg versprechend. Einige Absolventen haben bereits begonnen, an verschiedenen Ausbildungsstandorten evidenzbasierte Lehrangebote zu implementieren. Das Konzept wird erweitert und fortgeführt.
Hintergrund Die chronische Herzinsuffizienz erfordert als Systemerkrankung hausärztliche sowie spezialärztliche Versorgung. Die evidenzbasierte DEGAM-Leitlinie (LL) zur hausärztlichen Versorgung der Herzinsuffizienz wurde formal interdisziplinär konsentiert, nachdem der Entwurf ein mehrstufiges internes und externes Reviewverfahren durchlaufen hatte. Methode Wissenschaftliche Fachgesellschaften und Organisationen (FG/O) wurden zu einem Nominalen Gruppenprozeß (NGP) eingeladen und entsandten autorisierte Teilnehmer. Diese erhielten den LL-Entwurf inkl. Methodenreport sowie eine Liste zentraler LL-Empfehlungen für ein persönliches Ranking (44-Items; 6-stufige Likert-Skala). Beim Konsentierungstreffen wurden aus dem 1. Ranking Themen ohne deutliche Übereinstimmung (Likert =4) identifiziert, unter Hinzunahme weiterer Themenvorschläge in priorisierter Reihenfolge diskutiert und erneut abgestimmt. Der überarbeitete LL-Entwurf wurde in einem zweiten Ranking im Delphi-Verfahren konsentiert. Ergebnisse Im Abstimmungsprozess mit 10 Vertretern aus 11 FG/O wurden ~35 Themen diskutiert. Bei zwei Empfehlungen mit fehlender Evidenz wurde ein von internationalen LL abweichender Konsens getroffen (z.B. ß-Blocker bei asymptomatischen Patienten nur nach durchgemachtem Herzinfarkt). Vier Formulierungen bewertenden Charakters zur BNP-Bestimmung wurden zugunsten einer Negativempfehlung gestrichen, eine Empfehlung mit der STIKO harmonisiert (Pneumokokkenimpfung), bei weiteren wurden ergänzende Konditionen im Wortlaut eingefügt oder sprachliche Änderungen vorgenommen. Fünf Themen wurden neu erstellt (z.B. kontraindizierte Pharmaka). Bis auf drei (z.B. Flussdiagramme nicht vollständig konsensfähig: unangemessene Vereinfachung vs. fehlende Praktikabilität) wurden alle Empfehlungen der LL konsentiert. Schlussfolgerungen Der NGP ist für evidenzbasierte LL eine geeignete Vorgehensweise. Interdisziplinarität ist insbesondere bei Entscheidungsunsicherheit (fehlende oder inkonsistente Evidenz) und zur Schnittstellendefinition wertvoll.
Die Vermittlung der Zusammenhänge zwischen psychologischen Funktionen und körperlichen Veränderungen sowie deren Relevanz für die Entstehung und Aufrechterhaltung von Krankheiten stellt ein zentrales Ziel der Ausbildung in Medizinischer Psychologie dar. Zur Veranschaulichung dieser Zusammenhänge führten wir ein Psychophysiologie-Praktikum im ersten vorklinischen Semester ein. Die Studierenden führten in Vierergruppen mit Hilfe ausführlicher schriftlicher Instruktionen jeweils ca. 30 Minuten andauernde praktische Übungen durch, die die folgenden Themen behandelten: (1) Stress (abhängige Variable: Herzrate), (2) "Lügendetektor" (abhängige Variable: Hautleitwertsreaktionen), (3) Biofeedback (abhängige Variable: Hauttemperatur) und (4) Elektroenzephalogramm (abhängige Variable: Amplituden der vier klassischen Frequenzbänder). Die praktischen Übungen wurden durch theoretische Gruppenarbeiten und einen Termin zur Zusammenfassung der Ergebnisse der Übungen ergänzt. Die studentische Evaluation des Praktikums war durchweg positiv. So wurde das Praktikum als Bereicherung des Kurses angesehen, und der selbstbeurteilte Kenntnisstand auf dem Gebiet der Psychophysiologie zeigte eine signifikante Verbesserung. Diese Ergebnisse sowie unsere Eindrücke während des Praktikums bekräftigten unseren Entschluss, ein Psychophysiologie-Praktikum als Teil des Kurses der Medizinischen Psychologie und Medizinischen Soziologie fest zu etablieren.
Spatial interpolation of precipitation data is uncertain. How important is this uncertainty and how can it be considered in evaluation of high-resolution probabilistic precipitation forecasts? These questions are discussed by experimental evaluation of the COSMO consortium's limited-area ensemble prediction system COSMO-LEPS. The applied performance measure is the often used Brier skill score (BSS). The observational references in the evaluation are (a) analyzed rain gauge data by ordinary Kriging and (b) ensembles of interpolated rain gauge data by stochastic simulation. This permits the consideration of either a deterministic reference (the event is observed or not with 100% certainty) or a probabilistic reference that makes allowance for uncertainties in spatial averaging. The evaluation experiments show that the evaluation uncertainties are substantial even for the large area (41 300 km2) of Switzerland with a mean rain gauge distance as good as 7 km: the one- to three-day precipitation forecasts have skill decreasing with forecast lead time but the one- and two-day forecast performances differ not significantly.
This paper documents the experiences of assurance evaluation during the early stage of a large software development project. This project researches, contracts and integrates privacy-respecting software to business environments. While assurance evaluation with ISO 15408 Common Criteria (CC) within the certification schemes is done after a system has been completed, our approach executes evaluation during the early phases of the software life cycle. The promise is to increase quality and to reduce testing and fault removal costs for later phases of the development process. First results from the still-ongoing project suggests that the Common Criteria can define a framework for assurance evaluation in ongoing development projects.
RNA-Interferenz (RNAi) erlangte eine herausragende Bedeutung zum Studium der Genfunktion, nachdem auch in Säugersystemen gezeigt wurde, daß durch Applikation von 21 nt langen siRNAs (small interfering RNAs) eine Sequenz-spezifische Degradierung der mRNA-Transkripte kognitiver Gene erreicht werden konnte. Im Gegensatz zur antisense-Technologie erwies sich die Wirkung von siRNA im Hinblick auf die Hemmung der Genexpression um ein Vielfaches potenter und hoch spezifisch. Für eine längerfristige Unterdrückung von Genen kristallisierte sich die Methode der Plasmid-Vektor-vermittelten intrazellulären Expression von shRNA (short hairpin RNA) heraus, welche transient oder stabil angewendet werden kann. Diese exprimierte shRNA wird intrazellulär enzymatisch zu wirksamer siRNA prozessiert, welche den eigentlichen Enzym-vermittelten RNAi-Mechanismus der Degradierung von mRNA-Transkripten kognitiver Gene auslöst. Die Anwendung von RNA-Polymerase III-abhängigen Promotoren für die stabile konstitutive Expression von shRNA stellte ein großes Problem für behandelte Zellen dar, wenn es sich bei dem zu unterdrückenden Zielgen um ein Gen mit essentiellen Funktionen für die Zelle handelte. Im Falle der Polo-like Kinase 1 (Plk1), einer in vielen Spezies hoch konservierten Serin/Threonin-Kinase mit essentiellen mitotischen Funktionen, bedeutete eine dauerhafte und stringente Unterdrückung einen veränderten Phänotyp beteiligter Zellen, welcher sich durch Defekte bei mitotischen Ereignissen bemerkbar machte. Plk1 ist in zahlreiche mitotische Prozesse, wie den Eintritt der Zellen in die Mitose, die Segregation der Chromosomen und die Aktivierung des APC/C (anaphase promoting complex / cyclosome), eingebunden. Darüber hinaus ist bekannt, daß Plk1 in nahezu allen Tumorarten überexprimiert vorliegt und die Prognose von Tumorwachstum und Metastasierungspotential über den Plk1-Gehalt definiert werden kann. Des weiteren bewirkte eine RNAi-vermittelte Unterdrückung der Plk1-Expression bei Tumorzellen eine Hemmung der Zellproliferation mit Auslösung der Apoptose. Hingegen konnte bei gesunden primären Zellen weder eine signifikante Hemmung der Proliferation noch die Auslösung der Apoptose beobachtet werden, was die große Bedeutung von Plk1 als Ansatzpunkt für eine Krebstherapie hervorhebt. Um die Funktion von Plk1 im Hinblick auf molekularbiologische Zusammenhänge besser studieren zu können, war es notwendig, den intrazellulären Plk1-Gehalt zu variieren. Im Rahmen dieser Promotionsarbeit wurden dazu induzierbare RNAi-Elemente entwickelt, mit deren Hilfe die intrazelluläre Plk1-Expression konditionell inhibiert werden konnte. Unter Verwendung des prokaryotischen Tet-Systems wurden auf Basis des RNA-Polymerase abhängigen H1-Promotors durch Insertion von einer oder zwei Operatorsequenzen (TetO) für den Tetrazyklin-Repressor (TetR) an verschiedene Orte innerhalb der Sequenz des H1-Promotors drei induzierbare Promotor-Derivate geschaffen. Die drei entwickelten H1-Promotor-Derivate wurden zur Expression von shRNA gegen Plk1 eingesetzt und in bezug auf die Auslösung der RNAi-Antwort getestet und untereinander verglichen. Zu diesem Zwecke wurde der endogene Plk1-Gehalt von HeLa-Tumorzellen auf Transkript- und auf Proteinebene bestimmt. Die Zellen wurden zuvor mit Plasmid-Vektoren für konstitutive TetR-Expression und jeweils einer der verschiedenen shRNA-Expressions-Kassetten ko-transfiziert. Als Kontrollen dienten dabei Wildtyp-H1-Promotoren, welche zur konstitutiven Expression von shRNA gegen Plk1 und einer unwirksamen Kontroll-shRNA eingesetzt wurden. Mit Hilfe des synthetischen Tetrazyklin-Analogons Doxyzyklin, welches einen potenten Aktivator für TetR darstellt, konnten die hergestellten Promotor-Derivate induziert werden, was durch einen reduzierten intrazellulären Plk1-Gehalt sichtbar wurde. Dabei fiel auf, daß alle drei Promotor-Typen unterschiedliche Eigenschaften im nichtinduzierten Zustand wie auch im induzierten Zustand unter Anwesenheit von Doxyzyklin aufwiesen. Für die Basalaktivität in Abwesenheit von Doxyzyklin (leakiness) war die relative Lage der TetO-Sequenz(en) innerhalb des Promotors verantwortlich. So veränderte die Insertion einer TetO-Sequenz in 3’-Richtung der TATA-Box die Eigenschaften des Wildtyp-H1-Promotors weniger als die Insertion einer TetO-Sequenz in 5’-Richtung der TATA-Box. Zum Studium von Plk1 als Zielgen in der Krebstherapie wurde das Proliferationsverhalten von HeLa-Tumorzellen als Antwort auf die Doxyzyklin-vermittelte Induktion der shRNAExpression unter Kontrolle eines der induzierbaren Promotoren ermittelt. Dabei konnte die Proliferation von Tumorzellen durch einen reduzierten Plk1-Gehalt, welcher durch die Doxyzyklin-induzierte Auslösung der RNAi-Antwort vermittelt wurde, erfolgreich inhibiert werden. Zur Überprüfung der Eignung entwickelter Systeme, Tumorwachstum in vivo inhibieren zu können, wurden die entwickelten RNAi-Kassetten in das Genom von TetRexprimierenden HeLa-Zellen integriert und so stabile Klone geschaffen. Stabile HeLa-Klone zur induzierbaren Expression von Plk1-spezifischer shRNA, wie auch zur induzierbaren Expression von einer Kontroll-shRNA, wurden in die gegenüberliegenden Flanken von immunsupprimierten Nacktmäusen inokuliert, um anhand von Xenograft-Modellen einen direkten Vergleich des Tumorwachstums unter gleichen äußeren Bedingungen zu ermöglichen. Einem Teil der Mäuse wurde Doxyzyklin ins Trinkwasser gegeben, während Kontrollmäuse kein Doxyzyklin verabreicht bekamen. Das Tumorwachstum von Xenograft-Tumoren, welche aus Klonen zur Expression von shRNA gegen Plk1 hervorgingen, konnte in Doxyzyklin-behandelten Mäusen um 53% auf 47% an Tag 51 nach Inokulierung der Zellen inhibiert werden. Tumoren nicht-induzierter Mäuse, sowie Tumoren aus induzierten Mäusen, welche Kontroll-shRNA exprimierten, wuchsen dagegen unverändert in gleichem Maße. Anhand der in dieser Arbeit entwickelten induzierbaren H1-Promotor-Derivate zur konditionellen Auslösung von RNAi wurden wertvolle genetische Werkzeuge geschaffen, welche für das Studium der Genfunktion eingesetzt werden können. Im Falle der Unterdrückung von Plk1 können mit ihrer Hilfe sowohl grundlegende molekularbiologische Zusammenhänge studiert als auch die Bewertung von Plk1 als Zielgen in der Krebstherapie bewertet werden. Im Gegensatz zu kürzlich entwickelten Kinase-Inhibitoren, welche auf Proteinebene gegen Plk1 gerichtet sind und aufgrund ihrer bislang nicht nachgewiesenen Spezifität verwandte Kinasen in ihrer Wirkungsweise beeinflussen könnten, ist eine RNAibasierte Strategie hoch spezifisch und verspricht eine große Relevanz für zukünftige therapeutische Ansätze. Vorraussetzung für erfolgversprechende RNAi-basierte Strategien ist eine hohe Konservierung der Sequenz beteiligter Zielgene. Im Falle von Plk1 konnte eine hohe Konservierung durch Sequenzanalyse der Plk1-Gene von 15 Mamma-Karzinomen, 11 Ovarial-Karzinomen und mehrerer Tumorzellinien bestätigt werden.
Synaptopodin is the founding member of a family of actin-associated proline-rich proteins. It is present in a subset of telencephalic dendritic spines, where it is tightly associated with the dendritic spine apparatus, a putative calcium store. Synaptopodin-deficient mice lack the spine apparatus and show deficits in long-term potentiation and spatial memory. Thus, synaptopodin appears to play a role in synaptic plasticity. In the present thesis, three major questions were addressed: (1) What is the distribution of synaptopodin and the spine apparatus in identified hippocampal neurons? (2) Is the distribution of synaptopodin affected by denervation? (3) Is synaptopodin involved in the regulation of denervation-induced spine loss? The major findings of this thesis are: (1) Immunohistochemistry in the hippocampus of wildtype and EGFP-transgenic mice revealed significant layer-specific differences in the prevalence of synaptopodin at the level of individual neurons. (2) Light and electron microscopic analysis also revealed the presence of synaptopodin in axon initial segments of cortical and hippocampal principal neurons. There, it was found to be an essential component of the cisternal organelle, a putative axonal homologue of the dendritic spine apparatus. (3) Immunohistochemistry in the rat fascia dentata before and following entorhinal deafferentation revealed changes in synaptopodin expression in denervated and non-denervated layers of the hippocampus, suggesting that the distribution of synaptopodin in hippocampal neurons is regulated by presynaptic signals. (4) The dynamics of denervation-induced spine plasticity were studied in vitro using confocal live imaging of organotypic entorhino-hippocampal slice cultures. Whereas spines were remarkably stable under control conditions, spine loss and spine formation were seen following denervation. No significant differences were observed between cultures from wildtype and synaptopodin-deficient mice, suggesting that synaptopodin is not involved in lesion-induced spine plasticity. (5) Finally, a set of transgenic mice expressing fluorescently tagged synaptopodin were generated to facilitate future experiments on the dynamics and function of synaptopodin. In summary, this thesis presents novel findings on (1) the subcellular distribution of synaptopodin in spines and the axon initial segment, (2) the molecular composition of the cisternal organelle, and (3) the dynamics of spines and the spine apparatus organelle following deafferentation in vivo and in vitro.
Die Unternehmensbesteuerung ist eines der Instrumentarien das im Wettbewerb um den mobilen Faktor Kapital von den Industriestaaten eingesetzt wird. Hinsichtlich der wissenschaftlichen Forschung, die den Zusammenhang zwischen der Unternehmensbesteuerung und dem unternehmerischen Kapitalstock untersucht, ist mittlerweile eine beträchtliche Zahl von Literatur entstanden. Aus der vorhandenen Literatur sind jedoch zwei Schwächen zu erkennen. Erstens basieren viele der empirischen Analysen auf makroökonomischen Zeitreihendaten und zweitens finden vor allem Reduzierte-Form-Modelle Anwendung. Die vorliegende Dissertation gliedert sich in die Reihe empirischer Arbeiten unter Verwendung von Mikrodaten ein, die Aspekte der Unternehmensbesteuerung untersuchen. Die Arbeiten liefern einen Beitrag zum tieferen Verständnis aus den Teilbereichen der Finanzierunkstruktur, der gemeinsamen Bemessungsgrundlage sowie der Messung der marginalen Steuerbelastung. Dabei konzentrieren sich die Analysen auf die Aktivitäten deutscher Unternehmen im In- und Ausland sowie ausländischer Unternehmen in Deutschland. Grundlage der empirischen Untersuchungen sind vor allem vertrauliche Mikrodaten der Deutschen Bundesbank. Im Rahmen der deskriptiven und multivariaten Analyse werden Hinweise für den Zusammenhang zwischen der Besteuerung und dem unternehmerischen verhalten nachgewiesen. Damit dienen die Resultate auch als Diskussionsgrundlage für die Ausgestaltung künftiger Steuerpolitik in Deutschland und der EU.
According to the opinion of the author literary heritage of L.Holberg (Denmark, XVIII c) may be considered as a series of various realizations of one underlying ideal. Being statuary as to its essence, this ideal manifests self-sufficient and detached structure always identical with itself. But the main genre of Holberg’s work is the comedy. That’s why this ideal appears first of all indirectly, through the satirical demonstration of its opposite. Such opposite is brightly presented in image of Jeppe, the protagonist of his most renowned comedy “Jeppe paa Bierget” (1722). Jeppe is noteworthy for correlation of his weak self-consciousness and his degraded self-sensation i.e. by almost full absence of feeling of bounds proper to his own body. Close analysis shows that in accordance with nature of Holberg’s creative phantasy this antithesis of his ideal (as well as some other similar characters in Holbergian plays) is endowed with structure which is not identical with itself, unstable and disintegrating.
The potential use of variola virus, the causative agent of smallpox, as a bioweapon and the endemic presence of monkeypox virus in Africa demonstrate the need for better therapies for orthopoxvirus infections. Chemotherapeutic approaches to control viral infections have been less successful than those targeting bacterial infections. While bacteria commonly reproduce themselves outside of cells and have metabolic functions against which antibiotics can be directed, viruses replicate in the host cells using the cells' metabolic pathways. This makes it very difficult to selectively target the virus without damaging the host. Therefore, the development of antiviral drugs against poxviruses has initially focused on unique properties of the viral replication cycle or of viral proteins that can be selectively targeted. However, recent advances in molecular biology have provided insights into host factors that represent novel drug targets. The latest anti-poxvirus drugs are kinase inhibitors, which were originally developed to treat cancer progression but in addition block egress of poxviruses from infected cells. This review will summarize the current understanding of anti-poxvirus drugs and will give an overview of the development of the latest second generation poxvirus drugs.
Retirees confront the difficult problem of how to manage their money in retirement so as to not outlive their funds while continuing to invest in capital markets. We posit a dynamic utility maximizer who makes both asset location and allocation decisions when managing her retirement financial wealth and annuities, and we prove that she can benefit from both the equity premium and longevity insurance in her retirement portfolio. Even without bequests, she will not fully annuitize; rather, her optimal stock allocation amounts initially to more than half of her financial wealth and declines with age. Welfare gains from this strategy can amount to 40 percent of financial wealth (depending on risk parameters and other resources). In practice, it turns out that many retirees will do almost as well by purchasing a variable annuity invested 60/40 in stocks/bonds. JEL Classification: G11, G23, G22, D14, J26, H55
Background Olfactory receptors work at the interface between the chemical world of volatile molecules and the perception of scent in the brain. Their main purpose is to translate chemical space into information that can be processed by neural circuits. Assuming that these receptors have evolved to cope with this task, the analysis of their coding strategy promises to yield valuable insight in how to encode chemical information in an efficient way. Results We mimicked olfactory coding by modeling responses of primary olfactory neurons to small molecules using a large set of physicochemical molecular descriptors and artificial neural networks. We then tested these models by recording in vivo receptor neuron responses to a new set of odorants and successfully predicted the responses of five out of seven receptor neurons. Correlation coefficients ranged from 0.66 to 0.85, demonstrating the applicability of our approach for the analysis of olfactory receptor activation data. The molecular descriptors that are best-suited for response prediction vary for different receptor neurons, implying that each receptor neuron detects a different aspect of chemical space. Finally, we demonstrate that receptor responses themselves can be used as descriptors in a predictive model of neuron activation. Conclusions The chemical meaning of molecular descriptors helps understand structure-response relationships for olfactory receptors and their 'receptive fields'. Moreover, it is possible to predict receptor neuron activation from chemical structure using machine-learning techniques, although this is still complicated by a lack of training data.
Die vorliegende Arbeit befaßt sich mit einem Wandbild aus dem Jahre 1914 von Professor Dr. Wilhelm Steinhausen, das in mehrfacher Hinsicht Neugier weckt. Es ist sein letztes Werk vor dem Ersten Weltkrieg, während eines Jahres, als Frucht eines 40-jährigen Künstlerlebens, gereift, wovon der Erste und der Zweite Weltkrieg nichts haben sichtbar bleiben lassen - bis 2006, als der größere Teil an bisher unveröffentlichten Quellen zu Tage gefördert wurde, die Einblicke erlauben, wie biographische Entwicklungen im Leben eines Künstlers sowie die theologischen Inhalte seines Bildes in der kriegsideologischen Inanspruchnahme gewichen sind. Der Schwerpunkt des Themas liegt zwar auf Territorialkirchengeschichte, da das Ölbild Bestandteil der Kirchenraumausmalung der Frankfurter Lukaskirche war und der Verfasser von Haus aus Theologe ist. Maler Steinhausen war gebürtiger Jude; auch deswegen wurde sein Gemälde, obwohl Teil der teuersten deutschen Kirchenausmalung im 20. Jahrhundert, bewußt nicht vor Bombenangriffen in Sicherheit gebracht und verbrannte am 22. März 1944 mit der Lukaskirche. Die Arbeit ließe sich deshalb ebenso in der Kunst-, Zeit- und Stadtgeschichte einordnen. Mit dieser Publikation werden zum einen Bilder (in der pdf-Version nicht zugänglich), zum andern Dokumente (Briefe, Protokolle, Akten, Urkunden), die in verschiedenen Archiven gefunden und transkribiert wurden, erstmalig veröffentlicht und ausgewertet.
An application of EPR spectroscopy that is becoming increasingly important is the measurement of distances between electron spins. Several EPR methods have been developed for this purpose, all based on measuring the dipolar coupling between two spins. Due to the specific nature of the sample, we applied dipolar relaxation enhancement measurements to study the geometry of a protein-protein complex. The paramagnetic centers in question had EPR spectra that were too broad and had such short relaxation time that they could not be studied using the more straightforward PELDOR technique. EPR spectral resolution can be increased appreciably by measuring at a frequency higher than conventional X-band (9 GHz) frequency. The spectra of many paramagnetic species can only be resolved at frequencies higher than 90 GHz. For accurate measurement of the orientation of the vector between two dipolar coupled spins with respect to the g-tensors of the spins, high spectral resolution is required. We therefore performed our EPR measurements at G-band (180 GHz) frequency. Dipolar relaxation measurements were applied to study the complex that is formed by the two electron-transfer proteins cytochrome c and cytochrome c oxidase (CcO) from the soil bacterium Paracoccus denitrificans. We were able to detect dipolar relaxation enhancement due to complex formation of soluble subunit II of P.d. CcO (CcOII) with two substrate cytochromes, which was practically absent in a mixture of CcOII with the negative control protein cytochrome c1. This complex formation was characterized by a pronounced temperature dependence that could be simulated using a home-written computer program. The G-band EPR measurements could not be simulated with a single complex geometry. This provided evidence for the hypothesis that electron-transfer protein complexes are short-lived and highly dynamic; they do not seem to form one specific electron-transfer conformation, but rather move around on each other’s binding surfaces and transfer an electron as soon as the distance between donor and acceptor is short enough. As a test of our simulation program, we also applied dipolar relaxation measurements to specially synthesized organic molecules that contained a nitroxide radical and a metal center. The transverse relaxation of Cu2+-OEP-TPA was compared to the relaxation of Ni2+-OEP-TPA at temperatures between 20 and 120 K. In this temperature range, the nitroxide relaxation was enhanced due to the presence of Cu2+, but not by Ni2+. Similarly, relaxation enhancement was found in the nitroxide-Mn2+ pair in Mn2+-terpyridine-TPA with respect to the terpyridine-TPA ligand. Due to the fast T2 relaxation of the nitroxide radical at high temperatures, the measurements were all performed in the low-temperature regime where the T1 relaxation rate of the metal ion was smaller than the dipolar coupling frequency. In this region, no structural information about the molecule can be deduced, since the dipolar relaxation enhancement is only determined by the T1 of the metal ion. The dipolar relaxation measurements we performed at high field indicated a difference in relaxation times between X-band and G-band frequencies. Extensive T1 - measurements of different paramagnetic centers (CuA, Cu2+) confirmed a strong dependence of T1 on magnetic field in the temperature range where the direct process is the dominating T1 relaxation process. This dependence is very strong (factor of 103 with respect to X-band), but does not follow the B04 dependence predicted in literature. The T1 relaxation of low-spin iron in cytochrome c at high magnetic field, estimated from dipolar relaxation data, is also in agreement with a larger contribution by the direct process (factor of 104). Dipolar relaxation enhancement was found to be a technique that is useful for measuring distances between paramagnetic centers, but only for systems where several important conditions are met, such as: the system exists in one certain static geometry, and the relaxation rate of the fast-relaxing spin is faster than the dipolar coupling frequency within the accessible temperature range. Additionally, it is a great advantage for the analysis of dipolar relaxation data if the procedure of dividing the relaxation trace of the dipolar-coupled slow-relaxing spin by the relaxation trace of the slow-relaxing spin in absence of dipolar coupling can be applied. Another useful application of dipolar relaxation enhancement measurements is the measurement of T1 relaxation of extremely fast-relaxing spins, or spins that are otherwise difficult to detect.
Using a unique data set on trade credit defaults among French firms, we investigate whether and how trade credit is used to relax financial constraints. We show that firms that face idiosyncratic liquidity shocks are more likely to default on trade credit, especially when the shocks are unexpected, firms have little liquidity, are likely to be credit constrained or are close to their debt capacity. We estimate that credit constrained firms pass more than one fourth of the liquidity shocks they face on to their suppliers down the trade credit chain. The evidence is consistent with the idea that firms provide liquidity insurance to each other and that this mechanism is able to alleviate the consequences of credit constraints. In addition, we show that the chain of defaults stops when it reaches firms that are large, liquid, and have access to financial markets. This suggests that liquidity is allocated from large firms with access to outside finance to small, credit constrained firms through trade credit chains.
Public employee pension systems throughout the developed world have traditionally been of the pay-as-you-go (PAYGO) defined benefit (DB) variety, where pensioner payments are financed by taxes (contributions) levied on the working generation. But as the number of retirees rises relative to the working-age group, such systems have begun to face financial distress. This trend has been exacerbated in many countries, among them Germany, by high unemployment rates producing further deterioration of the contribution base. In the long run, public sector pension benefits will have to be cut or contributions increased, if the systems are to be maintained. An alternative path sometimes offered to ease the crunch of paying for public employee pensions is to move toward funding: here, plan assets are gradually built up, invested, and enhanced returns devoted to partly defray civil servants’ pension costs. In this study, we evaluate the impact of introducing partial prefunding, paired with a strategic investment policy for the German federal state of Hesse. The analysis assesses the impact of introducing a supplementary tax-sponsored pension fund whose contributions are invested in the capital market and used to relieve the state budget from (some) pension payments. Our model determines the expectation and the Conditional Value-at-Risk of economic pension costs using a stochastic simulation process for pension plan assets. This approach simultaneously determines the optimal contribution rate and asset allocation that controls the expected economic costs of providing the promised pensions, while at the same time controlling investment risk. Specifically, we offer answers to the following questions: 1. How can the plan be designed to control cash-flow shortfall risk, so as to mitigate the potential burden borne by future generations of taxpayers? 2. What is the optimal asset allocation for this fund as it is built up, to generate a maximum return while simultaneously restricting capital market and liability risk? 3. What are reasonable combinations of annual contribution rates and asset allocation to a state-managed pension fund, which will limit costs of providing promised public sector pensions? We anticipate that this research will interest several sorts of policymaker groups. First, focusing on the German case, the state and Federal governments should find it relevant, as these entities face considerable public sector pension liabilities. Second, our findings will also be of interest to other European countries, as most have substantial underfunded defined benefit plans for civil servants. In what follows, we first offer a brief description of the structure of civil servant pensions in Germany, focusing on their benefit formulas, their financing, and the resulting current as well as future plan obligations for taxpayers. Next, we turn to an analysis of the actuarial status of the Hesse civil servants’ pension plan and evaluate how much would have to be contributed to fund this plan in a nonstochastic context. Subsequently we evaluate the asset-liability and decision-making process from the viewpoint of the plan sponsor, to determine sensible plan asset allocation behavior. A final section summarizes findings and implications.
Das im Theiss-Verlag erschienene Buch „Grenzen des Imperiums. Leben am römischen Limes“ von Margot Klee behandelt die Regionen an den Rändern des römischen Reiches und nimmt die Bedeutung des Limes für diese Gebiete in Augenschein. Der geographische Bogen spannt sich dabei vom Hadrians- und Antoninuswall in Großbritannien über die römischen Provinzen Mittel- und Osteuropas bis nach Kleinasien, die Levante und Nordafrika. Dabei werden in jedem Kapitel nicht allein die jeweiligen archäologisch nachgewiesenen Limesanlagen, sondern auch Kastelle, Brücken und Straßen entlang der Grenze untersucht und in kurzen Abschnitten dargestellt, um so einen möglichst breitflächigen Gesamteindruck der Anlage vermitteln zu können. ...
Das Odeion des Perikles am Südabhang der Athener Akropolis – in direkter Nachbarschaft zum Dionysostheater – stellte mit seinem nahezu quadratischen Grundriss, dem pyramidalen Dach und den neun zu zehn Säulenreihen im Inneren eine architektonische Besonderheit innerhalb der Gattung der hypostylen Gebäude dar, worunter rechteckige bis quadratische Hallen zu verstehen sind, deren Dach von meist zahlreichen Säulen getragen wird1. Derlei Gebäude können geschlossen oder offen konzipiert sein. Die Athener Anlage gilt mit 68 x 62 m als größter überdachter Bau, der in der griechischen Antike fertig gestellt wurde und ist zudem das einzige in Resten überlieferte Odeion dieser Zeit (Abb. 1). Dieses Beispiel muss allerdings deutlich vom römischen odeum abgesetzt werden, denn es besitzt keinerlei Ähnlichkeit mit allen späteren Odeia, als welche spätestens ab dem 2. Jh. n. Chr. gemeinhin die überdachten Theater galten, die sich durch ansteigende Sitzreihen und eine meist halbrunde Orchestra mit Bühne auszeichneten6.Eine bauliche Übereinstimmung ist somit trotz des gleichen Terminus nicht gegeben. Über die Gestaltung des Odeion ist von Plutarch zu erfahren, dass es „im Inneren eine große Zahl von Sitzen und viele Säulen enthielt, während sich das Dach, von einer Spitze ausgehend, in ringsum gleichmäßiger Neigung herabsenkte.“ Die Umzeichnung einer Münze stellt das einzige Abbild der Anlage dar (Abb. 2). Sie ist jedoch wegen der verkürzten Darstellung für eine Rekonstruktion nur bedingt heranzuziehen. Auch ist das Münzbild aufgrund der Umzeichnung in seiner Authentizität einschränkt. So bleibt zudem offen, ob es sich bei dem die Spitze des Daches bekrönenden Aufsatz um ein Opaion, eine Öffnung zur Beleuchtung, handelt. Dass die optische Wirkung des Bauwerkes indes beträchtlich gewesen sein muss, spiegelt sich in den Worten des Pseudo-Dikaiarch, der in der Mitte des 4. Jhs. v. Chr. das Odeion als „das Schönste der Welt“ bezeichnet.
Im Folgenden sollen zwei zoomorph gestaltete Keramiken aus dem Umfeld der römischen Töpfereien von Mainz-Weisenau vorgestellt werden. Beide Stücke wurden bereits 1965 bzw. 1972 von privater Seite geborgen und stammen aufgrund der überlieferten Fundortangaben aus dem nördlichen Teil der römischen Siedlung.
Dynamische Aspekte im Kaufverhalten : die Determinanten von Kaufzeitpunkt, Marken- und Mengenwahl
(2007)
Die vorliegende Arbeit untersucht das Wahlverhalten von Konsumenten in differenzierten Produktkategorien des Konsumgütermarktes. Ausgangspunkt ist die Beobachtung, dass ein Marketing-Mix nicht nur die aktuellen Reaktionen der Konsumenten, sondern auch die resultierenden Konsequenzen für die Zukunft berücksichtigen muss. So führen insbesondere Preispromotions, welche den größten Anteil des Marketing-Budgets bei Konsumgütern in Anspruch nehmen, oft lediglich zu einer Vorverlagerung der Käufe statt zu einem Mehrabsatz durch Markenwechsel und sind daher durchaus kritisch zu bewerten. Anhand von Haushaltspaneldaten zweier Produktkategorien wird der Einfluss dynamischer Aspekte im Rahmen der Konsumentenentscheidungen hinsichtlich Kaufzeitpunkt, Marken- und Mengenwahl untersucht. Auf Grund kontroverser Diskussionen in der Marketing-Forschung bezüglich der korrekten Modellierung der drei Entscheidungen, steht diese neben der expliziten Spezifikation der Dynamiken im Fokus der Betrachtungen. Die empirischen Analysen sowie die anschließenden Simulationen von Marktszenarien zeigen zunächst die Überlegenheit einer getrennten gegenüber einer gemeinsamen Nutzenfunktion bei der Modellierung der drei Entscheidungen auf. Des Weiteren findet sich in einer Produktkategorie die Abhängigkeit der Preissensitivität der Konsumenten von der in der Vergangenheit beobachteten Häufigkeit von Preispromotions. Die Preissensitivität in der Mengenwahl ist dabei von dieser Häufigkeit wesentlich stärker betroffen als die der Markenwahl, was als Erklärungsansatz für die empirisch beobachtete Vorverlagerung von Käufen gewertet werden kann.
Die vorliegende Arbeit verdeutlicht für das Handlungsfeld „Ethnomarketing in Deutschland“, wie ethnische Grenzen gezogen werden. Sein Ausgangspunkt ist der gesellschaftliche Diskurs über das Deutschsein und seine Gegenstücke: das Türkische, Russische, Orientalische, Südländische usw.. Im Niemandsland zwischen Fremdem und Eigenem führen die Akteure des Ethnomarketings ihr eigenes Spiel mit der Ethnizität auf, indem sie sich die kursierenden ethnischen Zuschreibungen zu nutze machen. Sie übernehmen selektiv die im Diskurs vorgefundenen ethnischen Konstruktionen eines „kollektiven Gedächtnisses“ in der Gesellschaft über sich selbst und „die Anderen“, modifizieren diese Konstruktionen in ihrem Marketing entsprechend eigener Vorstellungen und Interessen, verstärken ihre Wirkung durch Ausstrahlung in den Medien und greifen so selbst ein in den machtbasierten gesellschaftlichen Prozess ethnischer Rollenzuweisung und Anerkennung. Die Gestaltung des eigenen Marketings zwingt die Akteure, sich auf eindeutige Werbebilder festzulegen, und ihre Präsenz in der Öffentlichkeit nötigt sie, sich und ihr ethnisches Marketing zu erklären. Sie offenbaren dadurch ihre Persönlichkeiten, Interessen, Vorstellungen, Fähigkeiten, Rollenverständnisse und Strategien – nicht jedoch das vermeintliche „Wesen“ ethnischer Zielgruppen, die sie adäquat zu bewerben glauben. Wie aus einleitender Definition hervorgeht, ist für Ethnomarketing ein Umfeld ethnischer Divergenz notwendig, um bestehen und funktionieren zu können. Es sind die fortwährenden Debatten in Deutschland über Ausländer, Asylanten, deutsche Werte, Einbürgerung, Fundamentalismus usw., in welchen entlang vermeintlich realer Kriterien wie Herkunft, Mentalität, Religion, Aussehen, Sprache usw. die soziale Realität ethnischer Gruppen (re-)konstruiert und ihnen stigmatisierend Eigenschaften zugeschrieben werden. Am vorläufigen Ende dieses Prozesses stehen Einbürgerungstests, mit welchen das „Deutsche“ vom „Undeutschen“ getrennt und bewahrt werden soll, die jedoch lediglich den Glauben ihrer Urheber demonstrieren, dies sei möglich. Als Gegenpol zum „guten“ Deutschen hat der Diskurs eine Chimäre aus zahlreichen, zumeist abwertenden Zuschreibungen für das Östliche, Südländische, Orientalische, Islamische usw. hervorgebracht, die im Türkischen oft einen Platzhalter findet: „Der Türke“ ist für viele Menschen zum Bild vom „unliebsamen“ Ausländer generell geworden. Vor diesem gesellschaftlichen Hintergrund ist Ethnomarketing erfolgreich, wenn es gelingt, den „verletzten Seelen“ die ethnische Wertschätzung zu geben, die sie sich von der „deutschen“ Gesellschaft vergeblich wünschen. Ethnomarketing kompensiert jedoch nicht nur das Gefühl mangelnder ethnischer Akzeptanz, das viele ethnisch stigmatisierte Rezipienten empfinden, sondern ist auch ein Mikrokosmos, in welchem die gleichen Prozesse der Konstruktion und Instrumentalisierung von Ethnizität wirksam sind wie in der umschließenden Gesellschaft. ....
Die Kernidee der kommunalen Kriminalprävention – die Sicherheitsgewährleistung auf der örtlichen Ebene – ist in den letzten Jahren in den Mittelpunkt sicherheitspolitischer Debatten gerückt. Schlüsselkonzepte wie Gemeinschaftlichkeit, Vernetzung und Bürgernähe gewinnen in den Kommunen zunehmend an Relevanz und münden in die Etablierung lokaler ressortübergreifender Zusammenschlüsse zur Kriminalitätsverhütung. Unter der Bezeichnung „Kriminalpräventionsräte“ versammeln sich allerdings sehr unterschiedliche inhaltliche und strategische Konzepte sowie eine Vielzahl lokaler Institutionalisierungsformen. Eine systematische Bestandaufnahme und Gegenüberstellung hat bislang nicht stattgefunden. Hinzu kommt, dass die Verbreitung lokaler Präventionsgremien in Deutschland von anhaltender Kritik begleitet wird: Auf Tagungen zur kommunalen Kriminalprävention werden z. B. immer wieder unzureichende Handlungsbefugnis, mangelnde Einbindung der Bürger/innen oder die große Bandbreite an Maßnahmen der Präventionsarbeit bemängelt, die letztlich zu einer Aushöhlung des Konzepts führten. Die Beobachtungen waren Anlass für die vorliegende Studie. In den zahlreichen Gesprächen mit Akteuren aus dem Bereich der kommunalen Kriminalprävention hat sich abgezeichnet, dass das Feld lokaler Präventionsarbeit nicht systematisch erfasst ist. Es gibt bislang keine Studie, die einen deutschlandweiten Überblick über die Verteilung der Gremien, die unterschiedlichen Organisationsformen, die beteiligten Akteure und die Projektarbeit liefert. Vor diesem Hintergrund erschien es notwendig, die Gremien deutschlandweit zu erheben und das Feld lokaler Präventionsarbeit zu strukturieren. Zu diesem Zweck werden im Folgenden die lokalen Netzwerke in vier thematischen Blöcken untersucht: • Präventionslandschaft: Wie verteilen sich die Gremien in Deutschland und in welchen Bundesländern sind lokale Präventionsnetzwerke besonders verbreitet? • Organisation: Wie sind die Präventionsgremien intern strukturiert und lokal ausgerichtet? • Vernetzung: Welche lokalen Institutionen arbeiten in den Gremien zusammen? Inwieweit sind die Bürger in die Präventionsarbeit einbezogen? • Projektarbeit: In welchen Bereichen sind die Gremien aktiv und welche Projekte werden durchgeführt? An welchen Zielen orientiert sich die Projektarbeit? Die vorliegende Studie ist die erste deutschlandweite Online-Befragung unter lokalen Präventionsgremien. An ihr haben sich über 250 Gremien beteiligt. Ihnen gilt besonderer Dank, sowie dem Deutschen Forum Kriminalprävention (DFK), dem Europäischen Zentrum für Kriminalprävention (EZK) und dem Leibniz-Institut für Länderkunde (IfL) für die Unterstützung bei der Umfrage.
Scholars of institutional design attribute large importance to the choice of new institutions. The comparative analysis of how Rwanda and Zambia crafted their new electoral systems and the systems of government regards procedural, structural and rational choice variables which may influence the option for particular solutions. External influences and the type of transition are determinants that can decide which actors make their interests prevail. The degree of innovation or conservatism of new institutions is mainly a result of the speed of the process and the kind of actors involved. However, rational reflections on how to produce legitimacy and minimize personal risks which take into consideration the state of conflict in the country decide on the speed and on innovative outcomes. The structured analysis of only two cases uncovers already that it is rather difficult to realise the transfer of design recommendations into reality.
Starting from controversial findings about the relationship between party systems and the prospects of democratic consolidation, this article argues that problems can only be properly addressed on the basis of a differentiated typology of party systems. Contradictory research results do not pose an ‘African puzzle’ but can be explained by different and inadequate approaches. We argue that a modified version of Sartori's typology of party systems provides an appropriate method for classifying African party systems. Based on Sartori's framework, a preponderance of predominant and dominant party systems is identified. This can partly be explained by the prevailing authoritarian nature of many multiparty regimes in Africa as well as by the ethnic plurality of African societies. High ethnic fragmentation is not transformed into highly fragmented party systems. This phenomenon can be attributed to the most frequent ‘ethnic congress party’ which is based on an ethnic elite coalition.
This paper focuses on dynamic interactions of equity prices among theoretically related assets. We explore the existence of intraday non-linearities in the FTSE 100 cash and futures indices. We test whether the introduction of the electronic trading systems in the London Stock Exchange in 1997 and in the London International Financial Futures and Options Exchange (LIFFE) in 1999 has eliminated the non-linear dynamic relationship in the FTSE 100 markets. We show that the introduction of the electronic trading systems in the FTSE 100 markets has increased the efficiency of the markets by enhancing the price discovery process, namely by facilitating the increase of the speed of adjustment of the futures and cash prices to departures of the mispricing error from its non-arbitrage band. Nevertheless, we conclude that the automation of the markets has not completely eliminated the non-linear properties of the FTSE 100 cash and futures return series. JEL Classification: G12, G14, G15
Exchanges in Europe are in a process of consolidation. After the failure of the proposed merger between Deutsche Börse and Euronext, these two groups are likely to become the nuclei for further mergers and co-operation with currently independent exchanges. A decision for one of the groups entails a decision for the respective trading platform. Against that background we evaluate the attractiveness of the two dominant continental European trading systems. Though both are anonymous electronic limit order books, there are important differences in the trading protocols. We use a matched-sample approach to compare execution costs in Euronext Paris and Xetra. We find that both quoted and effective spreads are lower in Xetra. When decomposing the spread we find no systematic differences in the adverse selection component. Realized spreads, on the other hand, are significantly higher in Euronext. Neither differences in the number of liquidity provision agreements nor differences in the minimum tick size or in the degree of domestic competition for order flow explain the different spread levels. We thus conclude that Xetra is the more efficient trading system. JEL Classification: G10, G15
The European Central Bank has assigned a special role to money in its two pillar strategy and has received much criticism for this decision. The case against including money in the central bank’s interest rate rule is based on a standard model of the monetary transmission process that underlies many contributions to research on monetary policy in the last two decades. In this paper, we develop a justification for including money in the interest rate rule by allowing for imperfect knowledge regarding unobservables such as potential output and equilibrium interest rates. We formulate a novel characterization of ECB-style monetary cross-checking and show that it can generate substantial stabilization benefits in the event of persistent policy misperceptions regarding potential output. JEL Classification: E32, E41, E43, E52, E58
The European Central Bank has assigned a special role to money in its two pillar strategy and has received much criticism for this decision. In this paper, we explore possible justifications. The case against including money in the central bank’s interest rate rule is based on a standard model of the monetary transmission process that underlies many contributions to research on monetary policy in the last two decades. Of course, if one allows for a direct effect of money on output or inflation as in the empirical “two-pillar” Phillips curves estimated in some recent contributions, it would be optimal to include a measure of (long-run) money growth in the rule. In this paper, we develop a justification for including money in the interest rate rule by allowing for imperfect knowledge regarding unobservables such as potential output and equilibrium interest rates. We formulate a novel characterization of ECB-style monetary cross-checking and show that it can generate substantial stabilization benefits in the event of persistent policy misperceptions regarding potential output. Such misperceptions cause a bias in policy setting. We find that cross-checking and changing interest rates in response to sustained deviations of long-run money growth helps the central bank to overcome this bias. Our argument in favor of ECB-style cross-checking does not require direct effects of money on output or inflation. JEL Classification: E32, E41, E43, E52, E58
Die Richtlinie vom 6. September 2006 zur Änderung der Kapitalrichtlinie soll den Mitgliedstaaten erlauben, das bislang geltende Kapitalschutzregime in verschiedenen Bereichen zu liberalisieren. Größerer Freiraum kann danach den betroffenen Unternehmen unter anderem für einen Erwerb eigener Aktien eingeräumt werden. Der nachfolgende Beitrag geht der Frage nach, welcher Gestaltungsspielraum den Mitgliedstaaten bei der Umsetzung der insoweit maßgeblichen Bestimmungen zusteht und welcher Anpassungsbedarf sich für das deutsche Recht ergibt.
Der vorstehende Beitrag hat untersucht, ob die Praxis, „defensive bids“ in Staatsanleiheauktionen abzugeben oder die Veröffentlichung einer künstlich erhöhten „Bid to Cover-Ratio“ durch die Emittenten von Staatsanleihen sowie ihre „Primary Dealers“ eine verbotene Marktmanipulation im Sinne des § 20 a WpHG darstellen. Das rechtspolitisch wenig überzeugende Ergebnis ist, dass der Emittent und Auslöser dieser Vorgänge – mangels Anwendbarkeit der Norm – nicht gegen das Verbot des § 20 a WpHG verstößt, die privatrechtlich organisierten „Primary Dealers“ – durch die Veröffentlichung der Kennzahl – hingegen durchaus. Inwiefern das aufgezeigte und als Marktmanipulation erkannte Verhalten strafrechtlich sanktioniert werden kann, soll hier nicht erörtert werden, hängt es doch sehr stark vom jeweiligen Einzelfall ab. Der Reputationsschaden, der aus dem Vorwurf der Marktmanipulation entsteht, ist indes nicht zu unterschätzen. Vielleicht gelingt es den „Primary Dealers“ aber gerade deswegen, unter Hinweis auf § 20 a WpHG die Finanzagenturen der Emittenten davon abzuhalten, „defensive bids“ von ihnen einzufordern. Insbesondere der gemeinschaftsrechtliche Hintergrund des Verbots der Marktmanipulation und das Streben nach einem Gleichlauf der Aufsichtspraxis für Marktmanipulationen legen es nahe, dass sich die Aufsichtsbehörden der entsprechenden Emittenten genauer mit den Vorgängen um die Staatsanleiheauktionen befassen. Schließlich besteht auch in Frankreich ein Verbot der Marktmanipulation in Form der Art. L. 465-2 Code monétaire et financier i.V.m. Art. 631-1 Règlement général de l’autorité des marchés financiers (AMF). Darüber hinaus stehen die Anforderungen der Richtlinie über Märkte für Finanzinstrumente (MiFiD) zur „best practice“ und dem Transparenzgebot zum Schutz der Anleger im Widerspruch zu dem geschilderten Verhalten. Vor diesem Hintergrund sollten weder „defensive bids“ eingefordert noch abgegeben werden. Damit wäre nicht nur den „Primary Dealers“, sondern vor allem dem Markt für Staatsanleihen und den Anlegern gedient.
Unerwartete Geschäftszahlen und die daraus resultierende Notwendigkeit der Anpassung von Ergebnisprognosen zeigen sich bereits bei der Vorbereitung der Regelberichterstattung. Damit stellt sich für die Unternehmensleitung die Frage, ob sie solche Insiderinformationen adhoc publizieren muss oder ob sie die Veröffentlichung aufschieben und bis zu dem für die Regelberichterstattung vorgesehenen Termin zuwarten darf. ... Zusammenfassung Ergeben sich bei den Vorbereitungen für die Regelberichterstattung Abweichungen von den Erwartungen an die Geschäftszahlen, die im Falle ihres Bekanntwerdens erheblichen Einfluss auf den Kurs von Insiderpapieren haben können, kann sich der Vorstand des Emittenten vor die Frage gestellt sehen, ob er die Ad-hoc-Veröffentlichung dieser Insiderinformation bis zu dem Zeitpunkt aufschieben darf, der im Finanzkalender für die Regelberichterstattung vorgesehen ist. Jedenfalls dann, wenn der Termin für diese Berichterstattung unmittelbar bevorsteht, überwiegt das Interesse des Emittenten an einem solchen Aufschub regelmäßig das Interesse des Kapitalmarkts an sofortiger Veröffentlichung. Das gilt auch dann, wenn aufgrund der Geschäftszahlen Ergebnisprognosen angepasst werden müssen. Sofern nicht ausnahmsweise eine Irreführung der Öffentlichkeit zu befürchten ist oder Bedenken hinsichtlich der Gewährleistung der Vertraulichkeit der Insiderinformation bestehen, ist der Emittent daher nach § 15 Abs. 3 WpHG bis zu dem für die Regelberichterstattung angekündigten Zeitpunkt von der Pflicht zur Veröffentlichung befreit.