Refine
Year of publication
- 2005 (1891) (remove)
Document Type
- Article (782)
- Doctoral Thesis (249)
- Part of Periodical (179)
- Review (110)
- Part of a Book (109)
- Working Paper (109)
- Conference Proceeding (98)
- Book (83)
- Report (66)
- Preprint (56)
Language
- German (1229)
- English (603)
- French (20)
- Portuguese (15)
- Multiple languages (6)
- Spanish (5)
- Italian (4)
- mis (3)
- Turkish (2)
- Danish (1)
Keywords
- Deutsch (29)
- Deutschland (25)
- Literatur (25)
- Johann Wolfgang von Goethe (21)
- Rezension (21)
- Frankfurt <Main> / Universität (20)
- Biographie (15)
- Literaturwissenschaft (15)
- Vormärz (15)
- Frankfurt <Main> (14)
Institute
- Medizin (142)
- Physik (97)
- Extern (79)
- Biochemie und Chemie (63)
- Rechtswissenschaft (51)
- Wirtschaftswissenschaften (46)
- Center for Financial Studies (CFS) (44)
- Biowissenschaften (41)
- Gesellschaftswissenschaften (38)
- Präsidium (38)
E-Learning soll im Rahmen der allgemeinmedizinischen Ausbildung von Medizinstudierenden erprobt werden. Ein zielgruppenspezifisches, multimodulares Online-Angebot begleitet Medizinstudenten des 10. Semesters während ihres dezentralen Praktikums in hausärztlichen Praxen. Folgende Lehrziele werden angestrebt: (1) Einführung in das E-Learning, (2) Klinische Allgemeinmedizin - Online-Modul, (3) Chronic Care Online-Modul, (4) Online-Bewerbung. Die systematische Evaluation zeigt, dass E-Learning die Kommunikation der Studierenden untereinander und mit der universitären Lehreinheit während des Praktikum fördert. Auf der Grundlage der in diesem Pilotversuch gewonnenen Erfahrungen erscheint die Kombination mit Präsenzunterricht (Blended Learning) eine vielversprechende Option für die allgemeinmedizinische Ausbildung zu sein.
Die Entwicklung neuer Formen der Tumortherapie bleibt notwendig, solange die Heilung verschiedener solider metastasierender Tumore nicht möglich ist. Solch ein neuer Ansatz besteht in der Infektion des Tumors mit replikationskompetenten (retroviralen) Vektoren oder Viren. Um die Spezifität dieser Viren für die Tumorzellen zu erhöhen, wird in dieser Arbeit ein Konzept vorgestellt, dass die Tumor-spezifische Expression von Proteasen, im Besonderen von Matrix-Metalloproteasen (MMPs), zur Aktivierung des Maus Leukämievirus (MLV) ausnutzt (Protease-Targeting). Dazu wurde durch eine Blockierungsdomäne (CD40L) Nterminal vom infektionsvermittelnden MLV-Hüllprotein Env die Bindung an die Zelleintrittsrezeptoren verhindert. Eine Spaltstelle zwischen CD40L und Env ermöglicht die Entfernung der Blockierungsdomäne und damit die Aktivierung des Virus. Um eine Spaltstelle zu finden, die optimal auf das Proteasespektrum eines Tumors passt, wurde das zwischen CD40L und Env befindliche Linkerpeptid kombinatorisch diversifiziert und so eine Bibliothek von Retroviren erzeugt. Die Selektion dieser Bibliothek auf zwei unterschiedlichen Tumorlinien (HT1080, Fibrosarkom und U-87 MG, malignes Gliom) führte zur Anreicherung MMP-aktivierbarer Viren. Drei der mehr als 10 identifizierten Linkerpeptide (AKGLYK, PSGLYQ und PAGLHV) wurden im viralen Kontext näher charakterisiert. Für das Spaltmotiv PSGLYQ konnte MMP-2 als aktivierende Protease nachgewiesen werden. Für die Motive AKGLYK und PAGLHV erwies sich eine kummulative Spaltung durch eine Reihe von MMPs als wahrscheinlich. Um die Ausbreitung der Viren in Abhängigkeit der MMP-Expression zu zeigen, wurden verschiedene Zelllinien hinsichtlich ihrer Expression von MMP-2 und MMP-9 charakterisiert und in MMP-positive und MMP-negative Zelllinien eingeteilt. Durch Infektion dieser Zelllinien und anschließende Verfolgung der Virus-Ausbreitung konnte die konditionale Replikation der aktivierbaren Viren ausschließlich auf MMP-positiven Zellen nachgewiesen werden. Daher erreichten die Viren mit selektionierten Spaltmotiven im Gegensatz zum Parental- Virus, welches ein in der Literatur beschriebenes MMP-2-Spaltmotiv aus Kollagen (PLGLWA) präsentierte, die vollständige Infektion der Kulturen. Auch die Titer lagen etwa um das 1000fache höher. Die Replikationsgeschwindigkeit der aktivierbaren Viren mit AKGLYK und PSGLYQ Motiv erreichte annähernd die des unveränderten MLV, das Virus mit PAGLHV Motiv zeigte sogar eine identische Replikationskurve. In einem Tumor-Maus-Modell konnte die Ausbreitung der proteolytisch aktivierbaren Viren auch in der Umgebung eines soliden Tumors gezeigt werden. Sowohl nach Etablierung des Tumors aus zum Teil vorinfizierten Zellen, als auch nach Injektion von Viren in zuvor etablierte Tumore erfolgte sie für die selektionierten Viren genetisch stabil. Um die Verteilung der Viren im Organismus zu bestimmen, wurde ein Modell entwickelt, in dem ein vollständig infizierter Tumor als Virusquelle diente, und nach bestimmten Zeiträumen verschiedene Organe der Maus und ein zweiter aus uninfizierten Zellen etablierter Tumor per PCR auf Infektionen untersucht wurde. Hier zeigte sich, dass WT-MLV bis zu 20.000fach mehr Zellen in den Organen infizierte als die aktivierbaren Viren. Dagegen wurden Zellen in einem sekundären uninfiziert etablierten Tumor vom WT-MLV nur etwa 5fach besser infiziert als durch die aktivierbaren Viren. Das heißt, die selektionierten Viren erreichten ein hohes Maß an Tumortargeting. In der vorliegenden Arbeit wurden durch molekulare Evolution zum ersten Mal replizierende Retroviren hergestellt, die einen eingeschränkten und für Protease-positive Zellen spezifischen Tropismus aufwiesen. Die selektionierten Substrate glichen anderen, mit Hilfe von Peptid-Bibliotheken für MMPs identifizierten Motiven, jedoch konnten durch die Berücksichtigung des gesamten Proteasespektrums einer Zelllinie weitere Motive selektioniert werden, die durch bisherige Systeme nicht ermittelt werden konnten. Damit ergibt sich für die selektionierten MMP-aktivierbaren Viren durch die Kombination aus Targeting beim Zelleintritt und Replikation in der Targetzellpopulation, die für andere beschriebene Targetingsysteme nicht gegeben ist, eine echte Option für neue Wege in der Tumortherapie.
Die Inhibition des Natrium-Protonen-Austauschproteins, Subtyp-1 (NHE-1), stellt möglicherweise ein wichtiges Prinzip zur Behandlung der Herzhypertrophie und damit der frühen Herzinsuffizienz dar. Als Ausgangspunkt dieser Arbeit konnte gezeigt werden, dass der oral bioverfügbare und selektive NHE-1-Inhibitor Cariporide dabei u.a. in einem transgenen Tiermodell wirkt, bei dem die Hypertrophie nicht durch Myokardinfarkt, sondern mittels transgener Überexpression des beta-1-adrenergen Rezeptors erzeugt wurde, die Hypertrophie-Entwicklung verhinderte. Um die Wirkung und vor allem den Wirkmechanismus von NHE-1-Inhibitoren näher zu untersuchen, wurde in der vorliegenden Arbeit ein zelluläres Modell der alpha-1-adrenergen Hypertrophie-Induktion in adulten Kardiomyozyten aus Rattenherzen aufgebaut und mittels gängiger Parameter wie Zellvolumen, Protein und RNA-Neusynthese validiert. Dabei konnte ein klassenspezifischer Hemmeffekt aller eingesetzten NHE-1-Inhibitoren auf die untersuchten Hypertrophie-Parameter gezeigt werden. Interessante molekulare Mechanismen der Hypertrophie-Inhibition durch spezifische NHE-1- Inhibitoren konnten in der vorliegenden Arbeit aufgedeckt werden. Nach alpha-1-adrenerger Stimulation und gleichzeitiger NHE-1-Inhibition waren nur wenige Gene in ihrer Expression deutlich differentiell reguliert, darunter der Angiotensin-II AT-1 Rezeptor und die sogenannte Rho-kinase (ROCK). Aus dieser Erkenntnis heraus ergeben sich neue mögliche Ansatzpunkte zum Wirkmechanismus von NHE-1-Inhibitoren. Im Gegensatz zu Befunden bei Herzischämie scheint es bei der Herzhypertrophie im vorliegenden Modell keine Kopplung zwischen dem NHE-1 und einem weiteren Austauschprotein, dem Natrium-Calcium-Austauscher, zu geben. Die Hypertrophie der adulten Kardiomyozyten ließ sich nicht durch einen selektiven Hemmstoff dieses Austauschers, SEA0400, hemmen. Bei näherer Untersuchung auf Translationsebene zeigten sich überraschende Ergebnisse, die für eine Hemmung der Hypertrophie-Entwicklung in Anwesenheit eines NHE-1-Inhibitors verantwortlich gemacht werden könnten. So war auf der einen Seite die Translokation von in adulten Kardiomyozyten exprimierten PKC-Subtypen (delta und eta) vom Zytosol an die Plasmamembran durch die NHE-1-Inhibition signifikant beeinflusst. Auf der anderen Seite war die Phosphorylierung bestimmter NHE-1-aktivierender Kinasen über den gesamten betrachteten Zeitraum verstärkt vorhanden. Diese Ergebnisse legen nahe, dass neben möglichen Autoregulationseffekten in der Zelle, ausgelöst durch eine NHE-1-Inhibition, eine weitere Wirkkomponente eine Rolle bei der Beeinflussung intrazelluläre membranabhängiger Translokation spielen könnten.
Drug target 5-lipoxygenase : a link between cellular enzyme regulation and molecular pharmacology
(2005)
Leukotriene (LT) sind bioaktive Lipidmediatoren, die in einer Vielzahl von Entzündungskrankheiten wie z.B. Asthma, Psoriasis, Arthritis oder allergische Rhinitis involviert sind. Des Weiteren spielen LT in der Pathogenese von Erkrankungen wie Krebs, Osteoarthritis oder Atherosklerose eine Rolle. Die 5-Lipoxygenase (5-LO) ist das Enzym, das für die Bildung von LT verantwortlich ist. Aufgrund der physiologischen Eigenschaften der LT, ist die Entwicklung von potentiellen Arzneistoffen, welche die 5-LO als Zielstruktur besitzen, von erheblichem Interesse. Die Aktivität der 5-LO wird in vitro durch Ca2+, ATP, Phosphatidylcholin und Lipidhydroperoxide (LOOH) und durch die p38-abhängige MK-2/3 5-LO bestimmt. Inhibitorstudien weisen darauf hin, dass der MEK1/2-Signalweg ebenfalls in vivo an der 5-LO Aktivierung beteiligt ist. Hauptziel dieser Arbeit war es zu untersuchen, welche Rolle der MEK1/2-Signalweg bei der Aktivierung der 5-LO besitzt und welchen Einfluss der 5-LO Aktivierungsweg auf die Wirksamkeit potentieller Inhibitoren hat. „In gel kinase“ und „In vitro kinase“ Untersuchungen zeigten, dass die 5-LO ein Substrat für die Extracellular signal-regulated kinase (ERK) und MK-2/3 darstellt. Der Zusatz von mehrfach ungesättigten Fettsäuren (UFA), wie AA oder Ölsäure, verstärkte den Phosphorylierungsgrad der 5-LO sowohl durch ERK1/2 als auch durch MK-2/3. Die genannten Kinasen sind demnach auch für die 5-LO Aktivierung durch natürliche Stimuli verantwortlich, die den zellulären Ca2+-Spiegel kaum beeinflussen. Daraus ist ersichtlich, dass die Phosphorylierung der 5-LO durch ERK1/2 und/oder MK-2/3 einen alternativen Aktivierungsmechanismus neben Ca2+ darstellt. Ursprünglich wurden Nonredox-5-LO-Inhibitoren als kompetitive Wirkstoffe entwickelt, die mit AA um die Bindung an die katalytische Domäne der 5-LO konkurrieren. Vertreter dieser Inhibitoren, wie ZM230487 und L-739,010, zeigen eine potente Hemmung der LT-Biosynthese in verschiedenen Testsystemen. Sie scheiterten jedoch in klinischen Studien. In dieser Arbeit konnten wir zeigen, dass die Wirksamkeit dieser Inhibitoren vom Aktivierungsweg der 5-LO abhängig ist. Verglichen mit 5-LO Aktivität, die durch den unphysiologischen Stimulus Ca2+-Ionophor induziert wird, erfordert die Hemmung zellstress-induzierter Aktivität eine 10- bis 100-fach höhere Konzentration der Nonredox-5-LO-Inhibitoren. Die nicht-phosphorylierbare 5-LO Mutante (Ser271Ala/Ser663Ala) war wesentlich sensitiver gegenüber Nonredox-Inhibitoren als der Wildtyp, wenn das Enzym durch 5-LO Kinasen aktiviert wurde. Somit zeigen diese Ergebnisse, dass, im Gegensatz zu Ca2+, die 5-LO Aktivierung mittels Phosphorylierung die Wirksamkeit der Nonredox-Inhibitoren deutlich verringert. Des Weiteren wurde das pharmakologische Profil des neuen 5-LO Inhibitors CJ-13,610 mittels verschiedener in vitro-Testsysteme charakterisiert. In intakten PMNL, die durch Ca2+-Ionophor stimuliert wurden, hemmte die Substanz die 5-LO Produktbildung mit einem IC50 von 70 nM. Durch Zugabe von exogener AA, wird die Wirkung vermindert und der IC50 des Inhibitors steigt an. Dies deutet auf eine kompetitive Wirkweise hin. Wie die bekannten Nonredox-Inhibitoren, verliert auch CJ-13,610 seine Wirkung bei erhöhtem zellulärem Peroxidspiegel. Der Inhibitor CJ-13,610 zeigt jedoch keine Abhängigkeit vom Aktivierungsweg der 5-LO. Grundsätzlich ist es also von fundamentaler Bedeutung bei der Entwicklung von neuen Arzneistoffen, die zellulären Zusammenhänge, insbesondere die Regulierung der Aktivität von Enzymen, zu kennen. Wie in dieser Arbeit gezeigt, hat die Phosphorylierung der 5-LO einen starken Einfluss auf die Regulation der 5-LO Aktivität und eine elementare Wirkung auf die Hemmung des Enzyms durch verschiedene Wirkstoffe.
Die vorliegende Arbeit befasste sich mit der Entwicklung und der Aufbau einer neuartigen Fingerdriftröhren-Struktur als Teil des neuen Vorbeschleunigers COSY-SCL am Kernforschungszentrum in Jülich. In dieser Arbeit wird die Entwicklung der Spiralresonatoren beschrieben, die als Nachbeschleuniger direkt hinter den RFQs zum Einsatz kommen sollen. Als mögliche Option zur Verbesserung der Strahlqualität wurden Fingerdriftröhren vorgeschlagen. Mit Hilfe dieser Struktur ist es möglich, mit geringer zusätzlicher Leistung eine Fokussierung des Ionenstrahls in der beschleunigenden Struktur zu erreichen. Dies war bisher nur bei niedrigen Energien mit der RFQ-Struktur möglich. Bei höheren Energien ist man stets auf magnetische Quadrupollinsen angewiesen. Dies führt jedoch gerade in einem Geschwindigkeitsbereich bis ca. 10 % der Lichtgeschwindigkeit zu Problemen, da die zur Verfügung stehenden Abmessungen zu gering sind. Nachdem zunächst das COSY-SCL Projekt vorgestellt wurde und die grundlegende Theorie für RFQ und Driftröhrenbeschleuniger behandelt wurde, wurden in Kapitel 5 Rechnungen zur Strahldynamik mit dem Programm RFQSIM vorgestellt. Aufgrund der hohen benötigten Gesamtspannung fiel die Entscheidung, einen Vierspaltresonator mit einer geerdeten Mitteldriftröhre aufzubauen. Durch diese Veränderung wurde es möglich, die Feldstärken in den einzelnen Spalten gleichmäßiger zu verteilen und niedriger zu halten, und die benötigte Verlustleistung zu minimieren. Die Teilchendynamik in einem Beschleunigungsspalt mit Fingerelektroden wurde mit einem neuen Transportmodul in RFQSIM untersucht, das den Transport geladener Teilchen durch beliebige dreidimensionale Elektrodenkonfiguration ermöglicht. Mit Hilfe der Fingerdriftröhren ist es möglich, die transversale Ausdehnung des Strahls am Ausgang des Nachbeschleunigers zu verringern und die Anpassung an einen folgenden Beschleuniger zu vereinfachen, ohne das große Einbußen bezüglich der Effektivität der Beschleunigung in Kauf genommen werden müssen. Um die HF Eigenschaften der beiden Beschleunigerstrukturen zu vergleichen, wurden sie mit dem MWS Programm numerisch berechnet. Um genauere Aussagen über die Eigenschaften des elektrischen Feldes zu machen, wurde eine Multipolanalyse der Felder durchgeführt. Damit lässt sich eine Aussage über die Stärke der Fokussierung und mögliche Feldfehler machen. Dabei zeigte sich, dass die auftretenden Feldfehler vernachlässigbar klein sind und sogar störende Effekte unterdrückt werden. Abschließend wurde der Aufbau des Resonators und den daran durchgeführten Messungen auf Meßsenderniveau behandelt. Resultat dieser Untersuchungen ist eine Struktur, die sehr gut und effektiv als Nachbeschleuniger hinter dem RFQ für COSY-SCL eingesetzt werden kann. Durch den Einsatz der Fingerdriftröhren kann mit einer einzelnen Struktur sowohl die Aufgabe der Beschleunigung als auch der Fokussierung bei mittleren Teilchenenergien bewältigt werden. Der neue fokussierende Spiralresonator entspricht in seinen Eigenschaften einer RFQ-Struktur für höhere Teilchengeschwindigkeiten. Die Ergebnisse dieser Arbeit zeigen, wie attraktiv eine solche Lösung mit Fingerdriftröhren ist. Deshalb ist geplant, in einem nächsten Schritt Strahltests durchzuführen, da die beschriebene Driftröhrenstruktur mit ihren Eigenschaften sehr gut für die Beschleunigung von Ionen in dem Geschwindigkeitsbereich zwischen RFQ- und IH Struktur geeignet ist und ein Einsatz z.B. in dem FLAIR Projekt möglich wäre.
In der vorliegenden Arbeit wird das Auslesekonzept der Driftkammern untersucht und seine Integration in das HADES Datenaufnahmesystem beschrieben. Bedingt durch das mehrstufige Triggersystem und die hohen Anforderungen an die Geschwindigkeit des Systems wurden Methoden zur Datenreduktion entwickelt. Dadurch ist es möglich, die Daten von allen 27 000 Kanälen innerhalb von 10 µs nach dem Trigger auszulesen. Die Daten werden innerhalb von ungefähr 40 ns nach dem Signal der zweiten Triggerstufe weitertransportiert. Im Rahmen der Untersuchungen zur Überwachung der Driftkammerdaten, die im zweiten Teil der Arbeit beschrieben werden, wurde mit der verwendeten Methode zur Bestimmung der intrinsischen Auflösung eine deutliche Verschlechterung Auflösung der Kammern festgestellt, von 120 µm im November 2001 auf über 200 µm im September 2003. Als Ursache hierfür wurde zum einen die geänderte Kalibrationsmethode ausgemacht, die die Laufzeiten der Signale nicht mehr berücksichtigt, zum anderen eine Änderung der Driftgeschwindigkeit aufgrund einer nicht optimalen Hochspannung. Die Methode zur Bestimmung des physikalischen Zentrums der Kammern erlaubt eine Aussage über die Position der Kammern relativ zur Sollposition. Die dabei gefundenen Verschiebungen entlang der z - Achse stimmen für einen Teil der Sektoren mit den im Rahmen des Alignments ermittelten Werten für die Verschiebung des Targets überein. Für die anderen Sektoren ergeben sich zusätzlicher Verschiebungen um 2 bis 6 cm. Das Di - Leptonen - Spektrometer HADES (High Acceptance Di -Elektron-Spektrometer) am Schwerionensynchrotron der Gesellschaft für Schwerionenforschung (Darmstadt) beginnt nun mit detaillierten Studien leptonischer Zerfälle von Vektormesonen in Kern - Kern - Stößen mit Projektilenergien von 1 bis 2 GeV / Nukleon. Dabei liegt der Schwerpunkt auf der Untersuchung von Zerfällen, die in der Phase hoher Dichte (ungefähr 3 · p..0) und hoher Temperatur stattfinden. Es wird erwartet, daß sich aus der dabei zu beobachtenden Massenverteilung der unterhalb der Schwelle produzierten leichten Vektormesonen r, o und ph ein Hinweis auf die partielle Wiederherstellung der im Vakuum gebrochenen chiralen Symmetrie ergibt.
This paper has shown that some of the principal arguments against shareholder voice are unfounded. It has shown that shareholders do own corporations, and that the nature of their property interest is structured to meet the needs of the relationships found in stock corporations. The paper has explained that fiduciary and other duties restrain the actions of shareholders just as they do those of management, and that critics cannot reasonably expect court-imposed fiduciary duties to extend beyond the actual powers of shareholders. It has also illustrated how, although corporate statutes give shareholders complete power to structure governance as they will, the default governance structures of U.S. corporations leaves shareholders almost powerless to initiate any sort of action, and the interaction between state and federal law makes it almost impossible for shareholders to elect directors of their choice. Lastly, the paper has recalled how the percentage of U.S. corporate equities owned by institutional investors has increased dramatically in recent decades, and it has outlined some of the major developments in shareholder rights that followed this increase. I hope that this paper deflated some of the strong rhetoric used against shareholder voice by contrasting rhetoric to law, and that it illustrated why the picture of weak owners painted in the early 20th century should be updated to new circumstances, which will help avoid projecting an old description as a current normative model that perpetuates the inevitability of "managerialsm", perhaps better known as "dirigisme".
Die linksventrikuläre Hypertrophie ist einer der stärksten Prädiktoren für die spätere Abnahme der Blutauswurfleistung des Herzens mit einer Gefährdung der Organdurchblutung und drohendem Kreislaufversagen, einem klinischem Syndrom, welches als Herzinsuffizienz bezeichnet wird. Die Herzhypertrophie ist eine Folge vieler verschiedener Herzerkrankungen wie koronarer Herzkrankheit, dilatativer Kardiomyopathie oder Hypertonie. Ein besseres Verständnis dieser Entwicklung auf molekularer Ebene könnte dazu beitragen, mit neu zu entwickelnden Medikamenten gezielt in diese Prozesse eingreifen zu können, sie abzuschwächen, zu verhindern oder gar rückgängig zu machen. Das Ziel dieser Arbeit war, die molekularen Ursachen der Herzhypertrophieentwicklung durch eine globale Genexpressionsanalyse zweier Hypertrophiemodelle näher zu untersuchen und dabei neue Hypertrophiemarker zu identifizieren. Dazu wurde sowohl aus Herzproben PKBgamma1-überexprimierender transgener Mäuse, welche eine massive Herzhypertrophie entwickeln, als auch aus alpha1-adrenerg stimulierten neonatalen Rattenkardiomyozyten RNA isoliert und mit dieser cDNA-Micro-arrays hybridisiert. Die Auswertung der differentiell exprimierten Gene in beiden Modellen ergab keine eindeutigen Hinweise auf universelle Faktoren, die für die Hypertrophieentwicklung verantwortlich gemacht werden könnten. Bei näheren Untersuchungen zeigte sich jedoch, dass die Mehrzahl der regulierten Gene einen Versuch der Kardiomyozyten repräsentiert, die Hypertrophieentwicklung zu kompensieren. Im Modell der PKBgamma1-überexprimierenden Mäuse konnte durch eine „in silico“-Promotoranalyse ein möglicher Einfluss von Transkriptionsfaktoren der Forkhead-Klasse auf die differentielle Expression vieler regulierter Gene gefunden werden. Unter Zuhilfenahme eines Forkhead-Reporter-Systems konnte in verschiedenen Zellkulturmodellen ein funktioneller Zusammenhang zwischen dem konstitutiv-aktiven Transgen und eben diesen Transkriptionsfaktoren gezeigt werden. Darüber hinaus gelang es, anhand zweier Reportersysteme für die wichtigen Hypertrophiemarker ANF und BNP zu zeigen, dass sich diese beiden Gene durch die Koexpression eines Forkhead-Transkriptions-faktors induzieren lassen. Im Modell der alpha1-adrenerg stimulierten neonatalen Rattenkardiomyozyten gelang es, durch eine „in silico“-Promotoranalyse cAMP-abhängige Transkriptionsfaktoren sowie Faktoren der EGR-Klasse als mögliche Auslöser der beobachteten Genregulation zu identifizieren. Dieses Ergebnis passte sehr gut zu den beobachteten transkriptionellen Veränderungen, da sowohl die Transkriptionsfaktoren selbst, als auch viele in den cAMP-Stoffwechsel involvierte Transkripte sehr stark induziert waren. In beiden untersuchten Modellen stimmten nur wenige differentiell exprimierte Transkripte überein und diese bestanden vorwiegend aus den klassischen Hypertrophiemarkern. Als möglicher neuer Hypertrophiemarker wurde das „Cardiac Adriamycin Responsive Protein“ (CARP) identifiziert, welches in beiden Modellen deutlich induziert war. In Kombination mit der Beobachtung, dass viele der jeweils regulierten Gene mit einer antihypertrophen Wirkung in Verbindung gebracht werden, legt den Schluss nahe, dass die transkriptionellen Veränderungen den Versuch der Zellen widerspiegeln, der Hypertrophie entgegenzuwirken, und dass die hypertrophieauslösende Wirkung durch andere, nicht-transkriptionelle Steuerungsmechanismen der Zelle vermittelt wird. Frühere Arbeiten, welche die transkriptionellen Veränderungen in anderen Hypertrophiemodellen untersuchten, sowie neuere Hinweise aus der Literatur und weitere in der Abteilung durchgeführte Untersuchungen lassen darauf schließen, dass die Hypertrophieentwicklung eher auf translationaler Ebene reguliert wird. Unterstützt wird dies durch die Tatsache, dass PKBgamma1-überexprimierende Mäuse die größte jemals beobachtete Herzhypertrophie entwickeln und der PKB/GSK-3beta-Signalweg bekanntermaßen translationelle Vorgänge in der Zelle steuert. Weitere Arbeiten in dieser Richtung könnten somit neue, vielversprechende Therapieansätze eröffnen.
This paper proves correctness of Nöcker's method of strictness analysis, implemented in the Clean compiler, which is an effective way for strictness analysis in lazy functional languages based on their operational semantics. We improve upon the work of Clark, Hankin and Hunt did on the correctness of the abstract reduction rules. Our method fully considers the cycle detection rules, which are the main strength of Nöcker's strictness analysis. Our algorithm SAL is a reformulation of Nöcker's strictness analysis algorithm in a higher-order call-by-need lambda-calculus with case, constructors, letrec, and seq, extended by set constants like Top or Inf, denoting sets of expressions. It is also possible to define new set constants by recursive equations with a greatest fixpoint semantics. The operational semantics is a small-step semantics. Equality of expressions is defined by a contextual semantics that observes termination of expressions. Basically, SAL is a non-termination checker. The proof of its correctness and hence of Nöcker's strictness analysis is based mainly on an exact analysis of the lengths of normal order reduction sequences. The main measure being the number of 'essential' reductions in a normal order reduction sequence. Our tools and results provide new insights into call-by-need lambda-calculi, the role of sharing in functional programming languages, and into strictness analysis in general. The correctness result provides a foundation for Nöcker's strictness analysis in Clean, and also for its use in Haskell.
This paper characterizes the optimal inflation buffer consistent with a zero lower bound on nominal interest rates in a New Keynesian sticky-price model. It is shown that a purely forward-looking version of the model that abstracts from inflation inertia would significantly underestimate the inflation buffer. If the central bank follows the prescriptions of a welfare-theoretic objective, a larger buffer appears optimal than would be the case employing a traditional loss function. Taking also into account potential downward nominal rigidities in the price-setting behavior of firms appears not to impose significant further distortions on the economy. JEL Klassifikation: C63, E31, E52 .
Ignoring the existence of the zero lower bound on nominal interest rates one considerably understates the value of monetary commitment in New Keynesian models. A stochastic forward-looking model with lower bound, calibrated to the U.S. economy, suggests that low values for the natural rate of interest lead to sizeable output losses and deflation under discretionary monetary policy. The fall in output and deflation are much larger than in the case with policy commitment and do not show up at all if the model abstracts from the existence of the lower bound. The welfare losses of discretionary policy increase even further when inflation is partly determined by lagged inflation in the Phillips curve. These results emerge because private sector expectations and the discretionary policy response to these expectations reinforce each other and cause the lower bound to be reached much earlier than under commitment. JEL Klassifikation: E31, E52
Using data from the Consumer Expenditure Survey we first document that the recent increase in income inequality in the US has not been accompanied by a corresponding rise in consumption inequality. Much of this divergence is due to different trends in within-group inequality, which has increased significantly for income but little for consumption. We then develop a simple framework that allows us to analytically characterize how within-group income inequality affects consumption inequality in a world in which agents can trade a full set of contingent consumption claims, subject to endogenous constraints emanating from the limited enforcement of intertemporal contracts (as in Kehoe and Levine, 1993). Finally, we quantitatively evaluate, in the context of a calibrated general equilibrium production economy, whether this set-up, or alternatively a standard incomplete markets model (as in Ayiagari 1994), can account for the documented stylized consumption inequality facts from the US data. JEL Klassifikation: E21, D91, D63, D31, G22
In this paper, we examine the cost of insurance against model uncertainty for the Euro area considering four alternative reference models, all of which are used for policy-analysis at the ECB.We find that maximal insurance across this model range in terms of aMinimax policy comes at moderate costs in terms of lower expected performance. We extract priors that would rationalize the Minimax policy from a Bayesian perspective. These priors indicate that full insurance is strongly oriented towards the model with highest baseline losses. Furthermore, this policy is not as tolerant towards small perturbations of policy parameters as the Bayesian policy rule. We propose to strike a compromise and use preferences for policy design that allow for intermediate degrees of ambiguity-aversion.These preferences allow the specification of priors but also give extra weight to the worst uncertain outcomes in a given context. JEL Klassifikation: E52, E58, E61
In this paper, we examine the cost of insurance against model uncertainty for the Euro area considering four alternative reference models, all of which are used for policy-analysis at the ECB.We find that maximal insurance across this model range in terms of aMinimax policy comes at moderate costs in terms of lower expected performance. We extract priors that would rationalize the Minimax policy from a Bayesian perspective. These priors indicate that full insurance is strongly oriented towards the model with highest baseline losses. Furthermore, this policy is not as tolerant towards small perturbations of policy parameters as the Bayesian policy rule. We propose to strike a compromise and use preferences for policy design that allow for intermediate degrees of ambiguity-aversion.These preferences allow the specification of priors but also give extra weight to the worst uncertain outcomes in a given context. JEL Klassifikation: E52, E58, E61.
This paper studies an overlapping generations model with stochastic production and incomplete markets to assess whether the introduction of an unfunded social security system leads to a Pareto improvement. When returns to capital and wages are imperfectly correlated a system that endows retired households with claims to labor income enhances the sharing of aggregate risk between generations. Our quantitative analysis shows that, abstracting from the capital crowding-out effect, the introduction of social security represents a Pareto improving reform, even when the economy is dynamically effcient. However, the severity of the crowding-out effect in general equilibrium tends to overturn these gains. Klassifikation: E62, H55, H31, D91, D58 . April 2005.
While much of classical statistical analysis is based on Gaussian distributional assumptions, statistical modeling with the Laplace distribution has gained importance in many applied fields. This phenomenon is rooted in the fact that, like the Gaussian, the Laplace distribution has many attractive properties. This paper investigates two methods of combining them and their use in modeling and predicting financial risk. Based on 25 daily stock return series, the empirical results indicate that the new models offer a plausible description of the data. They are also shown to be competitive with, or superior to, use of the hyperbolic distribution, which has gained some popularity in asset-return modeling and, in fact, also nests the Gaussian and Laplace. Klassifikation: C16, C50 . March 2005.
This paper computes the optimal progressivity of the income tax code in a dynamic general equilibrium model with household heterogeneity in which uninsurable labor productivity risk gives rise to a nontrivial income and wealth distribution. A progressive tax system serves as a partial substitute for missing insurance markets and enhances an equal distribution of economic welfare. These beneficial effects of a progressive tax system have to be traded off against the efficiency loss arising from distorting endogenous labor supply and capital accumulation decisions. Using a utilitarian steady state social welfare criterion we find that the optimal US income tax is well approximated by a flat tax rate of 17:2% and a fixed deduction of about $9,400. The steady state welfare gains from a fundamental tax reform towards this tax system are equivalent to 1:7% higher consumption in each state of the world. An explicit computation of the transition path induced by a reform of the current towards the optimal tax system indicates that a majority of the population currently alive (roughly 62%) would experience welfare gains, suggesting that such fundamental income tax reform is not only desirable, but may also be politically feasible. JEL Klassifikation: E62, H21, H24 .
Financial markets embed expectations of central bank policy into asset prices. This paper compares two approaches that extract a probability density of market beliefs. The first is a simulatedmoments estimator for option volatilities described in Mizrach (2002); the second is a new approach developed by Haas, Mittnik and Paolella (2004a) for fat-tailed conditionally heteroskedastic time series. In an application to the 1992-93 European Exchange Rate Mechanism crises, that both the options and the underlying exchange rates provide useful information for policy makers. JEL Klassifikation: G12, G14, F31.
Volatility forecasting
(2005)
Volatility has been one of the most active and successful areas of research in time series econometrics and economic forecasting in recent decades. This chapter provides a selective survey of the most important theoretical developments and empirical insights to emerge from this burgeoning literature, with a distinct focus on forecasting applications. Volatility is inherently latent, and Section 1 begins with a brief intuitive account of various key volatility concepts. Section 2 then discusses a series of different economic situations in which volatility plays a crucial role, ranging from the use of volatility forecasts in portfolio allocation to density forecasting in risk management. Sections 3, 4 and 5 present a variety of alternative procedures for univariate volatility modeling and forecasting based on the GARCH, stochastic volatility and realized volatility paradigms, respectively. Section 6 extends the discussion to the multivariate problem of forecasting conditional covariances and correlations, and Section 7 discusses volatility forecast evaluation methods in both univariate and multivariate cases. Section 8 concludes briefly. JEL Klassifikation: C10, C53, G1.
This paper analyzes dynamic equilibrium risk sharing contracts between profit-maximizing intermediaries and a large pool of ex-ante identical agents that face idiosyncratic income uncertainty that makes them heterogeneous ex-post. In any given period, after having observed her income, the agent can walk away from the contract, while the intermediary cannot, i.e. there is one-sided commitment. We consider the extreme scenario that the agents face no costs to walking away, and can sign up with any competing intermediary without any reputational losses. We demonstrate that not only autarky, but also partial and full insurance can obtain, depending on the relative patience of agents and financial intermediaries. Insurance can be provided because in an equilibrium contract an up-front payment e.ectively locks in the agent with an intermediary. We then show that our contract economy is equivalent to a consumption-savings economy with one-period Arrow securities and a short-sale constraint, similar to Bulow and Rogo. (1989). From this equivalence and our characterization of dynamic contracts it immediately follows that without cost of switching financial intermediaries debt contracts are not sustainable, even though a risk allocation superior to autarky can be achieved. JEL Klassifikation: G22, E21, D11, D91.
Default risk sharing between banks and markets : the contribution of collateralized debt obligations
(2005)
This paper contributes to the economics of financial institutions risk management by exploring how loan securitization a.ects their default risk, their systematic risk, and their stock prices. In a typical CDO transaction a bank retains through a first loss piece a very high proportion of the expected default losses, and transfers only the extreme losses to other market participants. The size of the first loss piece is largely driven by the average default probability of the securitized assets. If the bank sells loans in a true sale transaction, it may use the proceeds to to expand its loan business, thereby incurring more systematic risk. We find an increase of the banks' betas, but no significant stock price e.ect around the announcement of a CDO issue. Our results suggest a role for supervisory requirements in stabilizing the financial system, related to transparency of tranche allocation, and to regulatory treatment of senior tranches. JEL Klassifikation: D82, G21, D74 .
This paper makes an attempt to present the economics of credit securitization in a non-technical way, starting from the description and the analysis of a typical securitization transaction. The paper sketches a theoretical explanation for why tranching, or nonproportional risk sharing, which is at the heart of securitization transactions, may allow commercial banks to maximize their shareholder value. However, the analysis makes also clear that the conditions under which credit securitization enhances welfare, are fairly restrictive, and require not only an active role of the banking supervisiory authorities, but also a price tag on the implicit insurance currently provided by the lender of last resort. Klassifikation: D82, G21, D74. February 16, 2005.
We selectively survey, unify and extend the literature on realized volatility of financial asset returns. Rather than focusing exclusively on characterizing the properties of realized volatility, we progress by examining economically interesting functions of realized volatility, namely realized betas for equity portfolios, relating them both to their underlying realized variance and covariance parts and to underlying macroeconomic fundamentals.
From a macroeconomic perspective, the short-term interest rate is a policy instrument under the direct control of the central bank. From a finance perspective, long rates are risk-adjusted averages of expected future short rates. Thus, as illustrated by much recent research, a joint macro-finance modeling strategy will provide the most comprehensive understanding of the term structure of interest rates. We discuss various questions that arise in this research, and we also present a new examination of the relationship between two prominent dynamic, latent factor models in this literature: the Nelson-Siegel and affine no-arbitrage term structure models. JEL Klassifikation: G1, E4, E5.
What do academics have to offer market risk management practitioners in financial institutions? Current industry practice largely follows one of two extremely restrictive approaches: historical simulation or RiskMetrics. In contrast, we favor flexible methods based on recent developments in financial econometrics, which are likely to produce more accurate assessments of market risk. Clearly, the demands of real-world risk management in financial institutions - in particular, real-time risk tracking in very high-dimensional situations - impose strict limits on model complexity. Hence we stress parsimonious models that are easily estimated, and we discuss a variety of practical approaches for high-dimensional covariance matrix modeling, along with what we see as some of the pitfalls and problems in current practice. In so doing we hope to encourage further dialog between the academic and practitioner communities, hopefully stimulating the development of improved market risk management technologies that draw on the best of both worlds.
This study offers a historical review of the monetary policy reform of October 6, 1979, and discusses the influences behind it and its significance. We lay out the record from the start of 1979 through the spring of 1980, relying almost exclusively upon contemporaneous sources, including the recently released transcripts of Federal Open Market Committee (FOMC) meetings during 1979. We then present and discuss in detail the reasons for the FOMC's adoption of the reform and the communications challenge presented to the Committee during this period. Further, we examine whether the essential characteristics of the reform were consistent with monetarism, new, neo, or old-fashioned Keynesianism, nominal income targeting, and inflation targeting. The record suggests that the reform was adopted when the FOMC became convinced that its earlier gradualist strategy using finely tuned interest rate moves had proved inadequate for fighting inflation and reversing inflation expectations. The new plan had to break dramatically with established practice, allow for the possibility of substantial increases in short-term interest rates, yet be politically acceptable, and convince financial markets participants that it would be effective. The new operating procedures were also adopted for the pragmatic reason that they would likely succeed. JEL Klassifikation: E52, E58, E61, E65.
The Basle securitisation framework explained: the regulatory treatment of asset securitisation
(2005)
The paper provides a comprehensive overview of the gradual evolution of the supervisory policy adopted by the Basle Committee for the regulatory treatment of asset securitisation. We carefully highlight the pathology of the new “securitisation framework” to facilitate a general understanding of what constitutes the current state of computing adequate capital requirements for securitised credit exposures. Although we incorporate a simplified sensitivity analysis of the varying levels of capital charges depending on the security design of asset securitisation transactions, we do not engage in a profound analysis of the benefits and drawbacks implicated in the new securitisation framework. JEL Klassifikation: E58, G21, G24, K23, L51. Forthcoming in Journal of Financial Regulation and Compliance, Vol. 13, No. 1 .
Humanpharmaka stellen eine permanente Belastung von Gewässern dar. Im Rahmen der vorliegenden Arbeit wurde erstmals gemäß dem von der Europäischen Arzneimittelagentur EMEA entwickelten Konzept zur Durchführung von Umweltrisikobewertungen von Humanpharmaka mit mehreren ausgewählten Substanzen Umweltrisikobewertungen durchgeführt. Die hierfür ausgewählten Pharmaka sind das Antiepileptikum Carbamazepin (CBZ), das Antibiotikum Sulfamethoxazol (SMX) und das synthetische Östrogen 17a-Ethinylöstradiol (EE2). Als Vertreter der Inhaltsstoffe von Körperpflegeprodukten wurde der polyzyklische Moschusduftstoff Tonalid (AHTN) in die Untersuchungen mit einbezogen. Mit Hilfe von Literaturrecherchen wurde die Datengrundlage für Expositions- und Wirkungsabschätzungen bereitgestellt. Der vorhandene recherchierte Datensatz wurde mit entsprechenden Kurz- und Langzeitstudien ergänzt. Die mit den Ergebnissen der Expositions- und Wirkungsabschätzungen vorgenommenen Umweltrisikobewertungen ergaben im ersten Schritt basierend auf Kurzzeitstudien unter den ausgewählten Substanzen lediglich für den Moschusduftstoff AHTN ein erhöhtes Umweltrisiko für Oberflächengewässer. Basierend auf weiterführenden Langzeitstudien konnte das zunächst erkannte, durch AHTN indizierte Umweltrisiko entkräftet werden, jedoch ergaben die Risikocharakterisierungen für EE2 und SMX ein erhöhtes Risiko für das aquatische Kompartiment. Auf Grund der erhöhten Adsorptionspotenziale von CBZ, EE2 und AHTN wurden für diese Substanzen kompartimentspezifische Umweltrisikocharakterisierungen durchgeführt. Dabei wurde ein erhöhtes Umweltrisiko durch CBZ für das Kompartiment Sediment angezeigt. Basierend auf den Ergebnissen einer Sediment-Bioakkumulationsstudie mit dem endobenthischen Oligochaeten Lumbriculus variegatus, welche in einen unerwartet hohen Akkumulationsfaktor resultierte, und aus der Literatur verfügbaren Fisch-Biokonzentrationsfaktoren wurde anhand der Nahrungskette Wasser-Sediment-Wurm-Fisch die Möglichkeit des ‚secondary poisonings’ durch EE2 bei wurmfressenden Fischen unter natürlichen Bedingungen aufgezeigt. Zur Verwendung dieses Ergebnisses in einer Umweltrisikobewertung zum Zwecke der Zulassung von Pharmaka sollten weitergehende Untersuchungen zur Bestätigung durchgeführt werden. Bezugnehmend auf die Resultate der eigenen Studien und auf die besonderen Eigenschaften von Humanpharmaka wurde der EMEA-Richtlinienentwurf diskutiert und Verbesserungsvorschläge erarbeitet. Bis auf wenige Anpassungen geht das EMEA-Bewertungsschema nicht auf die Besonderheiten und spezifischen Eigenschaften von Humanpharmaka ein. Hauptkritikpunkte bezogen sich auf (1) die Anwendung eines konzentrationsabhängigen Schwellenwertes als Entscheidungsgrundlage zur Durchführung einer Risikocharakterisierung, (2) das stufenweise Vorgehen bei der Wirkungsabschätzung mit zuerst ausschließlich auf Kurzzeitstudien basierenden Effektdaten, und (3) unzureichende Angaben zu Vorgehensweisen in der höheren Stufe des Bewertungsschemas, vor allem bei Substanzen mit außergewöhnlichem ökotoxikologischen Potenzial. Trotz der zur Zeit intensiven internationalen Diskussion über mögliche Auswirkungen durch endokrine Disruptoren auf Mensch und Umwelt sieht der EMEA-Richtlinienentwurf nicht ausdrücklich vor, die Umweltgefährdung durch potenziell endokrin wirksame Substanzen mit spezifischen Testmethoden festzustellen und zu bewerten. Die Erkenntnis, dass spezifische Wirkmechanismen bei Chemikalien, speziell bei Arzneimitteln und Bioziden, auch in sehr niedrigen Konzentrationen zu Wirkungen in der Umwelt führen können, bleibt im EMEA-Richtlinienentwurf auf Grund der Einführung eines expositionsbezogenen Schwellenwertes und der Wirkungsabschätzung mittels Akutstudien nur unzureichend berücksichtigt. Zur Schließung dieser Lücke, die durch Untersuchungen zu endokrinen Wirkungen in der Umwelt offensichtlich wurde, müssen neue und bessere ökotoxikologische Instrumente entwickelt werden und das Umweltrisikobewertungsschema entsprechend erweitert und angepasst werden.
Eine große Herausforderung auf dem Forschungsgebiet der P2-Rezeptoren stellt die Entwicklung von potenten und selektiven Antagonisten für die einzelnen Rezeptorsubtypen dar, um die P2-Rezeptoren in nativen Geweben zu identifizieren und ihre physiologische und pathophysiologische Funktion aufzuklären. Ziel dieser Arbeit war zum einen die Entwicklung solcher P2-Antagonisten und zum anderen der Vergleich der pharmakologischen Befunde, die an nativen P2-Rezeptoren humaner Thrombozyten und isolierter Organe der Ratte sowie des Meerschweinchens ermittelt wurden, mit Ergebnissen an rekombinanten Rezeptoren, um somit Aussagen über P2-Rezeptoren verschiedener Spezies sowie nativer und rekombinanter P2-Rezeptoren treffen zu können. Mit Hilfe der P2Y1- und P2Y12-Standardantagonisten MRS2179, A3P5P und 2-meSAMP konnte gezeigt werden, dass für die ADP-induzierte Aggregation von in Puffer suspendierten Thrombozyten die gleichzeitige Aktivierung von P2Y1- und P2Y12-Rezeptoren zwingend erforderlich ist. Dagegen handelt es sich bei ADP- bzw. abmeATP-induziertem „shape change“ und Anstieg der intrazellulären Calciumkonzentration um rein P2Y1- bzw. P2X1-vermittelte Effekte humaner Thrombozyten, die zur Charakterisierung von Antagonisten an diesen Rezeptoren geeignet sind. Weiterhin wurden Untersuchungen am P2X1-Rezeptor des Ratten-Vas-deferens sowie am P2X3- und P2Y1-Rezeptor des Meerschweinchen-Ileum durchgeführt. Ausgehend von den Leitstrukturen Suramin und PPADS wurden Strukturmodifikationen vorgenommen mit dem Ziel, die Wirkstärke und die Selektivität zu erhöhen. Bei PPADS ist es durch Variation des Restes am Pyridoxalphosphat gelungen, sowohl P2X1- wie auch P2Y1-selektive Antagonisten zu entwickeln. Mit dem Ersatz des Phenylrestes durch einen Naphthylrestes beim PPNDS wurde die größte P2X1-versus P2Y1-Selektivität erreicht, wohingegen das Heterodimer SB9, bestehend aus Pyridoxalphosphat und einem Suraminmonomer, eine P2Y1-versus P2X1-Präferenz aufweist. Die einzelnen PPADS-Analoga unterscheiden sich hinsichtlich ihrer Kinetik und des antagonistischen Mechanismus. Bei einigen Substanzen wurde ein kompetitiver, bei anderen ein „pseudoirreversibler“ oder nichtkompetitiver Antagonismus beobachtet. Im Gegensatz zu den P2-Rezeptoren glattmuskulärer Organe zeigen alle untersuchten PPADS-Analoga an P2-Rezeptoren der Thrombozyten einen nichtkompetitiven Antagonismus. Weiterhin wurde beobachtet, dass die Strukturmodifikationen einen wesentlich geringeren Einfluss auf die Wirkstärke an P2-Rezeptoren der Thrombozyten haben als an den Rezeptoren glattmuskulärer Organe. Bei den Suraminanaloga ist es gelungen durch Strukturmodifikationen potente und selektive Antagonisten für humane P2X1-Rezeptoren zu entwickeln. Es zeigte sich, dass die tetravalenten Verbindungen NF449, NF110 und NF864 eine wesentlich höhere Affinität zum P2X1-Rezeptor humaner Thrombozyten aufweisen als ihre bivalenten Analoga. Die größte P2X1- versus P2Y1-Selektivität wurde bei NF110 erreicht, die größte Wirkstärke am P2X1-Rezeptor dagegen ist beim NF864 zu finden. Bei der Substanz NF864 handelt es sich um den derzeit potentesten P2X1-selektiven Antagonisten humaner Thrombozyten. Somit sollte sich NF864 zur Untersuchung der Beteiligung des P2X1-Rezeptors an der Hämostase als nützlich erweisen. Korrelationen der Ergebnisse des abmeATP-induzierten „shape change“ mit denen des abmeATP-induzierten Calciumeinstroms in Thrombozyten zeigten, dass beide Vorgänge allein durch den P2X1-Rezeptor vermittelt werden und wahrscheinlich über den gleichen Transduktionsweg ablaufen. Intrazellulärer Calciumanstieg und „shape change“, die durch ADP ausgelöst werden, sind ausschließlich P2Y1-vermittelt, verlaufen aber unter Umständen über unterschiedliche Transduktionswege. Vergleicht man die Ergebnisse, die an humanen Thrombozyten ermittelt wurden mit denen der isolierten Organe so ist weder bei der Wirkstärke noch beim antagonistischen Mechanismus eine völlige Übereinstimmung festzustellen. Auch der Vergleich der Ergebnisse, die an nativen P2X1-Rezeptoren ermittelt wurden, mit Daten an rekombinanten Rezeptoren ergaben weder bei den Thrombozyten, noch bei den isolierten Vasa deferentia der Ratte eine klare Korrelation. Struktur-Wirkungs-Beziehungen von P2X1-Antagonisten sind somit scheinbar nur innerhalb eines Modells möglich. Die Interpretation auf antagonistische Potenzen von Verbindungen zwischen nativen P2X1-Rezeptoren unterschiedlicher Spezies sowie zwischen nativen und rekombinanten P2X1-Rezeptoren einer Spezies müssen nach dem heutigen Stand der Wissenschaft mit Vorsicht betrachtet werden.
Beiträge zur spät- und postglazialen Fluß- und Landschaftsgeschichte im nördlichen Oberrheingraben
(2005)
Die spät- und postglaziale Fluß- und Landschaftsgeschichte im nördlichen Oberrheingraben ist durch einen mehrmaligen Wandel der fluvialen Geomorphodynamik gekennzeichnet. Im Rahmen dieser Studie waren unterschiedliche Entwicklungsphasen der Landschaft mit Hilfe verschiedener Methoden (14C-AMS, IR-OSL, Pollen- und Schwermineralanalysen) erstmals präziser zu datieren. Ab dem Spätglazial entwickelte der nördliche Oberrhein drei Mäandergenerationen. Die Entstehung der Älteren Mäandergeneration setzte vor dem Spät-Allerød ein und dauerte bis in das Atlantikum an, ehe im späten Atlantikum ein flußdynamischer Umbruch die Bildung der Mittleren Mäandergeneration einleitete. Damit begann eine Phase mit vorwiegend toniger Auensedimentation („Schwarze Tone“). Es ist nicht auszuschließen, daß dieses Geschehen teilweise durch die Effekte neolithischer Landnutzung beeinflußt war. Auch der Umbruch zur Jüngsten Mäandergeneration im Übergang vom Subboreal zum Subatlantikum war sicherlich nicht rein klimatisch gesteuert. Wahrscheinlich ist das nun wieder stärker furkativ geprägte Fließmuster und die einhergehende Vergröberung der Auenfazies auf die Überlagerung von natürlichen Abläufen mit anthropogenen Beeinflussungen zurückzuführen. Dafür spricht, daß die Landschaft während der Eisen- und der Römerzeit weitgehend entwaldet war. Die parallel dazu durchgeführten Untersuchungen am spätglazialen Bergstraßen-Neckar erlauben die zeitliche Trennung eines älteren Mäanderkurses, der in der Jüngeren Dryas verlandete, von einem jungdryaszeitlichen Verlauf. In der Paläorinne dieses jüngsten Laufes setzte im frühen Präboreal das Wachstum von Niedermootorfen ein. Das dokumentiert, daß der Bergstraßen-Neckar spätestens im beginnenden Holozän vollständig deaktiviert war. Die Abschnürung des Bergstraßenlaufes erfolgte vermutlich im Anschluß an die letzte würmzeitliche Flugsandphase, die nach schwermineralogischen und tephrostratigraphischen Befunden im Untersuchungsgebiet in die Jüngere Dryas zu stellen ist. Dabei wurde das auf der Oberen Niederterrasse existierende, endpleni- bis frühspätglaziale, zwischenzeitlich vom Bergstraßen-Neckar teilweise fluvial umgelagerte, ältere Dünenrelief überweht, während auf der Unteren Niederterrasse lokale Dünenvorkommen entstanden. Möglicherweise dauerte die Flugsandbildung örtlich bis in das früheste Präboreal an, bevor in den späteren Zeiten des Holozän ein anthropogen induziertes Aufleben der Flugsandaktivität zu beobachten ist.
Quasikristalle im System Zink-Magnesium-Seltene-Erden : Materialpräparation und Einkristallzüchtung
(2005)
Diese Arbeit beschäftigt sich mit der Materialpräparation und Einkristallzüchtung von Quasikristallen und verwandten Verbindungen im System Zink-Magnesium-Seltene-Erden (Zn-Mg-SE). Für eine Einkristallzüchtung der hochgeordneten primitiv-ikosaedrischen Phase (si Zn-Mg-Ho) wird zuerst eine geeignete Schmelzzusammensetzung ermittelt, aus der si Zn-Mg-Ho primär erstarrt. Es wird gezeigt, daß sich diese auch auf die Seltenen Erden Erbium und Thulium, die einen ähnlich großen Atomradius haben, übertragen läßt. Bei der Verwendung von Seltenen Erden mit größerem Atomradius bildet sich eine bisher unbekannte rhomboedrische Phase mit einer Zusammensetzung von Zn84Mg5SE11, von der im Zn-Mg-Gd--System Einkristalle mit der Bridgman-Methode in einem geschlossenen Tantaltiegel gezüchtet werden. Die Kristallzüchtung von si Zn-Mg-Ho erfolgt sowohl mit der Bridgman-Methode als auch aus einem offenen Tiegel mit Keimvorgabe von oben, wobei die Schmelze mit einer Salzabdeckung vor Verdampfungsverlusten geschützt wird (LETSSG-Methode). Auf diese Weise werden facettierte Einkristalle mit einer Kantenlänge von über einem Zentimeter gezüchtet. Auch von der flächenzentriert-ikosaedrischen Phase im System Zn-Mg-Y, Zn-Mg-Ho und Zn-Mg-Er sowie von der hexagonalen Zn-Mg-Y--Z-Phase werden mit dieser Methode ähnlich große Einkristalle hergestellt. Zur Synthese von größeren Mengen polykristallinen Materials durch Abschrecken und Tempern wird eine Meltspinanlage aufgebaut, die durch die Verwendung eines ebenen Drehtellers (statt des sonst üblichen Rades) sehr kompakt ist und in eine vorhandene Metallschmelzanlage integriert werden kann. Mit diesem Gerät wird quasikristallines si Zn-Mg-Ho einphasig synthetisiert und dekagonales Zn-Mg-Dy, Zn-Mg-Ho und rhomboedrisches Mg21Zn25 als Probenhauptbestandteil hergestellt. Die erzeugten Proben werden zur Untersuchung von Struktur und physikalischen Eigenschaften an Kooperationspartner weitergegeben. Dabei wird ein lokales Strukturmodell der fci und si Quasikristalle mittels Analyse der Atompaarverteilungsfunktionen, die aus Röntgenpulverdaten (Molybdän- und Synchrotronstrahlung) gewonnen werden, entwickelt. Anhand dessen lassen sich erstmals ikosaedrische Cluster in den Quasikristallen eindeutig nachweisen. Die magnetische Suszeptibilität von si Zn-Mg-Ho zeigt bis zu einer Temperatur von 50~mK paramagnetisches Verhalten. Eine magnetische Fernordnung tritt bis zu dieser Temperatur nicht auf. Untersuchungen mit der Radio-Tracer-Methode zeigen, daß Phasonen an der Diffusion in fci Zn-Mg-Y und Zn-Mg-Ho nicht beteiligt sind.
The mammalian retina contains around 30 morphological varieties of amacrine cell types. These interneurons receive excitatory glutamatergic input from bipolar cells and provide GABA- and glycinergic inhibition to other cells in the retina. Amacrine cells exhibit widely varying light evoked responses, in large part defined by their presynaptic partners. We wondered whether amacrine functional diversity is based on a differential expression of glutamate receptors among cell populations and types. In whole cell patch-clamp experiments on mouse retinal slices, we used selective agonists and antagonists to discriminate responses mediated by NMDA/ non-NMDA (NBQX) and AMPA/ KA receptors (cyclothiazide, GYKI 52466, GYKI 53655, SYM 2081). We sampled a large variety of individual cell types, which were classified by their dendritic field size into either narrow-field or wide-field cells after filling with Lucifer yellow or neurobiotin. In addition, we used transgenic GlyT2-EGFP mice, whose glycinergic neurons express EGFP. This allowed us to classify amacrines on basis of their neurotransmitter into either glycinergic or GABAergic cells. All cells (n = 300) had good responses to non-NMDA agonists. Specific AMPA receptor responses could be obtained from almost all cells recorded: 94% of the AII (n = 17), 87% of the narrow-field (n = 45), 81% of the wide-field (n = 21), 85% of the glycinergic (n = 20) and 78% of the GABAergic cells (n = 9). KA receptor selective drugs were also effective on the majority of the AII (79%, n = 14), narrow-field (93%, n = 43), wide-field (85%, n = 26), glycinergic (94%, n = 16) and GABAergic amacrine cells (100%, n = 6). Among the cells tested for the two receptors (n = 65), we encountered both exclusive expression of AMPA or KA receptors and co-expression of the two types. Most narrow-field (70%, n = 27), glycinergic (81%, n = 16) and GABAergic cells (67%, n = 6) were found to have both AMPA and KA receptors. In contrast, only less than half of the wide-field cells (43%, n = 14) were found to co-express AMPA and KA receptors, most of them expressing exclusively AMPA (36%) or KA receptors (21%). We could elicit small NMDA responses from most of the wide-field (75%, n = 13) and GABAergic cells (67%, n = 3), whereas only 47% of the narrow-field (n = 15), 14% of the AII (n = 22) and no glycinergic cell (n = 2) reacted to NMDA. Abstract 83 Our data suggest that AMPA, KA and NMDA receptors are differentially expressed among different types of amacrine cells rather than among populations with different neurotransmitters or different dendritic coverage of the retina. Selective expression of kinetically different glutamate receptors among amacrine types may be involved in generating transient and sustained inhibitory pathways in the retina. Since AMPA and KA receptors are not generally clustered at the same postsynaptic sites, a single amacrine cell expressing both AMPA and KA receptors may provide inhibition with different temporal characteristics to individual synaptic partners.
"In this paper, I analyse the conduct of business rules included in the Directive on Markets in Financial Instruments (MiFID) which has replaced the Investment Services Directive (ISD). These rules, in addition to being part of the regulation of investment intermediaries, operate as contractual standards in the relationships between intermediaries and their clients. While the need to harmonise similar rules is generally acknowledged, in the present paper I ask whether the Lamfalussy regulatory architecture, which governs securities lawmaking in the EU, has in some way improved regulation in this area. In section II, I examine the general aspects of the Lamfalussy process. In section III, I critically analyse the MiFID s provisions on conduct of business obligations, best execution of transactions and client order handling, taking into account the new regime of trade internalisation by investment intermediaries and the ensuing competition between these intermediaries and market operators. In sectionIV, I draw some general conclusions on the re-regulation made under the Lamfalussy regulatory structure and its limits. In this section, I make a few preliminary comments on the relevance of conduct of business rules to contract law, the ISD rules of conduct and the role of harmonisation."
Die rechtliche Beurteilung der Verwendung des Gewinns von Zentralbanken bewegt sich im Überschneidungsbereich von: 1) Währungsrecht 2) Finanzverfassungsrecht und 3) Finanzpolitik. Rechtliche Bedenken ergeben sich im Wesentlichen aus den verfassungsrechtlichen Vorgaben für die Staatsfinanzierung sowie aus der Garantie der Unabhängigkeit der Europäischen Zentralbank und der Bundesbank. Maßgebende Rechtsquellen sind sowohl das Recht der Europäischen Union als auch das deutsche Finanzverfassungsrecht, angereichert um das einfache Haushaltsrecht des Bundes.
Das Recht der sog. eigenkapitalersetzenden Gesellschafterdarlehen ist in der jüngeren Vergangenheit zunehmend Gegenstand der Kritik geworden. Mit dem nachfolgenden Beitrag wird auf der Grundlage einer kritischen Analyse der lex lata ein Vorschlag für eine Vereinfachung der Regeln über die Gesellschafterfremdfinanzierung in der Krise entwickelt.
Der vorliegende Beitrag - die stark überarbeitete Fassung des Vortrages "Lektüren des Unausdeutbaren ", den der Verfasser im Januar 2004 im Rahmen der kulturwissenschaftlichen Vortragsreihe GrenzBereiche des Lesens hielt - ist auch erschienen in: literatur für leser 27 (2004), Heft 4, S. 181-199. Ein Beispiel für die Schwierigkeit der literarischen Lektüre gibt Friedrich Schmidt. Er untersucht Lektüremöglichkeiten für das formale wie semantische "Abgebrochensein" des literarischen Kunstwerks der Moderne, wie es in den Fragmenten Kafkas seinen exponierten Ausdruck findet. In diesen Texten tritt zur äußeren Unabgeschlossenheit des Textkorpus ein brüchiges Sinngefüge: die Endlosigkeit der Reflexionen und Handlungszüge, die Heterogenität der Erzählfiguren, die Inkonsistenz jeder Bedeutungskonstruktion von Seiten des Lesers. Indem überdies der Abbruch, als verlorene Schrift oder verschwiegene Botschaft, in Kafkas Fragmenten explizit zum Thema wird, erhebt sich der Text gleichzeitig zum metareflexiven Kommentar: er vollzieht selbst, wovon er spricht. Insofern handelt er – sprachskeptisch – vom Defizit seines eigenen Ausdrucks, das letztlich auch von Lektüren nie vollständig eingeholt werden kann.
Im Mittelpunkt der Arbeit steht die theoretische Beschreibung von ultraschnellen nichtadiabatischen cis-trans-Photoisomerisierunen in kondensierter Phase. Zu diesem Zweck wurde auf einen etablierten Modell-Hamilton-Operator zur Darstellung des isomerisierenden Systems zurückgegriffen und die Wechselwirkung mit der Umgebung im Rahmen der Redfield-Theorie behandelt. Eine gängige Näherung im Rahmen der Redfield-Theorie ist die Säkularnäherung, welche eine deutliche Reduktion des numerischen Aufwands bewirkt. Allerdings liefert die Säkularnäherung keine korrekte Beschreibung der Dynamik für Systeme, welche Regelmäßigkeiten im Eigenwertspektrum aufweisen, was für die in dieser Arbeit benutzten Isomerisierungsmodelle mit harmonischen Schwingungsmoden zutrifft. Andererseits verbietet sich für diese Systeme aus numerischer Sicht der Redfield-Algorithmus mit vollem Relaxationstensor. Daher wurde in dieser Arbeit ein nichtsäkularer Algorithmus entwickelt, der durch die Berücksichtigung der wichtigsten nichtsäkularen Terme eine adäquate Beschreibung der Dynamik im Rahmen der Redfield-Theorie liefert und gleichzeitig zu einer durchschnittlichen Reduktion der Rechenzeit auf ein Zehntel gegenüber der vollen Redfield-Rechnung führt. Im Rahmen der Redfield-Theorie wurden dann Dekohärenz- und dissipative Effekte für ein zweidimensionales Isomerisierungsmodell untersucht, wobei die unterschiedliche nichtadiabtische Dynamik an einer konischen Durchschneidung versus einer vermiedenen Kreuzung im Mittelpunkt des Interesses stand. Fazit dieser Studie ist, dass die konische Durchschneidung ein schnelles Abklingen anfänglicher Kohärenzen und eine effiziente Energieabgabe an die Umgebung bewirkt, was zu einer um eine Größenordnung schnelleren Isomerisierung gegenüber der vermiedenen Kreuzung führt. Daraus kann gefolgert werden, dass der photochemische Trichter tatsächlich der bevorzugte Reaktionsweg bei ultraschnellen internen Konversionsprozessen ist. Ein weiteres Anliegen dieser Arbeit war die Simulation von zeit- und frequenzaufgelösten Pump-Probe-Spektren für Photoreaktionen in dissipativer Umgebung. Hierzu wurde der Doorway-Window-Formalismus herangezogen, bei dem die Wechselwirkung der Pump- und Probepulse mit dem System im Doorway- bzw. Window-Operator enthalten ist. Für diese wurden unter der Annahme gaussförmiger Laserpulse durch analytische Integration der zweizeitigen Antwortfunktionen explizite Ausdrücke erhalten, die in den Redfield-Algorithmus integriert wurden. Somit existiert nun eine Methode zur Berechnung von Pump-Probe-Spektren, deren Skalierungsverhalten durch den Redfield-Algorithmus bestimmt wird. Diese Methode wurde dann angewandt für eine umfangreiche Modellstudie zu PumpProbe-Spektren von Isomerisierungsreaktionen in dissipativer Umgebung. Dabei wurden potentielle Probleme bei der Interpretation von transienten Spektren durch die Überlagerung und teilweisen Auslöschung der spektralen Beiträge zum Gesamtsignal aufgezeigt und diskutiert. In einer weiteren Studie wurde die Methode benutzt, um am Beispiel eines Morse-Oszillators zeitaufgelöste IR-Experimente zu simulieren, wie sie zur Gewinnung von modenselektiven Informationen über eine Reaktion durchgeführt werden.
1. Das Gemeinschaftsrecht garantiert durch Art. 108 EGV umfassend die Weisungsfreiheit der Europäischen Zentralbank und der nationalen Zentralbanken als Institution. Diese Garantie erfasst auch die natürlichen Personen, die Mitglieder der Entscheidungsgremien sind. 2. Hinzu treten weiter Regelungen des Gemeinschaftsvertrages und der Satzung von ESZB und EZB, welche diese Garantie zu einer allgemeinen Unabhängigkeitsgarantie ausbauen und verstärken. 3. Garantiert ist vor allem auch die persönlicher Unabhängigkeit der Mitglieder in den Entscheidungsgremien. 4. Von wenigen Ausnahmen abgesehen, sind diese Regelungen für das sekundäre Gemeinschaftsrecht unantastbar. Als Teil des primären Gemeinschaftsrechts können sie prinzipiell nur durch Vertragsänderung, also einstimmig verändert werden. 5. Diese europarechtlichen Garantien werden über Art. 88 Satz 2 GG für die Bundesbank als integrales Bestandteil des ESZB in das deutsche Verfassungsrecht transponiert. Daraus ergibt sich eine „gemeinschaftsrechtlich vermittelte verfassungsrechtliche Unabhängigkeitsgarantie“ für die Bundesbank. 6. Die Regelung ist mit dem Demokratieprinzip vereinbar. 7. Änderungen der umfassenden Garantie können die verfassungsrechtlichen Voraussetzungen für die Übertragung der währungs- und notenbankpolitischen Befugnisse auf das ESZB entfallen lassen. 8. Der Entwurf einer Verfassung für Europa enthält keine verfassungsrechtlich relevanten Relativierungen der Unabhängigkeitsgarantie. 9. Das Ziel der Preisstabilität hat den ihm gebührenden Rang behalten. Bei genauer Analyse zeigt sich auch, dass sein besonderer Rang für die Tätigkeit des ESZB nicht beeinträchtigt ist. 10. Ein Vergleich der verschiedenen sprachlichen Fassungen des Verfassungsvertrages zeigt auch, dass – entgegen dem deutschen Text – die EZB nicht als – möglicherweise weniger unabhängiges - Organ der EU, sondern als sonstige Einrichtung eingestuft worden ist.
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Thomas Küpper nimmt in seinem Beitrag das Kriterium der Wiederholungslektüre, das als Qualitäts- und Differenzmerkmal ästhetisch anspruchsvoller Literatur gilt, zum Anlass, die Grenzziehung zwischen Kitsch und Kunst genauer zu überdenken. Nicht die Wiederholungslektüre an sich macht bereits den Unterschied, vielmehr muss eine Unterscheidung zwischen verschiedenen Formen der Wiederholungslektüre getroffen werden. In systemtheoretischer Perspektive lässt sich eine solche typologische Differenzierung anhand des je spezifischen Verhältnisses von Medium, d.h. hier: der Gattungen, und der Form, d.h. der Texte, präzise vornehmen. Trivialliteratur unterscheidet sich dann von der Kunst, insofern ihre Medien der eigentlichen Formrealisierung nur wenig Spielraum lassen: Nicht die Abweichung, sondern die Bestätigung der gegebenen Schemata wird honoriert. Auch der Kitsch bietet Variationen des Bekannten, doch – und hier nähert er sich der Kunst an – die vertrauten und wiederholten Muster werden als einmalige und besondere Formen von bleibendem Wert inszeniert. Am Beispiel des Kultfilms "Pretty Woman" spielt Thomas Küpper diese unterschiedlichen Lektüren durch und zeigt an diesem vermeintlich eindeutig trivialen Fall, dass sich die Faszination des Films den vielen Wiederholungen verdankt.
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. In ihrem Beitrag zu Spannungsliteratur und Lesepraxen um 1800 entwirft Ute Dettmar aus kultursoziologischer Perspektive ein Bild von der Vielfalt und Dynamik der kulturellen, literarischen und diskursiven Praxen des ausgehenden 18. Jahrhunderts. Die Gleichzeitigkeit von ästhetisch-normierender Auseinandersetzung um die Faszination des Schrecklichen, von aufgeklärter Lesekritik und einer unbefangenen bürgerlichen Lese- und Theaterpraxis, die sich nicht an das vorgegebene Maß und die Grenzen eines autonomieästhetisch konstituierten Kunstbegriffs hält, charakterisiert das spannungsreiche Mit- und Gegeneinander dieser Umbruchzeit. Anhand der Lektüre populärer Räuberromane erweist sich, dass Grenzziehungen zwischen hoch- und unterhaltungskulturellen Textverwendungsweisen weder in Hinblick auf Stoffe und Gattungen, noch in Hinblick auf die lesende Öffentlichkeit hier bereits rigide gezogen sind.
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Manuel Gujber widmet sich einem vordergründig "sprachlosen" Gegenstand: der Architektur. Sein Interesse gilt dabei dem Spannungsverhältnis zwischen architektonischer Konstruktion und Oberfläche – der "Haut" des Hauses. So bietet die architektonische Oberfläche nicht nur fortwährend neue Möglichkeiten der Gestaltung sondern auch der Interpretation – Lesarten, in denen sich das Verhältnis zwischen "Haut" und "Haus" sowie von deren Wahrnehmung spiegelt.
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Ein weiterer medialer Wechsel vollzieht sich im Beitrag von Annette Becker, der dem Fernsehen, genauer: dem Fernsehinterview gilt. Anhand verschiedener Fernsehinterviews zum gleichen politischen Anlass wird gezeigt, dass und wie verschiedene Lesarten solcher Interviews mit linguistischen Mitteln greif- und analysierbar gemacht werden können.
Protected Mode
(2005)
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Gegenstand von Harald Hillgärtners Untersuchung ist die Frage nach der Lesbarkeit des Computers, vielmehr seiner System- und Programmcodes. Gilt der Computer einerseits als "Textmaschine", die endlose Schreib- und Leseakte prozessiert, so finden jene Programmabläufe doch zumeist jenseits der für alle zugänglichen Benutzeroberflächen statt, die ihrerseits in immer stärkerem Maß mit Icons – Bildern – arbeiten. Und selbst im Falle von frei zugänglichen Software-Codes ist zu fragen, um welche Art Text es sich hier handelt – ob in diesen Fällen gar von Literatur die Rede sein kann. Insofern ist die Frage nach der Lesbarkeit des Computers nicht nur eine Frage nach der Zukunft des Lesens (geht es um Sinn oder um Information?) sondern vielmehr nach dem (Zu-)Stand unserer Schriftkultur selbst.
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Irene Pieper beschäftigt sich aus literaturdidaktischer und lesesoziologischer Perspektive mit der kulturellen Praxis des Lesens. Ihr Beitrag entwickelt systematisch, worin die "Kunst" des literarischen Lesens im Einzelnen besteht und wie diese Kompetenz methodisch in der Auseinandersetzung mit dem Gegenstand Literatur zu erwerben bzw. zu vermitteln ist. Ein kompetenter Leser zu werden heißt, ein breites Spektrum von Fähigkeiten zu erwerben, das vom Realisieren der poetischen Funktion der Literatur über die Empathiefähigkeit bis hin zur Lust am Text reicht. Der Beitrag lotet aus, in welcher Weise vor allem die Schule, die außerhalb der Familie Begegnungen mit und Kommunikationen über Literatur herbeiführt und anregt, an der Bildung solcher Leser und Leserinnen mitwirken kann.
Im Jahr 2003 innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Sabine Nessel eröffnete die Vortragsreihe mit Beobachtungen zum Lektürebegriff hinsichtlich des Phänomens Film: am Beispiel von Otto Premingers "Bonjour Tristesse" zeigt sie, wie die seit den späten 1960er Jahren übliche Übertragung des Textparadigmas auf den Film im Folgenden eine Erfassung des „Erlebnis Kino“ als Ereignis verstellte. Im Durchgang durch verschiedene Filmtheorien zeigt sie auf, dass Filme zwar "gelesen" aber auch auf einer Ebene jenseits des Kino-Texts somatisch rezipiert – "genossen" – werden, dass also die Begriffe Film, Text und Lesen auf die Bereiche Kino, Ereignis und Erleben hin zu erweitern sind.
Am 8 Juni 2004 innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Auch Musik wird "gelesen", nämlich immer dann, wenn es um theoretische Deutungen musikalischer Werke geht. Diese untersucht Ferdinand Zehentreiter, und zwar hinsichtlich der zwei gegensätzlichen Betrachtungsweisen, die sich traditionell in der Interpretation von Musik herausgebildet haben. Geht es einerseits um eine formale Zergliederung der Werke, so werden andererseits außermusikalische Inhalte zur philologischen Erforschung herangezogen. Demgegenüber steht die Beobachtung, dass Kompositionen immanent als Ausdrucks- oder Sinngebilde sui generis nur in Ausnahmefällen entschlüsselt werden, etwa bei E.T.A. Hoffmann, Roland Barthes oder Th. W. Adorno. Der Beitrag geht der Frage nach, ob und wie diese grundlegende Problemkonstellation der Musikwissenschaft heute überwunden werden kann.
Die Alzheimer-Demenz (AD) ist gekennzeichnet durch extrazelluläre Ablagerungen des Amyloid-beta-Peptids (Aß), durch neurofibrilläre Bündel bestehend aus dem Tau-Protein, massiven Neuronenverlust und synaptische Dysfunktion. Weiterhin ist bekannt, dass mitochondriale Dysfunktion sowie ein gestörter NO-Stoffwechsel eine entscheidende Rolle bei der AD spielen. Um genauere Informationen über die Ursache der mitochondrialen Dysfunktion zu erhalten, wurden akute, chronische und dosisabhängige Effekte von Aß auf die NO-Produktion und die mitochondriale Funktion untersucht. Als Zellkulturmodelle standen PC12- und HEK-Zellen zur Verfügung, die entweder mit humanem Wildtyp-APP (APPwt) oder mit der schwedischen Doppelmutation im APP-Gen (APPsw) stabil transfiziert waren. APPsw-PC12-Zellen wiesen Aß-Spiegel im pikomolaren Bereich auf. Im Vergleich dazu hatten APPsw-HEK-Zellen ca. 20fach erhöhte Aß-Spiegel im niedrig-nanomolaren Bereich. Interessanterweise wiesen sowohl APPsw-PC12- als auch APPsw-HEK-Zellen im Vergleich zu den jeweiligen Kontrollzellen signifikant erhöhte NO-Spiegel auf. Dies ging in beiden Zellsystemen mit signifikant erniedrigten ATP-Spiegeln einher. Die Inkubation untransfizierter Zellen mit extrazellulärem Aß1-42 führte nur zu einem schwachen Anstieg der NO-Spiegel und zu einem leichten Abfall der ATP-Spiegel. Dies weist darauf hin, dass in erster Linie intrazelluläre Aß-Effekte den NO-Anstieg und die ATP-Reduktion bewirken. Die 48-stündige Inkubation mit dem gamma-Sekretasehemmstoff DAPT führte zur beinahe vollständigen Normalisierung der NO- und ATP-Spiegel in APP-transfizierten PC12- und HEK-Zellen. Das stützt die Hypothese, dass der gestörte NO-Stoffwechsel und die mitochondriale Dysfunktion durch Aß-Anreicherungen hervorgerufen werden und nicht durch eine Überexpression von APP. Passend zu den reduzierten ATP-Spiegeln zeigten APPsw-PC12-Zellen eine signifikant erniedrigte Cytochrom-C-Oxidase-Aktivität. Des Weiteren konnte APP in Mitochondrien von APPsw-PC12-Zellen nachgewiesen werden. Die Reduktion der ATP-Spiegel und die verminderte Cytochrom-C-Oxidase-Aktivität können also zum einen durch die Aß-bedingten erhöhten NO-Spiegel und zum anderen durch die Anwesenheit von APP bzw. Aß im Mitochondrium hervorgerufen werden. Auf der Ebene des mitochondrialen Membranpotentials wiesen die beiden Zelllinien stark unterschiedliche Ergebnisse auf. APPsw-PC12-Zellen zeigten unter basalen Verhältnissen ein leicht hyperpolarisiertes mitochondriales Membranpotential, was auf einen Gegenregulationsmechanismus hinweist. APPsw-HEK-Zellen wiesen bereits basal ein signifikant erniedrigtes mitochondriales Membranpotential auf. Nach Inkubation mit dem gamma-Sekretasehemmstoff DAPT normalisierte sich sowohl die Hyperpolarisation des mitochondrialen Membranpotentials in APPsw-PC12-Zellen als auch die Depolarisation in APPsw-HEK-Zellen. Anhand der in dieser Arbeit gewonnenen Daten konnte ein Modell sowohl für die sporadische als auch für die familiäre AD entwickelt werden. APPsw-PC12-Zellen spiegeln hierbei die pathogenen Mechanismen in Patienten mit sporadischer AD wider, wohingegen APPsw-HEK-Zellen die initialen Veränderungen bei Patienten mit familiärer AD aufzeigen. Mitochondriale Fehlfunktion und ein gestörter NO-Stoffwechsel stellen entscheidende initiale Pathomechanismen bei AD dar. Innerhalb der Gruppe der Antidementiva konnte gezeigt werden, dass sowohl Ginkgo-biloba-Extrakt als auch Piracetam schützende Effekte auf die mitochondriale Funktion ausüben. Aufgrund der wichtigen Rolle von mitochondrialer Fehlfunktion in der Pathogenese der Alzheimer Demenz stellen Ginkgo-biloba-Extrakt und Piracetam zwei sehr interessante Präventions- und Therapieoptionen bei Patienten mit leichten kognitiven Störungen bzw. bei Patienten mit AD dar.
Am 3 Februar 2004 innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Die potentielle Unabschließbarkeit literarischer Lektüren ist oft mit der Metapher vom Text als Gewebe umschrieben worden. Uwe Wirth widmet sich ihr mit Blick auf den Grenzbereich eines anderen Mediums: des Computers. Findet sich im Hypertext die digitale Einlösung der Metapher vom Textgewebe, so stellt sich aufs Neue die Frage nach den Rollen von Autor und Leser: Der Hypertextleser wird zum editorialen "Spinner" eines Netzes aus semantischem und medialem Gewebe.
Am 10 Februar 2004 innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Claus Zittel diskutiert in seinem Beitrag die Frage der Lesbarkeit von Bildern. Er analysiert die vielfältigen Bedeutungen, Darstellungsfunktionen und den argumentativen Stellenwert von Abbildungen in wissenschaftlichen Abhandlungen der Frühen Neuzeit. Anhand einer Fülle von Beispielen zeigt er, wie undifferenziert und trügerisch die verbreitete Vorstellung von der Evidenz wissenschaftlicher Bilder ist: Abbildungen sind weder eindeutig durch den illustrativen Zweck noch durch eine gegebene Evidenz bestimmt. Die Decodierbarkeit und Überzeugungskraft der Bilder hängt vielmehr von kulturell codierten und etablierten Sicht- und Denkweisen ab, die die Bilder selbst in produktiver Weise mit prägen. Status, Funktionen und Bedeutungen von Abbildungen differieren, und sie können nur angemessen erschlossen – gelesen – werden, wenn die erkenntnistheoretischen Voraussetzungen und praktischen Kontexte ihrer Verwendung mit in Betracht gezogen werden.
In der vorliegenden Arbeit wird die Photodoppelionisation (PDI) von Helium (He) experimentell untersucht. Dazu wurde an der Synchrotronstrahlenquelle Advanced Light Source des Lawrence Berkeley National Laboratory (USA) der vollständig differentielle Wirkungsquerschnitt (FDCS) der PDI von He mit linear sowie mit links und rechts zirkular polarisiertem Licht bei den zwei Photon-Energien E_gamma = 179 eV und 529 eV gemessen. Dabei gelang erstmals eine Messung, bei der die Kontinuumsenergie der Fragmente wesentlich über der Bindungsenergie (79 eV) des Systems liegt. Aufgrund dieser hohen Energie lassen die gemessenen Winkel- und Energieverteilungen erstmals Rückschlüsse auf die Wechselwirkungsprozesse in der Ionisation zu. In allen bisherigen Messungen bei niedrigen Photon-Energien überdeckt der Einfluß der Elektron-Elektron-Wechselwirkung im Endzustand alle Spuren der seit langem theoretisch diskutierten Reaktionsmechanismen. Der FDCS der PDI von He wurde mit einer COLTRIMS (COLd Target Recoil Ion Momentum Spectroscopy)-Apparatur gemessen. Hierbei wird das Gastarget durch eine adiabatische Expansion gekühlt und dann mit dem Photon-Strahl zum Überlapp gebracht. Die bei einer Reaktion freigesetzten Elektronen, deren Summenenergie sich zu E_sum = E_1 + E_2 = E_gamma - 79 eV berechnet (die Summenenergie der beiden Elektronen ist gleich der Überschußenergie E_exc), werden mit einer Energie bis zu E_1,2 = 60 eV durch ein elektrisches und magnetisches Feld im vollen Raumwinkel von 4 pi auf einem großen ortssensitiven Detektor abgebildet. Das elektrische Feld projiziert die kalten Rückstoßionen auf einen zweiten ortssensitiven Detektor. Aus der Flugzeit und dem Auftreffort werden der Ladungszustand und der Impuls der Teilchen ermittelt. Ergebnisse: Die Energieaufteilung auf die beiden Elektronen erfolgt asymmetrisch. Diese Asymmetrie ist bei der PDI 450 eV über der Doppelionisationsschwelle (79 eV) stärker ausgeprägt als bei E_exc = 100 eV. Langsame Elektronen werden generell isotrop zur Polarisation emittiert (beta = 0), während die 100 eV-Elektronen einen Anisotropie-Parameter von beta = 1,7 und die sehr schnellen 450 eV-Elektronen sogar eine Dipolverteilung (beta = 2) bzgl. der Polarisationsachse aufweisen. Eine asymmetrische Energieaufteilung zusammen mit einem Anisotropie-Parameter von beta = 2 für die 450 eV-Elektronen zeigt, daß bei der PDI 450 eV über der Schwelle ein Zwei-Stufen-Prozeß vorliegt, in dem das erste Elektron die Energie und den Drehimpuls des Photons aufnimmt. Das zweite Elektron gelangt dann durch den Shake-off oder den Two-Step-One-Mechanismus ins Kontinuum. Sowohl die Häufigkeitsverteilung der Zwischenwinkel der Elektronen als auch der Verlauf der Quadrate der geraden und der ungeraden Amplituden bei der PDI 450 eV über der Schwelle zeigen, daß sehr langsame Elektronen (2 eV) hauptsächlich durch den Shake-off-Mechanismus ins Kontinuum gelangen, während etwas schnellere 30 eV-Elektronen ihre Energie über einen (e,2e)-Stoß (Two-Step-One-Mechanismus) erhalten. Für 100 eV über der Schwelle zeigt sich, daß der Relativimpulsvektor der beiden Elektronen parallel zum Polarisationsvektor steht. Das bedeutet, daß die PDI von He 100 eV über der Schwelle nicht mehr im Gültigkeitsbereich der Wannier-Näherung liegt. Aufgrund der großen Geschwindigkeitsdifferenzen kann die PDI von Helium parallel zum Polarisationsvektor erfolgen. Der gegen den Zwischenwinkel varphi_12 der Elektronen aufgetragene normierte Zirkulare Dichroismus CD_n ist bei E_exc = 100 eV wesentlich stärker ausgeprägt als bei E_exc = 450 eV. Der Wert des Extremums ist für alle Energieaufteilungen - außer der symmetrischen - gleich. Für beide Überschußenergien findet man eine Abhängigkeit der varphi_12-Position des Extremums von der Energieaufteilung. Die Extreme entfernen sich mit zunehmender asymmetrischer Energieaufteilung von varphi_12=180°. Die experimentell gewonnenen Ergebnisse zu den vollständig differentiellen Wirkungsquerschnitten der PDI von He sowohl mit linear als auch mit links und rechts zirkular polarisiertem Licht bei 100 eV und 450 eV über der Doppelionisationsschwelle zeigen insgesamt gute Übereinstimmungen mit den Ergebnissen der convergent-close-coupling-Rechnungen von A. Kheifets und I. Bray.
Die wissenschaftliche Recherche im Internet gestaltet sich als sehr schwierig, will man relevante Informationen schnell finden. Das Problem ist nicht der Mangel an Informationen sondern vielmehr das Übermaß davon. Außer der Quantität ist es für ein Mitglied einer Hochschule wichtig auf, von der Universität lizenzierte Webseiten zugreifen zu können. Aus einem Suchwerkzeug, wie zum Beispiel Google, kann ein Informationsanbieter nicht erkennen ob der dahinter stehende Benutzer berechtigt ist einen Artikel anzufordern. Ein anderer Aspekt worauf ein Wissenschaftler bei seiner Suche Wert legt, ist die Qualität eines Artikels. Am besten eignen sich hier wissenschaftliche Artikel aus renommierten und angesehenen Zeitschriften. Aus diesem Hintergrund heraus haben sich Informationsanbieter Gedanken gemacht wie man qualitativ hochwertige Artikel schnell in einer Recherche einbinden kann. Die Module, die Entwickelt wurden bilden die Basis für die Software die diese Entwicklungen zusammenfügt und miteinander harmonieren lässt. Für die Identifikation von elektronischen Dokumenten wurde unter anderem der DOI (Digital Object Identifier) entwickelt. Außerdem wichtig für unsere endgültige Software ist der OpenURL Standard. Damit werden die meisten Probleme die bei der mit einer herkömmlichen URL bestehen gelöst. Mit diesem Standard wird anhand von Metadaten eine eindeutige Identifikation eines Dokumentes vorgenommen die zu einem Dokument verlinkt, auch wenn sich seine eigentliche URL geändert hat. Die Diplomarbeit zeigt uns einen Überblick über diese Module. Dieser Lösungsweg führt uns zu einer Technologie die angewandt wird um unser Ausgangsproblem zu lösen. In dieser Software sind, anhand eindeutiger Identifikation, wissenschaftliche Dokumente und Artikel permanent abrufbar ohne der Gefahr einen Artikel durch Änderung seiner URL zu verlieren.
Die Auswertung der Stratigraphien und Keramikinventare des Final Stone Age aus dem südwestlichen Tschadbecken führte zu einer zeitlichen Gliederung der Inventare. Durch die vorgestellten Analysen zu Merkmalen der Keramikform, -technik und -verzierung wurden zwei Stilgruppen - der ältere und der jüngere Gajigannastil - definiert und beschrieben. Für die jüngere Gajiganna Stilphase war eine weitere Unterteilung in drei Stufen möglich, die die keramische Entwicklung zwischen 1.500 BC bis ca. 800 BC gliedern. Das gelang bisher noch nicht mit Keramik der älteren Stilphase. Die Analyse der Grabungsprofile brachte Hinweise zu Speichergruben, ermöglicht Spekulationen über Lehmbauten in Fundplätzen der jüngeren Gajigannaphase und läßt Rückschlüsse auf eine stärkere Geländeprofilierung als die heute anzutreffende zu. Die Einordnung der begangenen Plätze in die Stilgruppen zeigte keine wesentlichen Unterschiede bei der Wahl der Siedlungsplätze. Die Randlage zu den vermutlich nicht nur saisonal gefluteten Tonebenen ist für beide bezeichnend. Die Siedlungsplätze boten in dieser Lage einige Vorteile. Die Sandgebiete dienten als Weiden für Rinder. Fischfang konnte an den Ufern der überschwemmten Gebiete betrieben werden, die ebenfalls ein reiches Reservoir an Wildpflanzen boten, die das Nahrungsangebot ergänzten. Ein Vergleich der Inventare mit anderen westafrikanischen Fundplätzen zeigt, daß die ältere Keramikphase der Gajiganna-Gruppe in einen überregionalen Verzierungstil eingebettet ist, der durch Winkelbänder und dreieckige Einstiche charakterisiert wird und sich über ein weites Gebiet zwischen Sudan im Osten und Niger im Westen spannt. Die hier vorgestellte Keramik der Phase I ist der südlichste Vertreter dieses Verzierungshorizontes. Die jüngere Stilphase konnte bisher nur kleinräumig nachgewiesen werden. Ihr Verbreitungsgebiet scheint auf das Tschadbecken beschränkt zu sein. Das mag entweder im gegenwärtigen Forschungsstand oder in einer um die Mitte des zweiten Jahrtausends beginnenden Regionalisierung der Keramikstile begründet sein. Die einzelnen Ergebnisse flossen in eine modellhafte Abhandlung zur Besiedlungsgeschichte des südwestlichen Tschadbeckens ein. Diese wäre unvollständig gewesen ohne die Ergebnisse der Archäobotanik und der Archäozoologie. Der Nachweis von domestizierter Hirse in den Fundplätzen der jüngeren Gajiganna-Gruppe ab der Stufe 2b ist ein wichtiges Ergebnis, das dazu beiträgt, die Veränderungen zu erfassen, die sich hinter dem Stilwechsel in den Keramikinventaren verbergen. Es scheint so, als hätte sich eine Verschiebung in der Gewichtung von Viehzucht zu Ackerbau vollzogen. Eine Veränderung des Siedlungsverhaltens mit engerer Bindung an die genutzte Fläche könnte eher die Vorbedingung als die Folge gewesen sein. Größere Platzkontinuität ist bereits in Phase 2a zu vermuten, sichtbar gemacht durch die hier erstmalig auftretenden komplexen Stratigraphien und wahrscheinlich begründet durch die verstärkte Nutzung von Wildgetreide. In Phase 2b wird domestiziertes Pennisetum bei einer weitgehend seßhaften Bevölkerung eingeführt. Kein radikaler Wechsel ist in den Strategien der Subsistenzwirtschaft zu beobachten. Stattdessen führt ein allmählicher Prozeß über einige hundert Jahre vom Viehzüchter zum Ackerbauern. Die Beziehungen zwischen den Fundstellen nördlich der Mandaraberge und denen im Gebiet um Zilum einerseits und den hier vorgestellten Fundstellen andererseits deuten auf eine regional in randliche Siedlungsgebiete verschobene Weiterentwicklung bis in die Eisenzeit, während die ehemaligen Kerngebiete wahrscheinlich von anderen Siedlern aus den Firki-Ebenen heraus besiedelt wurden. Offen bleiben müssen Fragen zu Hausbau, Siedlungsstruktur und Größe der Nutzflächen, die jeweils zu einer Siedlung gehörten. Auch fehlen noch hinreichende Daten, um die Beziehungen der Siedlungen untereinander zu erfassen und eventuell vorhandene Netzwerkstrukturen auszuarbeiten. Hier ergeben sich weitere Forschungsfelder, die zu neuen Erkenntnissen zur Stellung des Gajigannakomplexes im Kontext der westafrikanischen Prähistorie führen werden.
The wide-area deployment of WiFi hot spots challenges IP access providers. While new profit models are sought after by them, profitability as well as logistics for large-scale deployment of 802.11 wireless technology are still to be proven. Expenditure for hardware, locations, maintenance, connectivity, marketing, billing and customer care must be considered. Even for large carriers with infrastructure, the deployment of a large-scale WiFi infrastructure may be risky. This paper proposes a multi-level scheme for hot spot distribution and customer acquisition that reduces financial risk, cost of marketing and cost of maintenance for the large-scale deployment of WiFi hot spots.
Abstract: It is commonplace in the debate on Germany's labor market problems to argue that high unemployment and low wage dispersion are related. This paper analyses the relationship between unemployment and residual wage dispersion for individuals with comparable attributes. In the conventional neoclassical point of view, wages are determined by the marginal product of the workers. Accordingly, increases in union minimum wages result in a decline of residual wage dispersion and higher unemployment. A competing view regards wage dispersion as the outcome of search frictions and the associated monopsony power of the firms. Accordingly, an increase in search frictions causes both higher unemployment and higher wage dispersion. The empirical analysis attempts to discriminate between the two hypotheses for West Germany analyzing the relationship between wage dispersion and both the level of unemployment as well as the transition rates between different labor market states. The findings are not completely consistent with either theory. However, as predicted by search theory, one robust result is that unemployment by cells is not negatively correlated with the within cell wage dispersion.
This paper shows that abnormal stock price returns around open market repurchase announcements are about four times higher in Germany than in the US (12% versus 3%). We hypothesize that this observation can be explained by country differences in repurchase regulation. Our empirical evidence indicates that German managers primarily buy back shares to signal an undervaluation of their firm. We demonstrate that the stringent repurchase process prescribed by German law attributes a higher credibility to such a signal than lax US regulations and thereby corroborate our hypothesis.
This paper examines intraday stock price effects and trading activity caused by ad hoc disclosures in Germany. The evidence suggests that the observed stock prices react within 90 minutes after the ad hoc disclosures. Trading volumes take even longer to adjust. We find no evidence for abnormal price reactions or abnormal trading volume before announcements. The bigger the company that announces an ad hoc disclosure, the less severe is the abnormal price effect following the announcement. The number of analysts is negatively correlated to the trading volume effect before the ad hoc disclosure. The higher the trading volume on the last trading day before the announcement, the greater is the price effect after the ad hoc disclosures and the greater the trading volume effect. Keywords: ad hoc disclosure rules, intraday stock price adjustments, market efficiency.
Am 30. November 1745 wurde Henrich Sebastian Hüsgen als einziges Kind von Wilhelm Friedrich Hüsgen und seiner Ehefrau Sara Barbara getauft. Der Vater war seit Mitte des 18. Jahrhunderts in Frankfurt ansässig, ohne jemals das Bürgerrecht zu erwerben. Er trug die Titel eines Brandenburgisch-Ansbachischen und Anhalt-Cöthischen Hofrates und führte als studierter Jurist und unter fremden Namen einige „wichtige Prozesse“ (Gwinner) an den Reichs gerichten. Die meiste Zeit verbrachte er indes mit wissenschaftlichen Studien, er widmete sich der Mathematik und Astronomie und entwarf eine berühmte astronomische Uhr. Der Sohn Henrich Sebastian erhielt eine Erziehung durch Privatlehrer. Gemeinsam mit dem jungen Johann Wolfgang Goethe absolvierte er Schreib- und Zeichenstunden, wobei er nach Goethes Worten nur geringen Eifer zeigte. Nach dem Willen des Vaters ging Hüsgen in die Schweiz, um eine Laufbahn als Handelsmann einzuschlagen. Da er zu diesem Beruf keine Neigung entwickelte, kehrte er ohne ein bestimmtes Lebensziel nach Frankfurt zurück. Er zehrte vom eher bescheidenen Vermögen seiner Familie und widmete sich als Privatier dem Studium der Kunst und Kunstgeschichte. Friedrich Gwinner bemerkte später, hierdurch habe sein „weder von der Wissenschaft genährter, noch von einem belebend geselligen Verkehr im Familienkreis angeregter Geist eine einseitige, in sich gekehrte Haltung und eine gewisse herbe Stimmung erhalten“. Reisen führten Hüsgen zu den Gemäldegalerien in Mannheim und Düsseldorf; ebenso erkundete er die Kunstschätze von Holland und Brabant. Für das Jahr 1780/81 ist eine Tour nach Wien belegt. Hier beeindruckte ihn die kaiserliche Gemäldesammlung, die Christian Mechel in das Belvedere übertragen und erstmals wissenschaftlich-systematisch präsentiert hatte. Eine der wenigen überlieferten Quellen ist Hüsgens Ansuchen um das Bürgerrecht, das er im November 1782 beim Frankfurter Rat einreichte. Er führte darin aus: „Ich bekenne mit zur reformierten Religion, bin noch ledig und gedenke es auch bis dato zu bleiben. Mein kleines Vermögen ist meinen Bedürfnissen angemessen und meine Beschäftigungen mit dem Studio der Kunst und Alterthümer sind bisher Manchem nicht unnützlich gewesen, dafür aber auch selten unbelohnt geblieben.“ Der Rat ent sprach seine Bitte, Hüsgen wurde Frankfurter Bürger. In den 1780er Jahren gründete Hüsgen einen Verlag, in dem er die meisten seiner Schriften selbst herausgab. Gemeinsam mit Johann Gottlieb Prestel vertrieb er graphische Blätter. Wohl durch Vermittlung seines Freundes Johann Isaac von Gerning konnte Hüsgen den Titel eines landgräflich Hessisch-Homburgischen Hofrates erwerben. Hüsgen blieb zeitlebens ledig, er hatte „in den letzten Jahren ziemlich allein gestanden“ (Gwinner) und starb am 8. August 1807. Seine umgangreiche Sammlung wurde durch eine Nichte, die Witwe Dienst, am 9. Mai 1808 in Frankfurt am Main versteigert. Die Auktion erbrachte – ohne Hüsgens stattlichen Dürer-Bestand, der frei Hand verkauft wurde – laut Frankfurter Vergantungsbuch 4.805 Gulden.
Band 1 beinhaltet die alphabetische Gliederung und Band 2 die Gliederung nach der ehemaligen Aufstellung des Kataloges der Bibliothek der deutschen Kolonialgesellschaft. Diese Bibliothek bildet heute die größte und wichtigste geschlossene Gruppe der Sammlung ist die Deutsche Kolonialbibliothek. Sie war im 2. Weltkrieg in einem Thüringer Bergwerk ausgelagert, und wurde nach dem Krieg mit nur relativ wenig Verlusten dem Haus übergeben. Das unschätzbare Grundmaterial der Kolonialbibliothek gab 1964 der Deutschen Forschungsgemeinschaft Anlaß, die Sondersammelgebiete "Afrika südlich der Sahara", "Ozeanien" und teilweise auch die "Allgemeine und vergleichende Völkerkunde" auf die Bibliothek zu übertragen. Dadurch wurde die zeitgerechte Basis zur ständigen Ausweitung der Bestände geschaffen. In der 2. Hälfte des 19. Jahrhunderts entstanden zahlreiche Vereine, die sich um die Betreuung deutscher Auswanderer sowie die Verbreitung kolonialer Ideen bemühten. 1887 verschmolzen die beiden wichtigsten konkurrierenden Vereinigungen, der Deutsche Kolonialverein und die Gesellschaft für Deutsche Kolonisation zur "Deutschen Kolonialgesellschaft" (DKG). Die Mitgliederzahl stieg von 14.800 am Anfang auf 42.600 im Jahre 1914. In den dreißiger Jahren schließlich wurden alle Institutionen der deutschen Kolonialbewegung unter dem Namen Reichskolonialbund zusammengefaßt. 1943 wurde der RKB wegen kriegsunwichtiger Tätigkeit aufgelöst. Die Deutsche Kolonialbibliotbek besteht aus den Bibliotheken mehrerer Kolonialverbände; den größten Bestand brachte die Bibliothek der Deutschen Kolonialgesellschaft ein. Die Kolonialbibliothek enthält etwa 18.000 Monographien zum Kolonialwesen sowie zahlreiche Zeitschriften, die in den allgemeinen Zeitschriftenbestand der StuUB überführt wurden. Der Originalkatalog der Bibliothek existiert noch in seiner alten Form; eine Konkordanz zwischen den Originalsignaturen und den Signaturen der Stadt- und Universitätsbibliothek ist vorhanden. Inhaltlich gliedert sich die Kolonialbibliothek in zwei Bereiche: Literatur zum allgemeinen Kolonialwesen (einschließlich Wirtschaft, Bergbau und Mission) und zu einzelnen Regionen (davon befassen sich ca. 40 Prozent mit Asien, der Südsee und Amerika und ca. 60 Prozent mit Afrika, davon wiederum etwa die Hälfte mit "Deutsch-Afrika"). Es handelt sich bei dem Material um amtliches Schrifttum der europäischen Kolonialmächte sowie um Amtsdrucksachen der Kolonien selbst. Zum anderen enthält die Bibliothek eine Literatursammlung zu allen Fachbereichen, bezogen auf das jeweilige kolonisierte Land: von der Geographie und Wirtschaft bis zur Völkerkunde, einschließlich Vokabelsammlungen und Texten in einheimischen Sprachen, sowie Trivialliteratur, sogenannte Kolonialromane. Die deutsche Kolonialzeit sowie die deutschen Kolonien sind hier in einer Vollständigkeit vertreten wie wohl kaum in einer anderen Bibliothek. Die anderen Kolonialmächte dürften nur jeweils im eigenen Land besser dokumentiert sein. Das Bildarchiv, das zusammen mit. der Bibliothek übergeben wurde, ist digitalisiert und über das Internet ansehbar. Da in der Bibliothek das Portugiesische Kolonialreich praktisch nicht berücksichtigt war, wurde 1973 eine ca. 4200 Titel zählende Sammlung zur portugiesischen Kolonisation in Afrika erworben. Das Bildarchiv ist im Internet verfügbar unter http://www.ub.bildarchiv-dkg.uni-frankfurt.de .