Refine
Year of publication
Document Type
- Article (30890)
- Part of Periodical (11931)
- Book (8323)
- Doctoral Thesis (5741)
- Part of a Book (3723)
- Working Paper (3394)
- Review (2879)
- Contribution to a Periodical (2369)
- Preprint (2318)
- Conference Proceeding (1710)
Language
- German (42634)
- English (30251)
- French (1067)
- Portuguese (723)
- Multiple languages (314)
- Croatian (302)
- Spanish (301)
- Italian (195)
- mis (174)
- Turkish (148)
Is part of the Bibliography
- no (76434) (remove)
Keywords
- Deutsch (1038)
- Literatur (809)
- taxonomy (771)
- Deutschland (543)
- Rezension (491)
- new species (457)
- Frankfurt <Main> / Universität (341)
- Rezeption (325)
- Geschichte (292)
- Übersetzung (271)
Institute
- Medizin (7802)
- Präsidium (5239)
- Physik (4754)
- Wirtschaftswissenschaften (2718)
- Extern (2661)
- Gesellschaftswissenschaften (2378)
- Biowissenschaften (2205)
- Biochemie und Chemie (1978)
- Frankfurt Institute for Advanced Studies (FIAS) (1867)
- Informatik (1709)
We consider unification of terms under the equational theory of two-sided distributivity D with the axioms x*(y+z) = x*y + x*z and (x+y)*z = x*z + y*z. The main result of this paper is that Dunification is decidable by giving a non-deterministic transformation algorithm. The generated unification are: an AC1-problem with linear constant restrictions and a second-order unification problem that can be transformed into a word-unification problem that can be decided using Makanin's algorithm. This solves an open problem in the field of unification. Furthermore it is shown that the word-problem can be decided in polynomial time, hence D-matching is NP-complete.
We consider the problem of unifying a set of equations between second-order terms. Terms are constructed from function symbols, constant symbols and variables, and furthermore using monadic second-order variables that may stand for a term with one hole, and parametric terms. We consider stratified systems, where for every first-order and second-order variable, the string of second-order variables on the path from the root of a term to every occurrence of this variable is always the same. It is shown that unification of stratified second-order terms is decidable by describing a nondeterministic decision algorithm that eventually uses Makanin's algorithm for deciding the unifiability of word equations. As a generalization, we show that the method can be used as a unification procedure for non-stratified second-order systems, and describe conditions for termination in the general case.
1. Das Gemeinschaftsrecht garantiert durch Art. 108 EGV umfassend die Weisungsfreiheit der Europäischen Zentralbank und der nationalen Zentralbanken als Institution. Diese Garantie erfasst auch die natürlichen Personen, die Mitglieder der Entscheidungsgremien sind. 2. Hinzu treten weiter Regelungen des Gemeinschaftsvertrages und der Satzung von ESZB und EZB, welche diese Garantie zu einer allgemeinen Unabhängigkeitsgarantie ausbauen und verstärken. 3. Garantiert ist vor allem auch die persönlicher Unabhängigkeit der Mitglieder in den Entscheidungsgremien. 4. Von wenigen Ausnahmen abgesehen, sind diese Regelungen für das sekundäre Gemeinschaftsrecht unantastbar. Als Teil des primären Gemeinschaftsrechts können sie prinzipiell nur durch Vertragsänderung, also einstimmig verändert werden. 5. Diese europarechtlichen Garantien werden über Art. 88 Satz 2 GG für die Bundesbank als integrales Bestandteil des ESZB in das deutsche Verfassungsrecht transponiert. Daraus ergibt sich eine „gemeinschaftsrechtlich vermittelte verfassungsrechtliche Unabhängigkeitsgarantie“ für die Bundesbank. 6. Die Regelung ist mit dem Demokratieprinzip vereinbar. 7. Änderungen der umfassenden Garantie können die verfassungsrechtlichen Voraussetzungen für die Übertragung der währungs- und notenbankpolitischen Befugnisse auf das ESZB entfallen lassen. 8. Der Entwurf einer Verfassung für Europa enthält keine verfassungsrechtlich relevanten Relativierungen der Unabhängigkeitsgarantie. 9. Das Ziel der Preisstabilität hat den ihm gebührenden Rang behalten. Bei genauer Analyse zeigt sich auch, dass sein besonderer Rang für die Tätigkeit des ESZB nicht beeinträchtigt ist. 10. Ein Vergleich der verschiedenen sprachlichen Fassungen des Verfassungsvertrages zeigt auch, dass – entgegen dem deutschen Text – die EZB nicht als – möglicherweise weniger unabhängiges - Organ der EU, sondern als sonstige Einrichtung eingestuft worden ist.
Der vorliegende Hochschulentwicklungsplan I wurde in seinen Teilen 1, 2 und 4 am 17.10.2001 vom Senat der Johann Wolfgang Goethe-Universitt verabschiedet. Den Teil 3 (Entwicklungspläne der Fachbereiche) nahm der Senat zur Kenntnis. Mit dem Hochschulentwicklungsplan I beschließt der Senat ein strategisches Konzept, in dem die Richtung der Hochschulentwicklung und die Schwerpunktbildung in Forschung und Lehre beschrieben werden. Dieser Plan dient der inneruniversitären Vergewisserung und Bewußtseinsbildung und als Initial für weitere inneruniversitäre Diskussionen und Konkretisierungen. Er beruht auf vorhandenen Planungen der Fachbereiche, Fächer und Zentren und enthält gleichzeitig die Aufforderung, zukünftige Planungen an seinen Zielen und Schwerpunkten auszurichten. Er wird Maßstab bei Berufungen und anderen strategischen Entscheidungen sein. Er muß klare Leitlinien und eine strukturierte Planung vorgeben, damit die Universität den Anforderungen der Zukunft gerecht werden kann, und er muß gleichzeitig eine produktive Fortschreibung ermöglichen, um der Universität ihre Dynamik und ihr Potential zu erhalten, auf kurzfristige Entwicklungen und Innovationen zu reagieren. Als Rahmenplanung verzichtet der Hochschulentwicklungsplan auf Detailvorgaben. Er ist angelegt auf Konkretisierung durch die Organe der Universität, durch Senat und Hochschulleitung und insbesondere durch die Fachbereiche und Zentren der Universität. Der vorliegende Hochschulentwicklungsplan I basiert auf einer ersten Runde der Entwicklungsplanung an der Johann Wolfgang Goethe-Universität, in der Fachbereiche und Senat vorrangig die wichtigsten Grundlinien der Schwerpunkt- und Profilbildung in den Fachbereichen und auf gesamtuniversitärer Ebene herausgearbeitet haben. In einer zweiten Phase werden im Wintersemester weitere Themen in Angriff genommen.(vgl. Teil IV)
Operative Eingriffe am offenen Herzen wie die häufig durchgeführten Bypass- und Herzklappenersatzoperationen bedürfen fast immer der Unterstützung durch die Herz Lungenmaschine bzw. extrakorporale Zirkulation. Durch den Kontakt des Blutes mit nichtorganischen Fremdoberflächen der EKZ kommt es zur Induktion einer transienten Hyperaktivität neutrophiler Granulozyten. Nachdem Herz und Lunge nach Öffnung der Aortenklemme ihre physiologische Funktion wieder aufnehmen und reperfundiert werden, werden aus diesen ischämischen Organen darüber hinaus pathogene Moleküle wie freie Sauerstoffradikale freigesetzt. Von aktivierten Neutrophilen freigesetzte, immmunkompetente Moleküle (z.B. Zytokine) führen zusammen mit diesem oxidativen Stress zu Organdysfunktionen durch Ödembildung in Körpergeweben wie Myokard, Lunge, Gehirn und Gastrointestinaltrakt und dadurch zu typischen Folgeerscheinungen wie z.B. verlängerter postoperativer Beatmungszeit oder (meist transienten) neuropsychologischen Dysfunktionen im Sinne von kognitiven Defiziten. Andere Pathomechanismen wie Mikroembolien durch z.B. Kleinstteilchen und Gasbildungen aus dem OP Gebiet verstärken diese pathogenen Effekte. Resultat ist eine verlängerte Regenerationsdauer und ein verlängerter Krankenhausaufenthalt der operierten Patienten. Zur Minimierung dieser unerwünschten Wirkungen der EKZ wurden in den letzen 20 Jahren diverse Techniken zur Filtration der unterschiedlichen Kreislaufbestandteile innerhalb der EKZ entwickelt. Von besonderem Interesse ist die seit ca. 8 bis 10 Jahren etablierte Filtration aktivierter neutrophiler Granulozyten, die die Hauptverantwortung für das aseptische Entzündungsgeschehen unter Anwendung der EKZ tragen. Entwicklung und Einsatz dieser leukozytenspezifischen Filtersysteme führt zwar zu einer deutlichen Reduktion der zirkulierenden immunaktiven Zellen und zu einer geringgradigen Verringerung der pathogenen EKZ Folgeerscheinungen, die Effektivität der gegenwärtigen Leukozytenfiltration stellt sich allerdings nur in einzelnen Berichten als positiv dar. Die Daten, die einen deutlichen klinischen Vorteil der Leukozytenfiltration zeigen, sind nicht vorhanden. Die unterstützende Anwendung antiinflammatorischer, systemisch angewandter Pharmaka führte zwar bei den meisten Präparaten zu Erfolg versprechenden Ergebnissen im Tierversuch, konnte aber beim operierten Patienten selbst zu keiner deutlichen Verminderung der unerwünschten EKZ Wirkungen beitragen. Unter der Vorstellung, dass gefilterte, aktivierte Leukozyten zum Großteil zwar nicht in den Patientenkreislauf zurückgepumpt werden, jedoch immer noch immunaktive Stoffe von ihnen synthetisiert und sezerniert werden können, liegt es auf der Hand, dass die aktuell zum klinischen Einsatz kommenden Filtersysteme zum Zwecke der Filtrationsoptimierung und konsekutiver Pathogenitätsminimierung durchaus verbesserungsbedürftig sind. Die in Abschnitt 3 angeführten Ergebnisse belegen, dass antikörperbeschichtete Leukozytenfiltermembranen durchaus in der Lage sind, in einem Kreislaufmodell ihre entsprechenden Antigene herauszufiltern und damit zu inaktivieren. Als klinische Anwendung ist dieses Modell allerdings nur unter einem immensem Technik- sowie Kostenaufwand umsetzbar, so dass sich die Frage nach alternativen Lösungsstrategien stellt. Diese Arbeit leistete die theoretische Grundlage zur Entwicklung eines in naher Zukunft möglicherweise klinisch praktikablen Moduls zur Leukozyteninaktivierung. Da anti CD95 IgM in der Lage sind, Apoptose in CD95 Rezeptor tragenden Zellen zu induzieren und diese damit bzgl. ihrer Stoffwechselaktivität zu limitieren bzw. zu inaktivieren, konnte ein ebenfalls in Abschnitt 3 vorgestelltes Modell zeigen, dass in CD 95 Rezeptor tragenden Zellen über ihren Kontakt mit anti CD95 IgM beschichteten Leukozytenfiltermembranen Apoptose induziert werden kann. Ein detailverbessertes, anti CD95 IgM beschichtetes Leukozytenfiltersystem (Leukozyteninhibitionsmodul, „LIM“) zeigte bereits im Schweineversuch eine deutliche Verbesserung der postoperativen Herzfunktion gegenüber der Tiergruppe, die mit herkömmlichem Leukozytenfiltersystem operiert wurde. Außerdem konnte eine deutlich reduzierte Transmigrationsfähigkeit (als Maß des Aktivierungszustandes) der aus dieser EKZ isolierten Neutrophilen nachgewiesen werden, so dass Grund zur Annahme besteht, dass dieses Modell in Zukunft den herkömmlichen Leukozytenfilter ablösen könnte. Mit dieser Arbeit wurde eine Möglichkeit aufgezeigt, wie die Problematik der EKZ induzierten Immunpathogenese grundlegender bekämpft werden kann.
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Thomas Küpper nimmt in seinem Beitrag das Kriterium der Wiederholungslektüre, das als Qualitäts- und Differenzmerkmal ästhetisch anspruchsvoller Literatur gilt, zum Anlass, die Grenzziehung zwischen Kitsch und Kunst genauer zu überdenken. Nicht die Wiederholungslektüre an sich macht bereits den Unterschied, vielmehr muss eine Unterscheidung zwischen verschiedenen Formen der Wiederholungslektüre getroffen werden. In systemtheoretischer Perspektive lässt sich eine solche typologische Differenzierung anhand des je spezifischen Verhältnisses von Medium, d.h. hier: der Gattungen, und der Form, d.h. der Texte, präzise vornehmen. Trivialliteratur unterscheidet sich dann von der Kunst, insofern ihre Medien der eigentlichen Formrealisierung nur wenig Spielraum lassen: Nicht die Abweichung, sondern die Bestätigung der gegebenen Schemata wird honoriert. Auch der Kitsch bietet Variationen des Bekannten, doch – und hier nähert er sich der Kunst an – die vertrauten und wiederholten Muster werden als einmalige und besondere Formen von bleibendem Wert inszeniert. Am Beispiel des Kultfilms "Pretty Woman" spielt Thomas Küpper diese unterschiedlichen Lektüren durch und zeigt an diesem vermeintlich eindeutig trivialen Fall, dass sich die Faszination des Films den vielen Wiederholungen verdankt.
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. In ihrem Beitrag zu Spannungsliteratur und Lesepraxen um 1800 entwirft Ute Dettmar aus kultursoziologischer Perspektive ein Bild von der Vielfalt und Dynamik der kulturellen, literarischen und diskursiven Praxen des ausgehenden 18. Jahrhunderts. Die Gleichzeitigkeit von ästhetisch-normierender Auseinandersetzung um die Faszination des Schrecklichen, von aufgeklärter Lesekritik und einer unbefangenen bürgerlichen Lese- und Theaterpraxis, die sich nicht an das vorgegebene Maß und die Grenzen eines autonomieästhetisch konstituierten Kunstbegriffs hält, charakterisiert das spannungsreiche Mit- und Gegeneinander dieser Umbruchzeit. Anhand der Lektüre populärer Räuberromane erweist sich, dass Grenzziehungen zwischen hoch- und unterhaltungskulturellen Textverwendungsweisen weder in Hinblick auf Stoffe und Gattungen, noch in Hinblick auf die lesende Öffentlichkeit hier bereits rigide gezogen sind.
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Manuel Gujber widmet sich einem vordergründig "sprachlosen" Gegenstand: der Architektur. Sein Interesse gilt dabei dem Spannungsverhältnis zwischen architektonischer Konstruktion und Oberfläche – der "Haut" des Hauses. So bietet die architektonische Oberfläche nicht nur fortwährend neue Möglichkeiten der Gestaltung sondern auch der Interpretation – Lesarten, in denen sich das Verhältnis zwischen "Haut" und "Haus" sowie von deren Wahrnehmung spiegelt.
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Ein weiterer medialer Wechsel vollzieht sich im Beitrag von Annette Becker, der dem Fernsehen, genauer: dem Fernsehinterview gilt. Anhand verschiedener Fernsehinterviews zum gleichen politischen Anlass wird gezeigt, dass und wie verschiedene Lesarten solcher Interviews mit linguistischen Mitteln greif- und analysierbar gemacht werden können.
Protected Mode
(2005)
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Gegenstand von Harald Hillgärtners Untersuchung ist die Frage nach der Lesbarkeit des Computers, vielmehr seiner System- und Programmcodes. Gilt der Computer einerseits als "Textmaschine", die endlose Schreib- und Leseakte prozessiert, so finden jene Programmabläufe doch zumeist jenseits der für alle zugänglichen Benutzeroberflächen statt, die ihrerseits in immer stärkerem Maß mit Icons – Bildern – arbeiten. Und selbst im Falle von frei zugänglichen Software-Codes ist zu fragen, um welche Art Text es sich hier handelt – ob in diesen Fällen gar von Literatur die Rede sein kann. Insofern ist die Frage nach der Lesbarkeit des Computers nicht nur eine Frage nach der Zukunft des Lesens (geht es um Sinn oder um Information?) sondern vielmehr nach dem (Zu-)Stand unserer Schriftkultur selbst.
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Irene Pieper beschäftigt sich aus literaturdidaktischer und lesesoziologischer Perspektive mit der kulturellen Praxis des Lesens. Ihr Beitrag entwickelt systematisch, worin die "Kunst" des literarischen Lesens im Einzelnen besteht und wie diese Kompetenz methodisch in der Auseinandersetzung mit dem Gegenstand Literatur zu erwerben bzw. zu vermitteln ist. Ein kompetenter Leser zu werden heißt, ein breites Spektrum von Fähigkeiten zu erwerben, das vom Realisieren der poetischen Funktion der Literatur über die Empathiefähigkeit bis hin zur Lust am Text reicht. Der Beitrag lotet aus, in welcher Weise vor allem die Schule, die außerhalb der Familie Begegnungen mit und Kommunikationen über Literatur herbeiführt und anregt, an der Bildung solcher Leser und Leserinnen mitwirken kann.
Im Jahr 2003 innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Sabine Nessel eröffnete die Vortragsreihe mit Beobachtungen zum Lektürebegriff hinsichtlich des Phänomens Film: am Beispiel von Otto Premingers "Bonjour Tristesse" zeigt sie, wie die seit den späten 1960er Jahren übliche Übertragung des Textparadigmas auf den Film im Folgenden eine Erfassung des „Erlebnis Kino“ als Ereignis verstellte. Im Durchgang durch verschiedene Filmtheorien zeigt sie auf, dass Filme zwar "gelesen" aber auch auf einer Ebene jenseits des Kino-Texts somatisch rezipiert – "genossen" – werden, dass also die Begriffe Film, Text und Lesen auf die Bereiche Kino, Ereignis und Erleben hin zu erweitern sind.
Mit den Erinnerungstexten jüdischer Emigranten, in denen die Kindheit im altösterreichischen Galizien eine herausragende Rolle spielt, behandelt diese Arbeit eine bisher wenig beachtete Komponente der deutschen Exilliteratur. Enttäuscht in ihrer Identifikation mit Deutschland und verunsichert durch das Leben im Exil richten die Autoren die Gedanken nach rückwärts: Sie besinnen sich auf die schon weit entfernte Welt ihrer Kindheit im galizischen Schtetl. Trotz unterschiedlicher Formen weisen die Texte viele thematische Parallelen auf und sind in der farbigen Zeichnung der 'Welt von Vorgestern' von der unwirtlichen Exilgegenwart geprägt. Exemplarisch wird diese 'imaginative Aneignung ihrer Herkunft als Heimat' (B.Spies) an der Autobiographie des Schauspielers Granach und dem autobiographischen Roman des Journalisten Katz gezeigt.
Das neue Insiderrecht
(2004)
Mit Inkrafttreten von Art. 1 des Gesetzes zur Verbesserung des Anlegerschutzes (Anlegerschutzverbesserungsgesetz - AnSVG) am 30. Oktober 2004 hat das WpHG zahlreiche Änderungen erfahren. Die nachfolgenden Ausführung gehen anhand einiger ausgewählter Beispiel der Frage nach, inwieweit die Marktmißbrauchsrichtlinie und ihre Umsetzung durch das AnSVG das bisher geltende Insiderrecht geändert haben. Vorab sei bemerkt, daß die Aufgabe, das neue Recht einigermaßen zutreffend zu interpretieren, durch die Besonderheiten des Rechtssetzungsverfahrens, das schließlich in die Neufassung des WpHG eingemündet ist, nicht gerade erleichtert wird: Die europarechtlichen Vorgaben finden sich nicht mehr nur in einer einzigen Richtlinie, sondern sind aufgrund des Komitologieverfahrens über zahlreiche Rechtsakte verteilt. Für das Insiderrecht sind neben der Marktmißbrauchsrichtlinie mehrere Durchführungsrichtlinien und eine Verordnung der Kommission von Bedeutung, für deren Verständnis wiederum die CESR-Vorschläge zusätzliche Anhaltspunkte bieten. Da schon die deutsche Fassung der Richtlinien in etlichen Punkten von den jeweiligen englischen Version und das WpHG wiederum nicht selten von den Richtlinien abweicht, entsteht bisweilen eine Art "stille Post"-Effekt, der es noch mehr als schon bislang notwendig macht, sich bei der Auslegung der Begriffe des WpHG zu vergewissern, ob sich die Umsetzung durch den deutschen Gesetzgeber innerhalb des europarechtlichen Rahmens bewegt. Insbesondere auf der Sanktionenseite ist das nicht durchweg der Fall.
Einzelheftaufnahmen. Suche mit dem Titel "Jahresbericht / Johann Wolfgang Goethe-Universität Frankfurt am Main, Fachbereich 09: Sprach- und Kulturwissenschaften, Japanologie." ab 2004. Suche mit dem Titel "Institutsbericht / Johann Wolfgang Goethe-Universität Frankfurt am Main, Fachbereich Sprach- und Kulturwissenschaften, Institut für Orientalische und Ostasiatische Philologien, Japanologie." für 2001-2003.
Am 8 Juni 2004 innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Auch Musik wird "gelesen", nämlich immer dann, wenn es um theoretische Deutungen musikalischer Werke geht. Diese untersucht Ferdinand Zehentreiter, und zwar hinsichtlich der zwei gegensätzlichen Betrachtungsweisen, die sich traditionell in der Interpretation von Musik herausgebildet haben. Geht es einerseits um eine formale Zergliederung der Werke, so werden andererseits außermusikalische Inhalte zur philologischen Erforschung herangezogen. Demgegenüber steht die Beobachtung, dass Kompositionen immanent als Ausdrucks- oder Sinngebilde sui generis nur in Ausnahmefällen entschlüsselt werden, etwa bei E.T.A. Hoffmann, Roland Barthes oder Th. W. Adorno. Der Beitrag geht der Frage nach, ob und wie diese grundlegende Problemkonstellation der Musikwissenschaft heute überwunden werden kann.
QCD-Summenregeln mit Massen
(1993)
Funktionale Programmiersprachen weisen viele Eigenschaften auf, die zur modernen Softwareentwicklung benotigt werden: Zuverlässigkeit, Modularisierung, Wiederverwendbarkeit und Verifizierbarkeit. Als schwer vereinbar mit diesen Sprachen stellte sich die Einbettung von Seiteneffekten in diese Sprachen heraus. Nach einigen mehr oder weniger gescheiterten Ansätzen hat sich mittlerweile fur die nichtstrikte funktionale Sprache Haskell der monadische Ansatz durchgesetzt, bei dem die Seiteneffekte geschickt verpackt werden, so dass zumindest IO-behaftete Teile eines Haskell-Programms dem klassischen imperativen Programmierstil ähneln. S. Peyton Jones bringt dieses in [Pey01, Seite 3] auf den Punkt, indem er schreibt "...Haskell is the world's finest imperative programming language." Dies ist einerseits vorteilhaft, denn die klassischen Programmiertechniken können angewendet werden, andererseits bedeutet dies auch eine Rückkehr zu altbekannten Problemen in diesen Sprachen: Der Programmcode wird unverständlicher, die Wiederverwendbarkeit von Code verschlechtert sich, Änderungen im Programm sind aufwendig. Zudem erscheint die monadische Programmierung teilweise umständlich. Deshalb wurde im Zuge der Entwicklung in fast jede Implementierung von Haskell ein Konstrukt eingebaut, dass von monadischem IO zu direktem IO führt. Da dieses nicht mit dem bisherigen Ansatz vereinbar schien, wird es als "unsafe" bezeichnet, die entsprechende Funktion heißt "unsafePerformIO". Zahlreiche Anwendungen benutzten diese Funktion, teilweise scheint die Verwendung zumindest aus Effizienzgründen unabdingbar. Allerdings ist die Frage, wann dieses verwendet werden darf, d.h. so angewendet wird, dass es nicht "unsicher" ist, nur unzureichend geklärt. Das Zitat in Abbildung 1.1 gibt wenig Aufschluss über die korrekte Anwendung, zumal immer wieder Diskussionen entstehen, ob die Verwendung von unsafePerformIO in diesem oder jenem Spezialfall korrekt ist.
Die Alzheimer-Demenz (AD) ist gekennzeichnet durch extrazelluläre Ablagerungen des Amyloid-beta-Peptids (Aß), durch neurofibrilläre Bündel bestehend aus dem Tau-Protein, massiven Neuronenverlust und synaptische Dysfunktion. Weiterhin ist bekannt, dass mitochondriale Dysfunktion sowie ein gestörter NO-Stoffwechsel eine entscheidende Rolle bei der AD spielen. Um genauere Informationen über die Ursache der mitochondrialen Dysfunktion zu erhalten, wurden akute, chronische und dosisabhängige Effekte von Aß auf die NO-Produktion und die mitochondriale Funktion untersucht. Als Zellkulturmodelle standen PC12- und HEK-Zellen zur Verfügung, die entweder mit humanem Wildtyp-APP (APPwt) oder mit der schwedischen Doppelmutation im APP-Gen (APPsw) stabil transfiziert waren. APPsw-PC12-Zellen wiesen Aß-Spiegel im pikomolaren Bereich auf. Im Vergleich dazu hatten APPsw-HEK-Zellen ca. 20fach erhöhte Aß-Spiegel im niedrig-nanomolaren Bereich. Interessanterweise wiesen sowohl APPsw-PC12- als auch APPsw-HEK-Zellen im Vergleich zu den jeweiligen Kontrollzellen signifikant erhöhte NO-Spiegel auf. Dies ging in beiden Zellsystemen mit signifikant erniedrigten ATP-Spiegeln einher. Die Inkubation untransfizierter Zellen mit extrazellulärem Aß1-42 führte nur zu einem schwachen Anstieg der NO-Spiegel und zu einem leichten Abfall der ATP-Spiegel. Dies weist darauf hin, dass in erster Linie intrazelluläre Aß-Effekte den NO-Anstieg und die ATP-Reduktion bewirken. Die 48-stündige Inkubation mit dem gamma-Sekretasehemmstoff DAPT führte zur beinahe vollständigen Normalisierung der NO- und ATP-Spiegel in APP-transfizierten PC12- und HEK-Zellen. Das stützt die Hypothese, dass der gestörte NO-Stoffwechsel und die mitochondriale Dysfunktion durch Aß-Anreicherungen hervorgerufen werden und nicht durch eine Überexpression von APP. Passend zu den reduzierten ATP-Spiegeln zeigten APPsw-PC12-Zellen eine signifikant erniedrigte Cytochrom-C-Oxidase-Aktivität. Des Weiteren konnte APP in Mitochondrien von APPsw-PC12-Zellen nachgewiesen werden. Die Reduktion der ATP-Spiegel und die verminderte Cytochrom-C-Oxidase-Aktivität können also zum einen durch die Aß-bedingten erhöhten NO-Spiegel und zum anderen durch die Anwesenheit von APP bzw. Aß im Mitochondrium hervorgerufen werden. Auf der Ebene des mitochondrialen Membranpotentials wiesen die beiden Zelllinien stark unterschiedliche Ergebnisse auf. APPsw-PC12-Zellen zeigten unter basalen Verhältnissen ein leicht hyperpolarisiertes mitochondriales Membranpotential, was auf einen Gegenregulationsmechanismus hinweist. APPsw-HEK-Zellen wiesen bereits basal ein signifikant erniedrigtes mitochondriales Membranpotential auf. Nach Inkubation mit dem gamma-Sekretasehemmstoff DAPT normalisierte sich sowohl die Hyperpolarisation des mitochondrialen Membranpotentials in APPsw-PC12-Zellen als auch die Depolarisation in APPsw-HEK-Zellen. Anhand der in dieser Arbeit gewonnenen Daten konnte ein Modell sowohl für die sporadische als auch für die familiäre AD entwickelt werden. APPsw-PC12-Zellen spiegeln hierbei die pathogenen Mechanismen in Patienten mit sporadischer AD wider, wohingegen APPsw-HEK-Zellen die initialen Veränderungen bei Patienten mit familiärer AD aufzeigen. Mitochondriale Fehlfunktion und ein gestörter NO-Stoffwechsel stellen entscheidende initiale Pathomechanismen bei AD dar. Innerhalb der Gruppe der Antidementiva konnte gezeigt werden, dass sowohl Ginkgo-biloba-Extrakt als auch Piracetam schützende Effekte auf die mitochondriale Funktion ausüben. Aufgrund der wichtigen Rolle von mitochondrialer Fehlfunktion in der Pathogenese der Alzheimer Demenz stellen Ginkgo-biloba-Extrakt und Piracetam zwei sehr interessante Präventions- und Therapieoptionen bei Patienten mit leichten kognitiven Störungen bzw. bei Patienten mit AD dar.
Lavater was admired and detested for his unconventional approach to theology and his rediscovery of physiognomy. He was an avid communicator and through his correspondence became known to almost all leading personalities of eighteenth century Europe, such as Goethe, Wieland and Rousseau. The more than 21,000 letters in Lavater's estate in the Zentralbibliothek Zürich display the enormous thematic variety produced during a remarkable forty years of correspondence. This unique source material is now being published for the first time. IDC Publishers makes this collection available for research to such various disciplines as theology, history, literature, arts, humanities and above all, the history of eighteenth century culture. Scope: * 9,121 letters from Lavater * 12,302 letters to Lavater * 1,850 correspondents
Um zu sehen, was im atomaren Bereich "die Welt im Innersten zusammenhält", werden seit fast einem Jahrhundert atomphysikalische Stoßexperimente durchgeführt. Es ist also möglich, durch den Beschuß von "Targetteilchen" mit "Projektilteilchen" Aussagen über verschiedene Größen in der atomaren Welt zu treffen. Hierbei werden nicht nur Eigenschaften wie der "Durchmesser" oder eine "Ladungsverteilung" eines Atoms untersuchbar, sondern - durch entsprechend geschickte Variation des Prinzips "Stoßexperiment" - auch Größen, die ein Laie niemals mit einem Stoß zwischen zwei Teilchen in Verbindung brächte. Moderne Experimente erlauben es inzwischen zum Beispiel, selektiv die Impulsverteilung einzelner Elektronen in Atomen und Molekülen sichtbar zu machen, indem diese durch Photonen entsprechender Energie aus dem zu untersuchenden Teilchen herausgerissen werden. Besagte Experimente stellen nicht nur hohe Anforderungen an die Nachweiseinheit, die den eigentlichen Prozeß sichtbar macht, sondern auch an das verwendete Target und das Projektil. Im Bereich der atomaren Grundlagenforschung bietet sich Helium als zu untersuchendes Objekt oftmals an. Um die Natur zu verstehen, ist es nötig, gemessene Größen mit einer Theorie, die den untersuchten Vorgang beschreiben soll, zu vergleichen. Im Bereich der theoretischen Physik kann bisher nur das Wasserstoffatom, das ein sog. "Zweikörperproblem" ist, ohne Näherungsverfahren vollständig beschrieben werden. Ein Heliumatom stellt also das "einfachste" atomare System dar, das als noch nicht "komplett verstanden" gilt. Genauso ist ein Heliumatom mit seinem Atomkern und seinen zwei Elektronen das erste "Mehrelektronensystem" im Periodensystem. Es können hier also im Vergleich zu Wasserstoff auch Korrelationseffekte zwischen Elektronen untersucht werden. Die gesamte Dynamik innerhalb des Atoms erhält einen anderen Charakter. Bisherige Experimente mit Helium innerhalb unserer Arbeitsgruppe haben allerdings eine prinzipielle Beschränkung: es ist im Allgemeinen sehr schwierig, den Spin der beteiligten Elektronen im Experiment nachzuweisen, so daß alle bisherigen Messungen immer die Einstellung der Elektronenspins nicht berücksichtigen. Es wird also über den Spin gemittelt gemessen. Ein Weg, dieses Problem zu umgehen, ist, neben einer wirklichen Messung des Spins, den Spin im Anfangszustand - also vor dem Streuexperiment - zu kennen. Dies geschieht in der vorliegenden Arbeit dadurch, daß Heliumatome in einem durch "Mikrostrukturelektroden" erzeugten Mikroplasma angeregt werden, und sich so die Spins ihrer beiden Elektronen zum Teil auch parallel zueinander einstellen. Während bisherige Ansätze das Prinzip verfolgen, die angeregten Heliumatome in Niederdruckplasmen bei einigen Millibar zu erzeugen, wird die Plasmaquelle in dieser Arbeit bei Drücken von bis zu einem Bar betrieben. Dadurch kann das Prinzip des "supersonic jets" ausgenutzt werden, so daß der hier erzeugte Atomstrahl eine interne Temperatur von einigen Millikelvin und eine mittlere Geschwindigkeit von 1000 m/s besitzt. Durch einen nur 10 cm langen Separationsmagneten werden die angeregten Zustände mit Spin (#; #) von den Zuständen mit Spin ("; ") und den nicht- angeregten Heliumatomen getrennt und in einem Fokuspunkt für ein Streuexperiment zur Verfügung gestellt. In der folgenden Arbeit wird also ein sehr kompakter Aufbau eines Gastargets aus angeregtem Helium mit polarisiertem Elektronenspin vorgestellt. Ein Target aus angeregtem Helium hat außerdem einen weiteren großen Vorteil gegenüber gewöhnlichen Heliumtargets. In der modernen experimentellen Physik werden oftmals Laser zur Manipulation von Atomen eingesetzt. So ist es möglich, durch gezielte Anregung eines Atoms mit einem Laser dieses zum Beispiel extrem zu kühlen. Hierzu müssen allerdings Anregungsniveaus im Atom zur Verfügung stehen, die mit den Wellenlängen heutiger Laser erreicht werden können. Das erste Anregungsniveau von Helium liegt jedoch mit 19.8 eV deutlich zu hoch. Der nächst höhere P-Zustand ist von diesem Niveau aber nur noch ca. 1.1 eV entfernt. Photonen dieser Energie können leicht mit Lasern erzeugt werden. Angeregtes Helium ist also durch Laser manipulierbar und liefert so zum Beipiel auch den Ausgangspunkt für die Bose-Einstein Kondensation von Helium.
Welches der vielen Internet-Bezahlsysteme sich am Markt durchsetzen wird, hängt entscheidend von der „gefühlten Sicherheit“ bei den Kunden ab. Dieses Fazit konnte man Ende Juni 2002 zum Abschluss des Symposiums „Digitales Geld“ im Institut für Telematik ziehen. Weitere Voraussetzungen für den wirtschaftlichen Erfolg sind einfache Bedienung, transparente und bequeme Abwicklung sowie niedrige Kosten für Verbraucher und Anbieter, waren sich die 14 Referenten aus Wissenschaft, Wirtschaft und Verbänden einig. Das Symposium zur Sicherheit von Internet-Bezahlsystemen verfolgten rund 30 Teilnehmer vor Ort und mehr als 100 durch Live-Übertragung im World Wide Web. Die technischen Probleme - so wurde klar - sind mehr oder weniger alle gelöst. Offen bleibt die Frage, wie für das Verträgeschließen und Bezahlen im Internet mehr gesellschaftliche Akzeptanz und juristische Absicherung erreicht werden kann. Nach dem übereinstimmenden Urteil der meisten Referenten sind Internet-Bezahlsysteme „selbst für die technische Avantgarde“ noch zu kompliziert zu bedienen. Verständlich sei der Wunsch nach einheitlichen Standards. Noch immer stellten für die Kunden die Überweisung nach Rechnung (fast 90% der Internet- Käufer), die Lastschriftabbuchung (über 70%) und die Nachnahme-Zahlung (rund 65%) die beliebtesten Zahlverfahren beim Online-Shopping dar, betonten Marktforscher und Verbraucherschützer. Den größten Bedarf für neue Verfahren, die sinnvollerweise auf den vorhandenen Abrechnungsmechanismen aufbauen sollten, sahen die Symposiums-Teilnehmer im Bereich der Abrechnung von Klein(st)-Beträgen, wie sie beim Kauf digitaler Güter (Software, Musik, elektronische Dokumente usw.) anfallen. Um rentabel arbeiten zu können, seien hier aber die Sicherheitsanforderungen geringer. Mobiles Bezahlen per Handy werde sich in Zukunft immer mehr durchsetzen. Das Sicherheitsproblem liege hier in der „Luftschnittstelle“, so ein Experte, denn das Abhören von Mobilfunkverkehr sei in Europa besonders weit verbreitet. In jedem Fall - so hochrangige Vertreter der Finanzwirtschaft - haben Verfahren im E- und M-Commerce dann eine Chance, wenn sie auf den weltweit bewährten Transaktionsmechanismen beruhen.
Europäische Bankkonzerne sind nicht nur verpflichtet, konsolidierte Jahresabschlüsse zu erstellen, sie müssen seit Mitte der achtziger Jahre darüber hinaus ihr gesamtes regulatives Eigenkapital im Wege eines weiteren Konsolidierungsverfahrens ermitteln. Dieses Verfahren hat der deutsche Gesetzgeber im Kreditwesengesetz kodifiziert. Der folgende Beitrag erörtert offene Fragen, die sich bei Anwendung der kreditwesenrechtlichen Vorschriften über die Kapitalkonsolidierung stellen, und zeigt die Konsequenzen auf, die das Konsolidierungsverfahren auf die Geschäftsentfaltungsmöglickeiten der Konzernunternehmen hat. Die anschließende Analyse der Zweckmäßigkeit des Verfahrens soll belegen, dass sich die Pflicht zur Durchführung einer besonderen bankaufsichtsrechtlichen Kapitalkonsolidierung kaum rechtfertigen lässt. Der Autor plädiert daher für deren Abschaffung und für die Einführung einer generellen Pflicht zur Unterlegung von Bank-an-Bank Beteiligungen mit Haftungsmitteln.
Wozu ein solcher Bibliotheksführer?
Frankfurt am Main hat eine reiche und vielfältige Bibliothekslandschaft. Neben den großen und bekannten Bibliotheken gibt es zahlreiche Spezialbibliotheken. Sie sind häufig nur einem kleineren Nutzerkreis bekannt, obwohl sie oftmals Fragestellungen zu einer Fachrichtung eher beantworten als andere Bibliotheken und somit der Suchende sich dort schneller und besser informieren könnte. Um das Netz der Frankfurter Bibliotheken besser nutzbar zu machen, erscheint dieser Führer. Er soll kein Ersatz für bereits existierende Publikationen sein, die die Bibliotheken in ihrer Gesamtheit verzeichnen. Leitlinie bei der Erstellung war der Nutzen für den Leser. So wurden ausschließlich Bibliotheken aufgenommen, die öffentlich und uneingeschränkt zugänglich und regelmäßig geöffnet sind sowie über eine gewisse Bestandsgröße verfügen.
Die antivirale Funktion der RNA-abhängigen Adenosin-Desaminase bei der angeborenen Immunantwort
(2004)
Die angeborene Immunantwort von Säugetieren ist die erste wirkungsvolle Barriere gegen eindringende Pathogene, die sowohl Infektionen als auch die Entstehung von Neoplasien verhindern kann. Insbesondere wird durch sie die Ausbreitung und Replikation von Viren wirksam bekämpft. Bei RNA-Viren wird die angeborene Immunabwehr in infizierten Zellen von der doppelsträngigen RNA aktiviert, die während der Replikation oder Transkription dieser Viren entsteht. Es kommt zur Sezernierung von Interferon-alpha und -beta (IFN-alpha/beta), die wiederum die Expression einer Reihe von antiviralen Proteinen stimulieren. Eines dieser Proteine ist die IFN-alpha-induzierbare RNA-abhängige Adenosin Desaminase (iADAR-1). Ziel dieser Arbeit war es, die Rolle der iADAR-1 in der Immunabwehr näher zu charakterisieren. Bisher wurde die antivirale Aktivität der iADAR-1 gegen verschiedene Virusstämme, deren Genome Adenosin zu Guanosin (A->G) Hypermutationen aufweisen, nur angenommen, jedoch noch nicht direkt gezeigt [4]. In dieser Arbeit wurde am Beispiel des Glykoproteins (GP) des lymphozytären Choriomeningitis Virus (LCMV) untersucht, ob solche A->G Mutationen im viralen Genom tatsächlich durch die iADAR-1 verursacht werden und ob dadurch die Funktion der viralen Proteine und damit die Infektiösität von LCMV reduziert wird. Des Weiteren wurde die Induktion der iADAR-1 durch die Infektion mit LCMV und die Wirkung der iADAR-1 auf die Replikation von LCMV analysiert. Bekannt war nur, dass die iADAR-1 durch IFN-alpha selbst oder durch die Infektion von Makrophagen mit Adenoviren induziert wird. In dieser Arbeit wurde erstmals für Fibroblasten, neuronale Zellen und in vivo in Mäusen nachgewiesen, dass die iADAR-1 direkt durch die Infektion mit LCMV hochreguliert wird. Dies ist ein weiterer Hinweis, dass die iADAR-1 zu den antiviralen Effektormolekülen der angeborenen Immunabwehr zählt. LCMV induzierte die Expression der iADAR-1 sowohl auf mRNA- als auch auf Proteinebene. Im Gegensatz zu Vaccinia- und Adenoviren, die die Aktivität der iADAR-1 inhibieren [5, 6], konnte bei der Infektion von SH-SY5Y-Zellen mit LCMV keine reduzierte Aktivität der iADAR-1 festgestellt werden. Ferner konnte das schon in anderen Viren beobachtete A->G Hypermutationsmuster nun auch für LCMV bestätigt werden. Sowohl in vitro in L929-Zellen als auch in vivo in Mäusen wurde eine erhöhte A->G Mutationsfrequenz gefunden, die zwischen 50 und 75 % aller Mutationen in der S-RNA von LCMV ausmacht. Dies zeigte sich vor allem in der späten Phase der Infektion, also zu Beginn der Persistenz. Insgesamt wurden zu diesem Zeitpunkt in L929-Zellen 27 % und in der Maus 15 % nicht funktionelles LCMV-GP synthetisiert. Zudem wurde die Relevanz der A->G Hypermutationen für die beeinträchtigte Funktion des GPs deutlich, da sie 62 % der nicht infektiösen GP-Moleküle verursachen. Die desaminierende Wirkung der iADAR-1 auf das virale Genom von LCMV wurde in 293T-Zellen direkt gezeigt. A->G Mutationen in der S-RNA von LCMV nahmen durch die Überexpression der iADAR-1 in 293T-Zellen um 40 % zu. Ebenso wurde die Replikation bzw. das Assembly von Virionen durch die iADAR-1 reduziert, da im Vergleich zu Kontrollzellen der LCMV-Titer im Überstand von iADAR-1-überexprimierenden Zellen wesentlich niedriger war. Des Weiteren konnte bestätigt werden, dass die A->G Mutationen nicht durch die virale Polymerase induziert werden. Hierfür wurden iADAR-1 „knockout“ murine embryonale Fibroblasten (MEF) isoliert und als stabile Zelllinie etabliert. In diesen Zellen war kein A->G Hypermutationsmuster in der LCMV-RNA zu erkennen. In MEF wt war ebenfalls kein A->G Hypermutationsmuster nachweisbar. Der Grund hierfür könnte die im Vergleich zu L929-Zellen deutlich geringere basale iADAR-1-Expression der nicht völlig ausdifferenzierten MEFs sein.
Das Bankgeheimnis stellt weder ein absolutes Verbot der Weitergabe kundenbezogener Informationen noch ein Verbot der Abtretung von Forderungen gegen Kunden dar. Die aus dem Bankgeheimnis folgende Pflicht zur vertraulichen Behandlung von Informationen über Kunden wird ihrerseits durch immanente Grenzen beschränkt, soweit es die Ausübung von Gläubigerrechten der Bank in Frage steht. Eine Veräußerung und Abtretung von Forderungen und die dafür notwendige Weitergabe der Kundendaten wird daher durch das Bankgeheimnis nicht ausgeschlossen. Das Bankgeheimnis verpflichtet die Bank allerdings dazu, bei der Ausübung ihrer Gläubigerrechte die Vertraulichkeit der Informationen über die Geschäftsbeziehung so weit wie nur möglich zu wahren. Weitergehende Schranken zieht auch das Datenschutzrecht der Verwaltung und Verwertung von Forderungen durch die Bank nicht.
This Article concerns the duty of care in American corporate law. To fully understand that duty, it is necessary to distinguish between roles, functions, standards of conduct, and standards of review. A role consists of an organized and socially recognized pattern of activity in which individuals regularly engage. In organizations, roles take the form of positions, such as the position of the director. A function consists of an activity that an actor is expected to engage in by virtue of his role or position. A standard of conduct states the way in which an actor should play a role, act in his position, or conduct his functions. A standard of review states the test that a court should apply when it reviews an actor’s conduct to determine whether to impose liability, grant injunctive relief, or determine the validity of his actions. In many or most areas of law, standards of conduct and standards of review tend to be conflated. For example, the standard of conduct that governs automobile drivers is that they should drive carefully, and the standard of review in a liability claim against a driver is whether he drove carefully. Similarly, the standard of conduct that governs an agent who engages in a transaction with his principal is that the agent must deal fairly, and the standard of review in a claim by the principal against an agent, based on such a transaction, is whether the agent dealt fairly. The conflation of standards of conduct and standards of review is so common that it is easy to overlook the fact that whether the two kinds of standards are or should be identical in any given area is a matter of prudential judgment. In a corporate world in which information was perfect, the risk of liability for assuming a given corporate role was always commensurate with the incentives for assuming the role, and institutional considerations never required deference to a corporate organ, the standards of conduct and review in corporate law might be identical. In the real world, however, these conditions seldom hold, and in American corporate law the standards of review pervasively diverge from the standards of conduct. Traditionally, the two major areas of American corporate law that involved standards of conduct and review have been the duty of care and the duty of loyalty. The duty of loyalty concerns the standards of conduct and review applicable to a director or officer who takes action, or fails to act, in a matter that does involve his own self-interest. The duty of care concerns the standards of conduct and review applicable to a director or officer who takes action, or fails to act, in a matter that does not involve his own self-interest.
Der Fachbereich Erziehungswissenschaften befindet sich nach Ablauf der Gültigkeit des ersten Strukturplans zum 30.9.1996 in der Phase der Strukturprüfung. Im Zeitraum der vergangenen drei Jahre hat der Fachbereich in Abstimmung mit der Universitätsleitung und dem Ministerium und mit deren Unterstützung eine Reihe von strukturellen Maßnahmen ergriffen: a) Änderung der Binnengliederung des Fachbereichs und Modernisierung seiner Arbeits- und Studienorganisation, sowie des Ressourceneinsatzes. b) Arbeit an einem Stellenentwicklungskonzept mit dem Ergebnis erster Stellenfreigaben und Stellenanpassungen. c) Realisierung der Stellenabgabe 1995 – 1998/99. Dabei wurden die neuen gesetzlichen Bestimmungen, neue Verfahrensweisen und Regelungen berücksichtigt. In den hier vorgelegten Strukturplan gehen zum einen die bereits getroffenen Strukturentscheidungen ein, zum anderen wird die beabsichtigte Entwicklung des Fachbereichs bis 2004 auf dieser Basis dargestellt. Ziel dieses Strukturplans ist die Herstellung von Organisations- und Planungssicherheit durch eine auf sechs Jahre befristete Vereinbarung. Der Fachbereich macht Aussagen zu der von ihm angezielten Profilbildung anhand der besonderen Akzentuierungen der erziehungswissenschaftlichen Gegenstandsbereiche, die der Fachbereich aufzuweisen hat. Diese Akzentuierungen werden in den kommenden Jahren gestärkt werden. Dabei achtet der Fachbereich auf: - die ausgewogene Vertretung seiner Schwerpunkte durch Professuren in Forschung und Lehre - das angemessene Verhältnis von Lehramts- und Diplom-/Magisterausbildung sowie die Verbesserung der Lehrorganisation - Nutzung freiwerdender C2 - Stellen für die Förderung des wissenschaftlichen Nachwuchses - die Stärkung seines Forschungspotentials und der Nachwuchsförderung durch Unterstützung von Arbeitszusammenhängen - die Effektivierung der Organisation, Mitteleinwerbung und Mittelverwendung. Der Fachbereich begreift Strukturplanung als einen kontinuierlichen Prozeß und wird den vorliegenden Strukturplan fortschreiben.
Revised Draft: January 2005, First Draft: December 8, 2004 The picture of dispersed, isolated and uninterested shareholders so graphically drawn by Adolf Berle and Gardiner Means in 19321 is for the most part no longer accurate in today's market, although their famous observations on the separation of control and ownership of public corporations remain true.
Anmerkungen zum Urteil des BGH vom 24. November 2003, II ZR 171/01 : Das Urteil des BGH vom 24. 11. 2003 verschärft das Recht der Kapitalerhaltung empfindlich. Der Leitsatz, Kreditgewährungen an Gesellschafter, die nicht aus Rücklagen oder Gewinnvorträgen, sondern zu Lasten des gebundenen Vermögens der GmbH erfolgen, sind auch dann grundsätzlich als verbotene Auszahlung von Gesellschaftsvermögen zu bewerten, wenn der Rückzahlungsanspruch gegen den Gesellschafter im Einzelfall vollwertig sein sollte und die zugehörigen Urteilsgründe lassen erhebliche Auswirkungen nicht nur auf das Finanzierungsgebaren kleiner Gesellschaften, um die es in dem vom BGH entschiedenen Fall ging, sondern auch auf die Möglichkeiten der Innenfinanzierung großer Konzerne befürchten.
Der vorliegende Aufsatz befasst sich mit Fragen, die auftreten, wenn die an einer deutschen Börse notierten Aktien einer deutschen Gesellschaft auch an der New York Stock Exchange (im Folgenden “NYSE”) notiert werden und zwar ohne Zwischenschaltung von Hinterlegungsscheinen (American Depositary Receipts, im Folgenden “ADR”). Der Aufsatz behandelt dagegen nicht die Rechtsfragen, die sowohl bei einer Börsennotierung von Aktien als auch bei einer Börsennotierung von ADR einer deutschen Gesellschaft gelöst werden müssen, z.B. Rechtsfragen, die sich auf das US-amerikanische Kapitalmarktrecht, insbesondere das Bilanzrecht, die US-amerikanischen Anforderungen an die Corporate Governance, das Insiderverbot und Verhaltensregeln im Umgang mit der Presse beziehen.
Taking shareholder protection seriously? : Corporate governance in the United States and Germany
(2003)
The attitude expressed by Carl Fuerstenberg, a leading German banker of his time, succinctly embodies one of the principal issues facing the large enterprise – the divergence of interest between the management of the firm and outside equity shareholders. Why do, or should, investors put some of their savings in the hands of others, to expend as they see fit, with no commitment to repayment or a return? The answers are far from simple, and involve a complex interaction among a number of legal rules, economic institutions and market forces. Yet crafting a viable response is essential to the functioning of a modern economy based upon technology with scale economies whose attainment is dependent on the creation of large firms.
With the Council regulation (EC) No. 1346/2000 of 29 May 2000 on insolvency proceedings, that came into effect May 31, 2002 the European Union has introduced a legal framework for dealing with cross-border insolvency proceedings. In order to achieve the aim of improving the efficiency and effectiveness of insolvency proceedings having cross-border effects within the European Community, the provisions on jurisdiction, recognition and applicable law in this area are contained in a Regulation, a Community law measure which is binding and directly applicable in Member States. The goals of the Regulation, with 47 articles, are to enable cross-border insolvency proceedings to operate efficiently and effectively, to provide for co-ordination of the measures to be taken with regard to the debtor’s assets and to avoid forum shopping. The Insolvency Regulation, therefore, provides rules for the international jurisdiction of a court in a Member State for the opening of insolvency proceedings, the (automatic) recognition of these proceedings in other Member States and the powers of the ‘liquidator’ in the other Member States. The Regulation also deals with important choice of law (or: private international law) provisions. The Regulation is directly applicable in the Member States3 for all insolvency proceedings opened after 31 May 2002.
Lassen Sie mich einleitend mit fünf Thesen zu Basel II beginnen: 1. Basel II stellt einen flexiblen Regulierungsansatz dar, welcher auf einem Mix von privater Selbstregulierung und einer ständigen Überwachung durch staatliche Aufsichtsbehörden beruht. Möglicherweise repräsentiert Basel II einen Prototyp für einen neuartigen Regulierungsansatz im 21. Jahrhundert. 2. An dem Prozess bei Basel II auf internationaler Ebene nehmen neben staatlichen Stellen auch Marktteilnehmergruppen teil. Die Verhandlungen, die derzeit noch nicht abgeschlossen sind, erfolgen außerhalb der etablierten Regierungszirkel. Die Regelungen werden in unterschiedlich zusammengesetzten Unter- und Nebengruppen beim Basler Ausschuss für Bankenaufsicht vorbereitet. 3. Basel II reflektiert den Fakt der sich rasch wandelnden Finanzmärkte und anhaltender Fortentwicklungen bei den Bankgeschäften. Insoweit bildet Basel II eher einen Prozess als einen festen Zustand ab. 4. Stärker als die bisherigen Aufsichtsregularien bewirkt Basel II einen Anpassungsdruck in Richtung eines globalen Standards, im Zuge dessen eine Nivellierung der bestehenden, historisch gewachsenen und national geprägten Finanzierungsformen latent einhergehen dürfte. 5. Basel II verlangt eine aufwendige Betreuung –sowohl im Hinblick auf dessen Ausgestaltung als Regelungswerk als auch auf dessen praktische Anwendung. Expertise gewinnt an Bedeutung. Daraus könnten möglicherweise Verunsicherungen oder gar ein latentes Unbehagen bei den Bankkunden resultieren. Hier erscheint eine Aufklärung über die sachlichen Zusammenhänge bei Basel II angebracht.
Increasingly, alternative investments via hedge funds are gaining importance in Germany. Just recently, this subject was taken up in the legal literature, too; this resulted in a higher product transparency. However, German investment law and, particularly, the special division "hedge funds" is still a field dominated by practitioners. First, the present situation shall be outlined. In addition, a description of the current development is given, in which the practical knowledge of the author is included. Finally, the hedge fund regulation intended by the legislator at the beginning of the year 2004 is legally evaluated against this background.
In response to recent developments in the financial markets and the stunning growth of the hedge fund industry in the United States, policy makers, most notably the Securities and Exchange Commission (“SEC”), are turning their attention to the regulation, or lack thereof, of hedge funds. U.S. regulators have scrutinized the hedge fund industry on several occasions in the recent past without imposing substantial regulatory constraints. Will this time be any different? The focus of the regulators’ interest has shifted. Traditionally, they approached the hedge fund industry by focusing on systemic risk to and integrity of the financial markets. The current inquiry is almost exclusively driven by investor protection concerns. What has changed? First, since 2000, new kinds of investors have poured capital into hedge funds in the United States, facilitated by the “retailization” of hedge funds through the development of funds of hedge funds and the dismal performance of the stock market. Second, in a post-Enron era, regulators and policy makers are increasingly sensitive to investor protection concerns. On May 14 and 15, 2003, the SEC held for the first time a public roundtable discussion on the single topic of hedge funds. Among the investor protection concerns highlighted were: an increase in incidents of fraud, inadequate suitability determinations by brokers who market hedge fund interests to individual investors, conflicts of interest of managers who manage mutual funds and hedge funds side-by-side, a lack of transparency that hinders investors from making informed investment decisions, layering of fees, and unbounded discretion by managers in pricing private hedge fund securities. Although there has been discussion about imposing wide-ranging restrictions onhedge funds, such as reining in short selling, requiring disclosure of long/short positions and limiting leverage, such a response would be heavy-handed and probably unnecessary. The existing regulatory regime is largely adequate to address the most flagrant abuses. Moreover, as the hedge fund market further matures, it is likely that institutional investors will continue to weed out weak performers and mediocre or dishonest hedge fund managers. What is likely to emerge from the newest regulatory focus on investor protection is a measured response that would enhance the SEC’s enforcement and inspection authority, while leaving hedge funds’ inherent investment flexibility largely unfettered. A likely scenario, for example, might be a requirement that some, or possibly all, hedge fund sponsors register with the SEC as investment advisers. Today, most are exempt from registration, although more and more are registering to provide advice to public hedge funds and attract institutions. Registration would make it easier for the SEC to ferret out potential fraudsters in advance by reviewing the professional history of hedge fund operators, allow the SEC to bring administrative proceedings against hedge fund advisers for statutory violations and give the agency access to books and records that it does not have today. Other possible initiatives, including additional disclosure requirements for publicly offered hedge funds, are discussed below. This article addresses the question whether U.S. regulation of hedge funds is really taking a new direction. It (i) provides a brief overview of the current U.S. regulatory scheme, from which hedge funds are generally exempt, (ii) describes recent events in the United States that have contributed to regulators’ anxiety, (iii) examines the investor protection rationale for hedge fund regulation and considers whether these concerns do, in fact, merit increased regulation of hedge funds at this time, and (iv) considers the likelihood and possible scope of a potential regulatory response, principally by the SEC.
In an ideal world all investment products, including hedge funds, would be marketable to all investors. In this ideal world, all investors would fully understand the nature of the products and would be able to make an informed choice whether to invest. Of course the ideal world does not exist – the retail investment market is characterised by asymmetries of information. Product providers know most about the products on offer (or at least they should do). Investment advisers often know rather less than the provider but much more than their retail customers. Providers and intermediary advisers are understandably motivated by the desire to sell their products. There is therefore a risk that investment products will be mis-sold by investment advisers or mis-bought by ill-informed investors. This asymmetry of information is dealt with in most countries through regulation. However, the regulatory response in different countries is not necessarily the same. There are various ways in which protections can be applied and it is important to understand that the cultural background and regulatory histories of countries flavours the way regulation has developed. This means (as will be explained in greater detail later) that some countries are better able than others to admit hedge funds to the retail sector. Following this Introduction, Section II looks at some key background issues. Section III then looks at some important questions raised by the retail hedge fund issue. Many of these are questions of balance. Balance lies at the heart of regulation of course – regulation must always balance the needs of investors and with market efficiency. Understanding the “retail hedge fund” question requires particular attention to balance. Section IV then looks at the UK regime and how the FSA has answered the balance question. Section V offers some international perspectives. Section VI concludes. It will be seen that there is no obviously right answer to the question whether hedge fund products should be marketed to retail investors. Each regulator in each jurisdiction needs to make up its own mind on how to deal with the various issues and balances. It is evident, however, that internationally there is a move towards a greater variety of retail funds. There is nothing wrong with that, provided the regulators and the retail customers they protect, understand sufficiently what sort of protection is, or is not, being offered in the regulatory regime.
While hedge funds have been around at least since the 1940's, it has only been in the last decade or so that they have attracted the widespread attention of investors, academics and regulators. Investors, mainly wealthy individuals but also increasingly institutional investors, are attracted to hedge funds because they promise high “absolute” returns -- high returns even when returns on mainstream asset classes like stocks and bonds are low or negative. This prospect, not surprisingly, has increased interest in hedge funds in recent years as returns on stocks have plummeted around the world, and as investors have sought alternative investment strategies to insulate them in the future from the kind of bear markets we are now experiencing. Government regulators, too, have become increasingly attentive to hedge funds, especially since the notorious collapse of the hedge fund Long-Term Capital Management (LTCM) in September 1998. Over the course of only a few months during the summer of 1998 LTCM lost billions of dollars because of failed investment strategies that were not well understood even by its own investors, let alone by its bankers and derivatives counterparties. LTCM had built up huge leverage both on and off the balance sheet, so that when its investments soured it was unable to meet the demands of creditors and derivatives counterparties. Had LTCM’s counterparties terminated and liquidated their positions with LTCM, the result could have been a severe liquidity shortage and sharp changes in asset prices, which many feared could have impaired the solvency of other financial institutions and destabilized financial markets generally. The Federal Reserve did not wait to see if this would happen. It intervened to organize an immediate (September 1998) creditor-bailout by LTCM’s largest creditors and derivatives counterparties, preventing the wholesale liquidation of LTCM’s positions. Over the course of the year that followed the bailout, the creditor committee charged with managing LTCM’s positions effected an orderly work-out and liquidation of LTCM’s positions. We will never know what would have happened had the Federal Reserve not intervened. In defending the Federal Reserve’s unusual actions in coming to the assistance of an unregulated financial institutions like a hedge fund, William McDonough, the president of the Federal Reserve Bank of New York, stated that it was the Federal Reserve’s judgement that the “...abrupt and disorderly close-out of LTCM’s positions would pose unacceptable risks to the American economy. ... there was a likelihood that a number of credit and interest rate markets would experience extreme price moves and possibly cease to function for a period of one or more days and maybe longer. This would have caused a vicious cycle: a loss of investor confidence, lending to further liquidations of positions, and so on.” The near-collapse of LTCM galvanized regulators throughout the world to examine the operations of hedge funds to determine if they posed a risk to investors and to financial stability more generally. Studies were undertaken by nearly every major central bank, regulatory agency, and international “regulatory” committee (such as the Basle Committee and IOSCO), and reports were issued, by among others, The President’s Working Group on Financial Markets, the United States General Accounting Office (GAO), the Counterparty Risk Management Policy Group, the Basle Committee on Banking Supervision, and the International Organization of Securities Commissions (IOSCO). Many of these studies concluded that there was a need for greater disclosure by hedge funds in order to increase transparency and enhance market discipline, by creditors, derivatives counterparties and investors. In the Fall of 1999 two bills were introduced before the U.S. Congress directed at increasing hedge fund disclosure (the “Hedge Fund Disclosure Act” [the “Baker Bill”] and the “Markey/Dorgan Bill”). But when the legislative firestorm sparked by the LTCM’s episode finally quieted, there was no new regulation of hedge funds. This paper provides an overview of the regulation of hedge funds and examines the key regulatory issues that now confront regulators throughout the world. In particular, two major issues are examined. First, whether hedge funds pose a systemic threat to the stability of financial markets, and, if so, whether additional government regulation would be useful. And second, whether existing regulation provides sufficient protection for hedge fund investors, and, if not, what additional regulation is needed.
Der Titel des Vortrags benennt eine der wichtigsten Abgrenzungsfragen, die man sich zu stellen hat, sobald man es mit Kurs- und Marktpreismanipulation zu tun hat. Was ist zulässiges Marktverhalten, was muss jeder Marktteilnehmer tun dürfen, ohne mit einem Bein im Gefängnis zu stehen und wo fängt die verbotene Kursmanipulation an? Eine bedeutsame Unterscheidung für die aktiven Akteure am Kapitalmarkt, um Klarheit darüber zu haben, was erlaubt ist und was nicht. Der Markt braucht das Vertrauen der Anleger, und Anleger vertrauen nur in ordnungsgemäß funktionierende Märkte, in Märkte, an denen Preisbildungsmechanismen funktionieren und kontrolliert werden. Daher ist es notwendig,Vorkehrungen zu treffen, die gewährleisten, dass Märkte funktionieren und Preise sich an Märkten manipulationsfrei bilden können und auch bilden. Auf der präventiven Seite tragen hierzu die Handelsregeln der verschiedenen Börsen bei, die insbesondere dezidierte Regelungen zur Preisbildung beinhalten. Sie sollen gewährleisten, dass Preise ordnungsgemäß zustande kommen und einen fairen Ausgleich von Angebot und Nachfrage darstellen. Ergänzt wird dieser präventive Aspekt durch die repressive Seite, nämlich die Ahndung von Fehlverhalten. Hierzu gab es bisher die Regelung des Kursbetrugs in § 88 Börsengesetz. Diese Vorschrift existierte inhaltlich bereits über 100 Jahre, in denen sie aber, wenn nicht tot, so doch zumindest annähernd scheintot war. Denn es sind kaum Verurteilungen oder sonstige Maßnahmen auf der Grundlage dieser Norm bekannt. Wollte man aus diesem Schattendasein allerdings folgern, dass aufgrund des integren Verhaltens der Marktteilnehmer eine solche Regelung obsolet sei, so wäre das ein Fehlschluss. Mit dem Vierten Finanzmarktförderungsgesetz, das zum 01. Juli 2002 in Kraft tat, wurde dann auch eine Reform durchgeführt. Die alte Vorschrift wurde gestrichen und durch die neue Regelung des Verbots der Kurs- und Marktpreismanipulation im Wertpapierhandelsgesetz ersetzt. Dort wurden §§ 20a und 20b neu eingefügt. Die Aufgabe der Überwachung dieses Manipulationsverbots und die Verfolgung von Verstößen wurde der BaFin übertragen.
As there are apparently no doubts concerning the existence of Nazi anti-Semitism before 1933 regarding this topic – having largely been ignored by scholars of contemporary history – seems to be no use. This article tends to trace the role of anti-Semitism during the ascend of the Nazi-movement. Therefore, the author describes the theoretic function of this phenomena for the NSDAP by referring to Hitler’s Weltanschauung and the official program of the party. But how did this anti-Jewish ideology find its way into the party’s day-to-day agitation? By analysing Hitler’s political speeches it is shown how, after 1925/26, the Führer tried to present himself as a moderate politician – for he had realised that the NSDAP had to become a mass-movement in order to gain political power in Weimar Germany. Vis-à-vis the party’s antisemitic membership, mainly retailers and graduates, anti-Jewish stereotypes were pushed in propaganda. Yet, National Socialist anti-Semitism was not only opportunist in that it was played up or down depending upon when and where it hit responsive chords, it was also subject to the regional Gauleiter if this phenomena was promoted like in Streicher’s Franconia or restricted like in Württemberg, Hamburg or Danzig. Only after the world-wide economic crisis of 1929 the NSDAP had considerable success in the Reichstag’s elections. The party presented itself as the only power being capable to establish a new order in Germany. The propaganda focused on the main enemies of the National Socialists: Communism and the liberal democracy – in this context, the anti-Semitism was negligible.
When performance measures are used for evaluation purposes, agents have some incentives to learn how their actions affect these measures. We show that the use of imperfect performance measures can cause an agent to devote too many resources (too much effort) to acquiring information. Doing so can be costly to the principal because the agent can use information to game the performance measure to the detriment of the principal. We analyze the impact of endogenous information acquisition on the optimal incentive strength and the quality of the performance measure used.
Die vorliegende, von Studierenden der Fachhochschule für Bibliothekswesen in Frankfurt am Main erstellte Projektarbeit befaßt sich mit Fragen, Aspekten und Möglichkeiten der Flexibilisierung von Arbeitszeiten und Arbeitsformen in Bibliotheken. Im ersten Teil der Arbeit werden die wichtigsten Arbeitsteilzeitmodelle vorgestellt und deren Vorteile für Arbeitgeber und nehmer herausgearbeitet. Anschließend erfolgt eine durch Graphiken und Tabellen veranschaulichte Untersuchung von drei ausgewählte Universitätsbibliotheken (Gießen, Marburg, Mainz) in bezug auf bereits existierende Arbeitszeitflexibilisierung. Ein Ausblick geht der Frage nach, ob die dargestellten Teilzeitmodelle für Bibliotheken notwendig und ausreichend sind. Der zweite Themenkomplex befaßt sich mit der Telearbeit als einer innovativen Arbeitsform in Bibliotheken. Ausgehend von einer Begriffsbestimung werden verschiedene Formen der Telearbeit sowie deren Vor und Nachteile geschildert. Es wird erläutert, welche Bedingungen an den Telearbeiter und seinen Arbeitsplatz geknüpft sind, welche rechtlichen Voraussetzungen erfüllt werden müssen, welche finanziellen Aspekte eine Rolle spielen und welche Anwendungsmöglichkeiten für Telearbeit in Bibliotheken bestehen. An drei konkreten Beispielen wird dann geschildert, wie Telearbeit in Bibliotheken bereits verwirklicht wurde. Abschließend wird der Frage nachgegangen, welche Perspektiven der Einsatz von Telearbeit in Bibliotheken hat. Der dritte Abschnitt der Ausarbeitung stellt das bibliothekarische Call Center als neue Form einer benutzerorientierten Einrichtung vor. Zielsetzungen und Dienstleistungsformen des Call Centers werden ebenso abgehandelt wie Aspekte der Planung, Einrichtung und Arbeitsplatzergonomie sowie des Einsatzes von Telearbeit. Anhand des Beispiels der Zentral und Landesbibliothek Berlin wird schließlich dokumentiert, wie sich ein bibliothekarisches Call Center in der Praxis bereits bewährt hat.
Im Rahmen dieser Projektarbeit sollen drei Beispiele für Publikationsportale vorgestellt werden: das Bibliotheks und Informationssystem der Carl-von-Ossietzky-Universität Oldenburg, der Dokumenten und Publikationsserver der Humboldt-Universität zu Berlin mit Ausblick auf das Projekt ProPrint und das Publikationsportal der Universitätsbibliothek Kassel, das für den Titel dieser Arbeit Pate stand. Um deren Entstehung und Einbindung in einen aktiven Entwicklungsprozess zu verdeutlichen, werden zunächst einige wegweisende Initiativen auf dem Gebiet des elektronischen Publizierens beschrieben, sowie die Kriterien näher erläutert, die für das elektronische Publizieren von grundlegender Bedeutung sind. Es ist noch zu bemerken, dass nur Beispiele zum Publizieren von Monografien beschrieben werden, da das Einbeziehen von Zeitschriftenartikeln zu weit geführt hätte.
Da in der heutigen Zeit Metadaten auch in der bibliothekarischen Erschließung eine wesentliche Rolle spielen und diese dann durch das Internet in der ganzen Welt genutzt werden können, ist es erforderlich, ein international anerkanntes Regelwerk zu schaffen, das einheitliche Strukturen aufweist und möglichst einfach gehalten ist. Ziel dieser Arbeit ist es, die Auswirkungen des für diese Vorgaben geschaffenen Dublin-Core-Sets auf die bibliothekarische Arbeit zu untersuchen. Dabei wird sowohl auf die historische Entwicklung als auch die einzelnen Elemente des Dublin-Core-Sets eingegangen. Darüber hinaus wird untersucht, welche Rolle Bibliotheken im Hinblick auf die wachsende Präsenz der elektronisch verfügbaren Dokumente spielen und wie diese Metadaten für Bibliotheken, Bibliotheksverbünde sowie Hochschulnetze genutzt werden können. Schwerpunkt der Arbeit bildet dann die Anwendung von Dublin-Core in ausgewählten Projekten, sowie ein Vergleich der Nutzung von Metadaten nach Dublin-Core in diesen Projekten. Die daraus resultierende Frage, in wie weit sich Dublin-Core als Standard zur Erschließung von Metadaten etablieren konnte, steht dann im Mittelpunkt der Betrachtung des darauffolgenden Kapitels. Zum Abschluss der Arbeit soll dann geprüft werden, ob Dublin-Core in der Lage ist, den o.g. Forderungen Rechnung zu tragen. Darüber hinaus werden Perspektiven für die Zukunft bezüglich des Einsatzes von Dublin-Core kurz angerissen.
Elektronische Information ist ein immer wichtiger werdender Teil in der heutigen Informationsvermittlung und spielt auch für Bibliotheken eine zunehmend bedeutende Rolle. Da sie aber nicht mehr die einzigen Informationsvermittler sind, sondern auch private Anbieter diesen Markt entdeckt haben, müssen Bibliotheken dieser Konkurrenz durch Marketingstrategien entgegentreten. Dies ist eine neue Herausforderung im Bibliotheksbereich. Deshalb stellt sich die Frage, inwieweit Bibliotheken heute schon Marketing betreiben. Im Rahmen unseres Studiums an der Fachhochschule für Bibliothekswesen in Frankfurt am Main, haben wir diese Entwicklung zum Thema einer Projektarbeit gemacht, da sie eine aktuelle Bedeutung für uns als angehende Diplom-Bibliothekare hat. Unsere Ausgangsfragestellung entwickelten wir in der Auseinandersetzung mit den Thesen des Projekts Nutzung elektronischer wissenschaftlicher Informationen in der Hochschulausbildung von der Sozialforschungsstelle Dortmund zusammen mit dem Lehrstuhl für Soziologie der Universität Dortmund und der Gesellschaft für Angewandte Unternehmensforschung und Sozialstatistik mbH (GAUS) im Auftrag des Bundesministeriums für Bildung und Forschung (BMB+F), auch als SteFi-Studie (Studieren mit elektronischen Fachinformationen) bekannt (http://www.stefi.de/). Ziel unserer Arbeit ist es herauszufinden, welche Marketingstrategien bereits von Bibliotheken eingesetzt werden, welche Ziele damit verfolgt werden und wie diese neue Aufgabe organisiert wird. Dazu haben wir mittels eines Fragebogens eine Umfrage an zehn Bibliotheken gerichtet, an der sich neun Bibliotheken beteiligt haben. Diese befasst sich mit den Aspekten Marketingmaßnahmen, Stellenwert dieser Maßnahmen, Marketinggesamtkonzept und Finanzierung. Bei unseren Untersuchungen wurden ausschließlich Universitätsbibliotheken befragt, denen wir für ihre Mitarbeit und Hilfsbereitschaft danken.
Die vorliegende Projektarbeit beschäftigt sich mit der komplexen Thematik der funktionalen Einschichtigkeit an hessischen Hochschulbibliothekssystemen. Dargestellt werden sowohl die historisch politischen Gründe für die Prägung des Begriffs funktionale Einschichtigkeit sowie auch die Zielstellung der mit der Umsetzung verbundenen Veränderungen. Im Bezug darauf nehmen die Bearbeiter Empfehlungen des Wissenschaftsrates und der Deutschen Forschungsgemeinschaft sowie auch andere historische Dokumente genauer unter die Lupe. Um Veränderungsprozesse deutlich erläutern zu können, werden Fallbeispiele geliefert. Hiefür wurden die Bibliothekssysteme Frankfurt am Main, Marburg und Darmstadt untersucht, wobei die Sonderrolle des Marburger Modells in der Arbeit herausgestellt wird. Nach dem Versuch, die Komplexität der Thematik und die damit verbundenen Schwierigkeiten deutlich zu machen, werden letztendlich Schlussfolgerungen gezogen und Ansätze für Lösungen gegeben.
Am 3 Februar 2004 innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Die potentielle Unabschließbarkeit literarischer Lektüren ist oft mit der Metapher vom Text als Gewebe umschrieben worden. Uwe Wirth widmet sich ihr mit Blick auf den Grenzbereich eines anderen Mediums: des Computers. Findet sich im Hypertext die digitale Einlösung der Metapher vom Textgewebe, so stellt sich aufs Neue die Frage nach den Rollen von Autor und Leser: Der Hypertextleser wird zum editorialen "Spinner" eines Netzes aus semantischem und medialem Gewebe.
Am 10 Februar 2004 innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Claus Zittel diskutiert in seinem Beitrag die Frage der Lesbarkeit von Bildern. Er analysiert die vielfältigen Bedeutungen, Darstellungsfunktionen und den argumentativen Stellenwert von Abbildungen in wissenschaftlichen Abhandlungen der Frühen Neuzeit. Anhand einer Fülle von Beispielen zeigt er, wie undifferenziert und trügerisch die verbreitete Vorstellung von der Evidenz wissenschaftlicher Bilder ist: Abbildungen sind weder eindeutig durch den illustrativen Zweck noch durch eine gegebene Evidenz bestimmt. Die Decodierbarkeit und Überzeugungskraft der Bilder hängt vielmehr von kulturell codierten und etablierten Sicht- und Denkweisen ab, die die Bilder selbst in produktiver Weise mit prägen. Status, Funktionen und Bedeutungen von Abbildungen differieren, und sie können nur angemessen erschlossen – gelesen – werden, wenn die erkenntnistheoretischen Voraussetzungen und praktischen Kontexte ihrer Verwendung mit in Betracht gezogen werden.
Im Rahmen der vorliegenden Arbeit wird eine systematische Untersuchung von Feldabschirmungseffekten bei Photostrommessungen in Abhängigkeit der optischen Anregungsdichte an GaAs/AlGaAs{Halbleiterubergitterstrukturen vorgenommen. Diese Untersuchungen gestatten es, Kontaktierungsmethoden zu finden, um das elektrische Feld innerhalb der Übergitterstruktur definiert einzustellen. Diese Untersuchungen waren notwendig geworden, da sowohl erste zeitaufgelöste (z.B. die THz-Emission von Bloch-Oszillationen), wie auch verschiedene nicht zeitaufgelöste Messungen (z.B. differentielle Elektroreflexionsmessungen) nahelegten, daß in der Probe kein elektrisches Feld einzustellen war. Die Untersuchungen zur anregungsdichteabhangigen Feldabschirmung wurden in einem Photostromaufbau durchgeführt, bei dem die Anregungsdichte durch die Verwendung eines abstimmbaren CW-Ti:Saphir Laser gegenüber Aufbauten mit einer Kombination aus Lampe und Monochromator weiter gesteigert werden kann. Als Indikator für die Feldabschirmung dient die Herausbildung der Wannier-Stark-Leiter in den Photostromspektren. Zur Untersuchung der Feldabschirmung wurde zunächst die Probenpraparation verändert. Anschließend wurde die Anregungsdichte systematisch variiert und es wurden verschiedene Probenstrukturen untersucht, unter anderem zum Vergleich mit den hier pin-Übergitter Dioden auch eine häufig verwendete Schottky-Diode. Es wurden verschiedene präparative Variationen durchgeführt, um den Einfluß der dotierten Schichten zu klären. So wurde beispielsweise die p+-Schicht heruntergeätzt, oder auf die p+-Schicht eine zusätzliche metallische semitransparente Cr/Au-Schicht aufgedampft, sowie Proben mit verschiedenen Dotierungsmaterialien (Berylium und Kohlenstoff) untersucht. Alle betrachteten Proben zeigen bei niedrigen Anregungsdichten eine Aufspaltung in Wannier-Stark-Zustände. Die Absorptionslinien, die in den Spektren die Übergänge darstellen, werden dann bei steigender Anregungsdichte zunächst asymmetrisch, treten erst bei niedrigeren äußeren Vorspannungen auf und verschwinden schließlich für sehr hohe Dichten ganz. Eine Analyse der systematischen Untersuchungen für die verschiedenen Probentypen ergibt, daß sich höchstwahrscheinlich Ladungstrager in der p+-Schicht ansammeln und so das äußere elektrische Feld abschirmen. Zusätzlich zeigt im Vergleich der zwei Dotierungsmaterialien die mit Kohlenstoff dotierte Probe eine bei deutlich höheren Anregungsdichten einsetzende Abschirmung gegenüber der mit Berylium dotierten Probe. Die konsequente Umsetzung der gewonnenen Erfahrungen führt zu einem neuen Probendesign. Die Vermeidung p+-dotierter Schichten, wobei die Proben nur mit einer semitransparenten Cr/Au-Schicht bedampft werden, hat dazu geführt, daß es schließlich möglich war, die kohärente Emission von Bloch-Oszillationen unter 45 ° zu messen. Weiterhin war es auch möglich, erste Messungen zur kohärenten Detektion der direkten Emission von Bloch-Oszillationen in einem Magnetfeld zu realisieren, diese Messungen werden daher nur kurz dargestellt. Je nach Feldstarke des elektrischen und des magnetischen Feldes wird die Emission der Bloch-Oszillationen durch die magnetische oder elektrische Quantisierung dominiert. In Vorbereitung auf zeitaufgelöste Messungen wurde im Rahmen dieser Arbeit zusätzlich auch ein neuer dichroitischer Strahlteiler verwendet und charakterisiert. Ein Indium-Zinn-Oxid-Film auf einem Glassubstrat ist im optischen Frequenzbereich transparent, besitzt aber im niedrigen THz-Frequenzbereich (0 bis 2.5 THz) eine relative Reflexion von 90% bis 80% und eine relative Transmission von konstant etwa 10% und kann somit als Alternative zu dem sonst häufig verwendeten Folien-Strahlteiler verwendet werden. Der komplexe Brechungsindex ñ kann numerisch aus den Reflexions- bzw. Transmissionsdaten bestimmt werden.
Im Rahmen dieser Arbeit wurde ein Verfahren zur Messung der Absorption der TM0-Mode im atmosphärischen Wellenleiter entwickelt, das auf der Bestimmung des Amplitudenabfalls von durch Blitze generierten ELF-Impulsen beruht. Eine Anwendung des Verfahrens setzt die simultane Messungen der ELF-Impulse an verschiedenen Stationen voraus. Im Sommer 1998 wurde im Rahmen der Spritekampagne'98 ein geeigneter Datensatz an drei Stationen im Westen Nordamerikas gewonnen. Bislang wurde ein Teil dieses Datensatzes herangezogen, um das Messverfahren zu testen und mit Ergebnissen aus einer anderen Quelle zu vergleichen. Diese Tests waren erfolgreich und die Ergebnisse von Hughes und Gallenberger [10] konnten reproduziert werden. Die Stationen wurden mit Induktionsspulen-Magnetometern vom Typ Metronix MFS05 im HF-Modus betrieben. Die für die Instrumentenkorrektur erforderlichen Übertragungsfunktionen der Magnetometer waren vorab nur für den LF-Modus mit Vertrauen erweckender Sicherheit bekannt. Dies machte eine Nachkalibrierung der Magnetometer erforderlich, bei der zunächst versucht wurde, die bekannte LF-Übertragungsfunktion zu reproduzieren. Dazu wurde die Einspeisung einer Rechteckschwingung in den Kalibriereingang des MFS05-Magnetometers verwendet. Bei 5 von 6 verwendeten Magnetometern ließ sich die Übertragungsfunktion für den LF-Modus reproduzieren. Bei einem traten jedoch deutliche Abweichungen auf, die sich auch bei anderen Messungen reproduzieren ließen. Die Übertragungsfunktion des Magnetometers hat sich also seit der letzten Kalibrierung durch den Hersteller verändert. Erst durch diese Nachkalibrierung ist es möglich geworden, diese Veränderung in Instrumentenkorrekturen einzubringen. Nachdem im LF-Modus gezeigt war, dass die verwendete Kalibrierungsmethode funktioniert wurde sie auch für den HF-Modus angewandt. Neben der Kalibrierung durch Einspeisung eines synthetischen Signals wurden auch Kalibrierungen unter Ausnutzung der natürlichen Anregung durchgeführt. Diese dienten in erster Linie einem Vergleich verschiedener Messgeräte: Den beiden Datenloggern SPAM MkIII und Quanterra QT4120 sowie den bei- den Magnetometern Metronix MFS05 und EMI BF-4. Der QT4120-Datenlogger wurde ursprünglich nicht zum Anschluss von Magnetometern konzipiert und benötigte dazu eine separate Adaptereinheit. Eine solche Adaptereinheit (kurz "Adapterbox") wurde im Rahmen dieser Arbeit konzipiert und gemeinsam mit der am Institut angestellten Elektronikerin Vera Fischer implementiert. Die Messergebnisse der Kalibrierungen mit natürlicher Anregung wurden so gedeutet, dass der SPAM MkIII-Datenlogger und das MFS05-Magnetometer gegenüber dem Quanterra QT4120-Datenlogger und dem EMI BF-4-Magnetometer einen geringeren Rauschpegel im ELF-Bereich aufweisen. Dies muss nicht für Frequenzen unterhalb des ELF-Bereichs gelten - dort wurden keine Untersuchungen angestellt.
Diese Arbeit entstand im Zusammenhang mit dem Funneling-Experiment am Institut für Angewandte Physik. Dieses Experiment soll die praktische Umsetzung des für das HIDIF-Projekt benötigte Funneln zur Ionenstrom-Erhöhung demonstrieren. Dabei stand die Erzeugung zweier identischer Ionenstrahlen mit einer Energie von 4 keV im Vordergrund. Diese Ionenstrahlen werden in zwei aufeinander zulaufenden RFQ-Beschleunigern auf eine Energie von 160 keV beschleunigt. Der noch in Planung stehende Funneling-Deflektor bringt die beiden Ionenstrahlen auf eine gemeinsame Strahlachse. Zu Beginn der Diplomarbeit stand der Umbau der Emittanzmeßanlage auf eine PC-Plattform. Gleichzeitig wurde ein sogenannter Quellenturm zum Betrieb der Ionenquellen aufgebaut (vgl. Kapitel 7.2). Die Multicusp-Ionenquellen wurden von K. N. Leung vom Lawrence Berkeley National Laboratory (LBNL) entwickelt und gebaut. Das elektrostatische Linsensystem wurde von R. Keller (LBNL) entworfen und berechnet. Die beiden Linsensysteme wurden in unserer Werkstatt gefertigt. Der erste Teil des Testbetriebs der Injektionssysteme, bestehend aus der Multicusp- Ionenquelle sowie dem elektrostatischen Linsensystem auch LEBT (Low Energy Beam Transport) genannt, bestand aus der Messung des Strahlstromes sowie der zugehörigen Emittanz. Zum Messen des Strahlstromes stand eine durch Preßluft in den Ionenstrahl fahrbare Faradaytasse zur Verfügung. Von dieser Faradaytasse wurde eine Kennlinie zur Bestimmung der Spannung der Sekundärelektronen- unterdrückung aufgenommen (vgl. Kapitel 8.1). Zur Messung der Strahlemittanz wurde eine Emittanzmessung nach dem Schlitz-Gitter Prinzip vorgenommen (vgl. Kapitel 5, Kapitel 7.7-7.9). Beim Betreiben der Injektionssysteme stand vor allem der Synchronbetrieb im Vordergrund. Dabei wurde festgestellt, daß eine der beiden Ionenquellen auch ohne Linsensystem einen größeren Strahlstrom liefert (vgl. Kapitel 8.9). Der Unterschied zwischen den Ionenquellen beträgt bei einem Bogenstrom von 6 A über 20 %. Dies bedeutet für den späteren Strahlbetrieb am RFQ, daß zum Erzeugen gleicher Strahlströme eine Ionenquelle immer mit einem kleineren Bogenstrom betrieben werden muß. Die dadurch unterschiedlichen Plasmadichten sowie thermischen Belastungen der Plasmakammer und unterschiedlichen Füllgrade der elektrostatischen Linsen tragen zu den festgestellten Emittanzunterschieden bei. Zum späteren Vergleich der Injektionssysteme wurde ein Injektionssystem durch verschiedene Bogenströme, variierte Spannungen an den elektrostatischen Linsen sowie unterschiedlichen Gasdrücken in der Plasmakammer ausgemessen. Diese Messungen wurden nach Wechseln der Glühkathode sowie Demontage und Neumontage von Ionenquelle und Linsensystem wiederholt. Dabei wurde festgestellt, daß sich der Strahlstrom bei der Vergleichsmessung kaum, die Emittanz der Injektionssysteme aber bis ca. 10% ändert (vgl. Kapitel 8.5). Diese Unterschiede müssen bei dem späteren Vergleich mit dem zweiten Injektionssystem einbezogen werden.Beim Betrieb des zweiten Injektionssystems wurden im direkten Vergleich der Injektionssysteme Unterschiede zwischen dem Strahlstrom sowie der Emittanz festgestellt. Auch hier lieferte das zweite Injektionssystem den schon nach der Ionenquelle festgestellten größeren Ionenstrom. Die gemessenen normierten 90 % RMS-Emittanzen bei einem Strahlstrom von 1 mA betragen am Injektionssystem 1 , beim Injektionssystem 2 , bei einer e1 =0,0288 mm mrad e2 =0,0216 mm mrad Strahlenergie von 4 keV. Die Emittanzunterschiede betragen bis zu 30 %. Im Betrieb mit dem RFQ können die Linsensysteme nicht mit den identischen Spannungen betrieben werden. Dies ist zum einen auf die fertigungsbedingten Unterschiede zurückzuführen, zum anderen auf die abweichenden Plasmadichten zum Erreichen gleicher Strahlströme. Im geplanten HIDIF-Projekt sollen 48 Ionenquellen drei unterschiedliche Teilchenströme erzeugen. Bei dieser Anzahl an Ionenquellen für drei unterschiedliche Ionensorten wird das Erzeugen identischer Teilchenströme sicher noch schwerer zu bewältigen sein. Am Funneling-Experiment ist der Vergleich der beiden Injektionssysteme abgeschlossen. Der Doppelstrahl RFQ-Beschleuniger ist aufgebaut, es wurde bereits ein Ionenstrahl in den RFQ eingeschossen (vgl. Kapitel 8.13). Die normierten 90 % RMS-Emittanzen nach dem RFQ betragen 0,057 mm mrad sowie 0,0625 mm mrad für die beiden Strahlachsen. Der Emittanzunterschied ist kleiner 9 %. Die Emittanzen nach dem RFQ können nicht direkt mit den im Testbetrieb gemessenen Emittanzen der Injektionssysteme verglichen werden. Im Strahlbetrieb mit dem RFQ wurde eine Strahlenergie der Injektionssysteme von 4,15 keV benötigt. Außerdem mußten durch geänderte Einschußbedingungen in den RFQ die Linsenspannungen gegenüber dem Testbetrieb variiert werden. Mit dem Aufbau des Funneling-Deflektors wird zur Zeit begonnen. Nach der Erprobung wird der Einbau in die Strahlachse erfolgen.
In dieser Arbeit wurden Untersuchungen zur Einstellung und Analyse des Sauerstoffgehalts an YBa2Cu3O6+x-Dünnfilmen durchgeführt. Zur Analyse des Sauerstoffgehalts wurde ein optisches Verfahren angewendet. Durch Messung der Transmission un der Reflektion in einem Spektralbereich von 2000nm bis 3000nm wird mit Hilfe des im Rahmen dieser Arbeit erstellten Markov-Modells die optische Leitfähigkeit bestimmt. Aus den gewonnen Werten der optischen Leitfähigkeit kann so auf den Sauerstoffgehalt in YBa2Cu3O6+x geschlossen werden.
Es wurde eine Meßstation zum Vermessen von THz-Photomischern vorgestellt und aufgebaut. Weiterhin konnte gezeigt werden, wie diese Station es ermöglicht, das Vermessen von THz-Photomischern, im Vergleich zum bisher verwendeten Meßaufbau, deutlich zu vereinfachen und zu beschleunigen. Mit dieser Station wurden zwei Proben, die sich in der Dicke der LT-GaAs-Schicht unterscheiden, vermessen. Um die gemessenen Daten analysieren zu können wurden zuvor beschrieben, wie eine Modulation des Photostroms in Photomischern erhalten und damit THz-Strahlung erzeugt werden kann. Gemessen wurde die THz-Leistung in Abhängigkeit von Frequenz , Vorspannung und Leistung der optischen Beleuchtung. Diese Messungen haben zu Ergebnissen geführt, die nur zum Teil mit den theoretisch vorhergesagten Ergebnissen übereinstimmen. So wurde festgestellt, daß nur etwa 1 bis 2 % der theoretisch erwarteten THz-Leistung detektiert wurde. Dies kann an langlebigen Ladungsträgern liegen, die im Substrat erzeugt werden. Diese Ladungsträger unterhalb der LT-GaAs-Schicht führen zu einer erhöhten Leitfähigkeit und können dadurch Reflexion und Absorption von THz-Strahlung verursachen. Diese Vermutung wird unterstützt durch die Beobachtung einer starken Reduktion des Signals in einem gepulsten THz-System, wenn eine konstante Hintergrundbeleuchtung eingeschaltet wird.[45] Weiterhin ist nicht auszuschließen, daß die für die THz-Erzeugung relevante Lebenszeit der Ladungsträger deutlich größer ist, als die mit Anrege-Abfrage-Messungen bestimmte. Analog könnte auch eine deutlich höhere Kapazität des Photomischers als die theoretisch berechnete diese Beobachtung erklären. Ob langlebige Ladungsträger im Substrat für die geringe gemessen Leistung verantwortlich sind kann überprüft werden, indem zwischen Substrat und LT-GaAs-Schicht einen Bragg-Refelektor gewachsen wird. So kann verhindert werden, daß eingestrahlte Leistung das Substrat erreicht. Dadurch können keine Ladungsträger im Substrat angeregt werden. Zusätzlich hat dies den Effekt, daß ein größerer Anteil der eingestrahlten Strahlung absorbiert werden kann, weil die einfallende Strahlung wegen der Reflexion zweimal durch die LT-GaAs-Schicht läuft. Ein solcher Mischer wurde bereits von E. R. Brown vorgeschlagen.[46] Bei den Messungen der THz-Leistung gegen Vorspannung konnte beobachtet werden, daß der Photostrom eine andere Abhängigkeit von der Vorspannung zeigt, als theoretisch vorhergesagt wurde. Erwartet wurde ein linearer Zusammenhang. Bei höheren Vorspannungen wurde aber ein stärkerer Anstieg beobachtet. Dies kann z.B. an einem zusätzlichen nichtlinearen Strom durch das Substrat oder an einer vom elektrischen Feld abhängigen Lebenszeit der Ladungsträger liegen. Für beide Erklärungsansätze wurden vereinfachte Modelle vorgestellt. Beide Modelle treffen dabei unterschiedliche Vorhersagen über die Änderung der Effizienz beim Auftreten des höheren Stromes. Deutlich werden die Unterschiede in den Vorhersagen im Frequenzverlauf. So führt ein zusätzlicher Strom durch das Substrat zu einer Verringerung der Effizienz um einen von der Frequenz unabhängigen konstanten Faktor. Der Frequenzverlauf verschiebt sich also zu geringeren Effizienzen. Eine Erhöhung der Lebenszeit hingegen führt zu einem geänderten Frequenzverlauf. So ist die Änderung der Effiienz bei niedirgen Frequenzen gering, zu höheren Frequenzen hin ändert sich die Effizienz jedoch immer stärker. Die Vorhersagen beider Modelle wurden mit dem gemessenen Daten verglichen. Bei den gegebenen Parametern war der Unterschied zwischen den beiden Modellen jedoch zu gering und die Fluktuation in den Meßdaten zu hoch, um entscheiden zu können, welches der beiden Modelle die gemessenen Daten besser beschreibt. Um erkennen zu können, welches der Modelle den Effekt beschreibt, der zu einem höheren Strom führt, müßte der Effekt in den Meßdaten erhöht werden. Dies kann geschehen, indem zusätzlich bei höheren Spannungen gemessen wird. Es müßte dabei allerdings die optische Leistung reduziert werden, um ein Zerstören der Mischer zu vermeiden. In dieser Arbeit konnte somit gezeigt werden, daß die aufgebaute Meßstation ein vereinfachtes Messen von THz-Photomischern ermöglicht. Weiterhin konnte das Verhalten von zwei vermessenen Mischern gezeigt und analysiert werden, sowie weitere Messungen vorgeschlagen werden, die eine exaktere Analyse der Photomischer ermöglichen sollten.
Bei der Regulierung und Aufsicht auf den internationalen Wertpapiermärkten gibt es immer noch viele Unterschiede bei den Regelungsinhalten und in der Prioritätensetzung. Die steigende weltweite Verflechtung der Finanzsektoren und deren Akteure sowie die hohe Kapitalmobilität machen es jedoch zunehmend erforderlich, auch die Aufsicht zunehmend zu internationalisieren. Internationale Aufsichtsstandards wiederum können grenzüberschreitende Aktivitäten von Marktteilnehmern erleichtern und sicherer machen. Es ist inzwischen anerkannt, dass eine gute und effiziente Regulierung einen Finanzplatz gerade im internationalen Umfeld attraktiv macht und so dessen Wettbewerbsfähigkeit erhöht. Es ist daher von großer Bedeutung, die nationale Aufsicht internationalen Standards folgen zu lassen. Eine wichtige Funktion bei der Aufstellung dieser Standards haben die internationalen Organisationen wie IOSCO im Wertpapierhandel, die IAIS im Versicherungs- und der Baseler Ausschuss im Bankenbereich inne. In vielfältiger Weise ist deren Arbeit für den Finanzplatz Deutschland richtungsweisend. Das sind wichtige Gründe, weshalb die Teilnahme an Aktivitäten der IOSCO, Mitarbeit an Berichten, Standards und Resolutionen der IOSCO dem deutschen Kapitalmarkt und insbesondere dem Wertpapierhandel in Deutschland nützen kann. Um näher verständlich machen zu können, auf welche Weise IOSCO dem deutschen Kapitalmarkt in diesem Sinne nützlich sein kann, und Arbeiten in der IOSCO von Bedeutung für das deutsche Recht im Bereich des Wertpapierhandels sind, ist es zunächst wichtig, die Organisation IOSCO (1) , ihre Zielsetzung (2) und Struktur (3) zu verstehen, und die Bereiche zu kennen, in denen IOSCO arbeitet (4) sowie die Formen und jeweilige Bindungswirkung der Produkte der IOSCO (5). Wichtig in diesem Zusammenhang sind auch Art und Weise, auf die in IOSCO Beschlossenes unser Finanzsystem tangieren kann und bereits tangiert hat.
The volume is a collection of papers given at the conference “sub8 -- Sinn und Bedeutung”, the eighth annual conference of the Gesellschaft für Semantik, held at the Johann-Wolfgang-Goethe-Universität, Frankfurt (Germany) in September 2003. During this conference, experts presented and discussed various aspects of semantics. The very different topics included in this book provide insight into fields of ongoing Semantics research.
In der vorliegenden Arbeit wird die Photodoppelionisation (PDI) von Helium (He) experimentell untersucht. Dazu wurde an der Synchrotronstrahlenquelle Advanced Light Source des Lawrence Berkeley National Laboratory (USA) der vollständig differentielle Wirkungsquerschnitt (FDCS) der PDI von He mit linear sowie mit links und rechts zirkular polarisiertem Licht bei den zwei Photon-Energien E_gamma = 179 eV und 529 eV gemessen. Dabei gelang erstmals eine Messung, bei der die Kontinuumsenergie der Fragmente wesentlich über der Bindungsenergie (79 eV) des Systems liegt. Aufgrund dieser hohen Energie lassen die gemessenen Winkel- und Energieverteilungen erstmals Rückschlüsse auf die Wechselwirkungsprozesse in der Ionisation zu. In allen bisherigen Messungen bei niedrigen Photon-Energien überdeckt der Einfluß der Elektron-Elektron-Wechselwirkung im Endzustand alle Spuren der seit langem theoretisch diskutierten Reaktionsmechanismen. Der FDCS der PDI von He wurde mit einer COLTRIMS (COLd Target Recoil Ion Momentum Spectroscopy)-Apparatur gemessen. Hierbei wird das Gastarget durch eine adiabatische Expansion gekühlt und dann mit dem Photon-Strahl zum Überlapp gebracht. Die bei einer Reaktion freigesetzten Elektronen, deren Summenenergie sich zu E_sum = E_1 + E_2 = E_gamma - 79 eV berechnet (die Summenenergie der beiden Elektronen ist gleich der Überschußenergie E_exc), werden mit einer Energie bis zu E_1,2 = 60 eV durch ein elektrisches und magnetisches Feld im vollen Raumwinkel von 4 pi auf einem großen ortssensitiven Detektor abgebildet. Das elektrische Feld projiziert die kalten Rückstoßionen auf einen zweiten ortssensitiven Detektor. Aus der Flugzeit und dem Auftreffort werden der Ladungszustand und der Impuls der Teilchen ermittelt. Ergebnisse: Die Energieaufteilung auf die beiden Elektronen erfolgt asymmetrisch. Diese Asymmetrie ist bei der PDI 450 eV über der Doppelionisationsschwelle (79 eV) stärker ausgeprägt als bei E_exc = 100 eV. Langsame Elektronen werden generell isotrop zur Polarisation emittiert (beta = 0), während die 100 eV-Elektronen einen Anisotropie-Parameter von beta = 1,7 und die sehr schnellen 450 eV-Elektronen sogar eine Dipolverteilung (beta = 2) bzgl. der Polarisationsachse aufweisen. Eine asymmetrische Energieaufteilung zusammen mit einem Anisotropie-Parameter von beta = 2 für die 450 eV-Elektronen zeigt, daß bei der PDI 450 eV über der Schwelle ein Zwei-Stufen-Prozeß vorliegt, in dem das erste Elektron die Energie und den Drehimpuls des Photons aufnimmt. Das zweite Elektron gelangt dann durch den Shake-off oder den Two-Step-One-Mechanismus ins Kontinuum. Sowohl die Häufigkeitsverteilung der Zwischenwinkel der Elektronen als auch der Verlauf der Quadrate der geraden und der ungeraden Amplituden bei der PDI 450 eV über der Schwelle zeigen, daß sehr langsame Elektronen (2 eV) hauptsächlich durch den Shake-off-Mechanismus ins Kontinuum gelangen, während etwas schnellere 30 eV-Elektronen ihre Energie über einen (e,2e)-Stoß (Two-Step-One-Mechanismus) erhalten. Für 100 eV über der Schwelle zeigt sich, daß der Relativimpulsvektor der beiden Elektronen parallel zum Polarisationsvektor steht. Das bedeutet, daß die PDI von He 100 eV über der Schwelle nicht mehr im Gültigkeitsbereich der Wannier-Näherung liegt. Aufgrund der großen Geschwindigkeitsdifferenzen kann die PDI von Helium parallel zum Polarisationsvektor erfolgen. Der gegen den Zwischenwinkel varphi_12 der Elektronen aufgetragene normierte Zirkulare Dichroismus CD_n ist bei E_exc = 100 eV wesentlich stärker ausgeprägt als bei E_exc = 450 eV. Der Wert des Extremums ist für alle Energieaufteilungen - außer der symmetrischen - gleich. Für beide Überschußenergien findet man eine Abhängigkeit der varphi_12-Position des Extremums von der Energieaufteilung. Die Extreme entfernen sich mit zunehmender asymmetrischer Energieaufteilung von varphi_12=180°. Die experimentell gewonnenen Ergebnisse zu den vollständig differentiellen Wirkungsquerschnitten der PDI von He sowohl mit linear als auch mit links und rechts zirkular polarisiertem Licht bei 100 eV und 450 eV über der Doppelionisationsschwelle zeigen insgesamt gute Übereinstimmungen mit den Ergebnissen der convergent-close-coupling-Rechnungen von A. Kheifets und I. Bray.
In der vorliegenden Arbeit wird die enge Verbindung von Zeitvorstellungen und gesellschaftlicher Zeitorganisation zu gesellschaftlichen Zukunftsvorstellungen und individuellen Lebensperspektiven herausgearbeitet. Erfasst und analysiert werden auch jene Faktoren, die die Manipulationsmacht des Menschen und der gesellschaftlichen Systeme bei temporalen Gestaltungsvorhaben begrenzen. Kernaussage und zentrale Fragestellungen: Zeitbewusstsein und Zeitvorstellungen prägen die Vorstellungen von Zukunft. Bestimmte Formen von Zeit und gesellschaftlicher Zeitorganisation können die Entstehung und Entwicklung von Zukunftsvorstellungen hemmen oder fördern. Damit ragen Zeitbewusstsein und Zeitorganisation in die Wahrnehmung und Entwicklung von Zukunft hinein. Zentral ist u.a. die Form, in der Zeit zur Verfügung steht. Sind es immer nur kurze Momente, die für Reflexion, Retrospektion oder Prospektion zur Verfügung stehen oder längere zusammenhängende Sequenzen? Stehen solche Zeiten nur dem auf sich gestellten Individuum oder ganzen gesellschaftlichen Gruppen gemeinsam zur Verfügung? Liegen diese Zeiten so und sind sie so gestaltet, dass sie sinnvoll zur Entwicklung und Gestaltung von Zukunft genutzt werden können? Aufbau der Arbeit: Im ersten Kapitel wird das Thema expliziert und werden Aufbau, Methode und Grenzen der Fragestellung werden. Im zweiten Kapitel werden verschiedene Formen des Umgangs mit Zukunft und unterschiedliche Methoden der Vorausschau beschrieben. Dabei liegt der Fokus auf den zeitlichen Voraussetzungen für individuelle und kollektive Entwicklung von Zukunftsvorstellungen und für die demokratische Gestaltung von Zukunft. Im dritten Kapitel werden auf Basis naturwissenschaftlicher, medizinischer und psychologischer Quellen die zeitlichen Strukturen und Bedürfnisse des Menschen erläutert. Es wird dargestellt, wie diese bewusst und unbewusst auf Zeitvorstellungen und den Umgang mit Zeit und Zukunft einwirken. Der Bogen wird gespannt von der Naturzeit bis zu einer von Menschen in unterschiedlicher Form wahrgenommenen und gestalteten Zeit. Herausgearbeitet werden die negativen Folgen und die positiven Möglichkeiten unterschiedlicher Formen des Umgangs mit Zeit. Zugleich wird verdeutlicht, wie die Gestaltung von Zeit das Denken über Zukunft beeinflussen, ermöglichen oder blockieren kann. Im vierten Kapitel wird gezeigt, wie sich die gesellschaftliche Zeitorganisation und das Zeitbewusstsein historisch verändert haben, während Zukunftsvorstellungen und Zukunftsentwürfe sich gleichzeitig wandelten. Die historische Spanne reicht dabei von den handlungsorientierten Zeitvorstellungen primitiver Gesellschaften, über zyklische, naturnahe Zeitvorstellungen der Agrargesellschaften, bis zur Entstehung linearer Zeitvorstellungen in der Religion und weiter über die entwickelten linearen Zeitvorstellungen der bürgerlichen Gesellschaft hin zur fragmentierten oder digitalisierten Zeit der Gegenwart. Diese Entwicklung verläuft parallel zur Entwicklung der Zukunftsvorstellungen von einer klaren Handlungsorientierung, über Paradieseskonzeptionen und große gesellschaftliche Utopien, zu einer zunehmend individualisierten und verkürzten Vorstellung von Zukunft. Im Mittelpunkt der Analyse steht die enge Verbindung zwischen diesen beiden Elementen. Es wird betrachtet, wie auf frühere Phasen der Geschichte, in denen Zukunft in einem diesseitigen Sinn kaum eine Rolle spielte, Phasen folgen, in denen Zukunft als langfristige Gestaltung der Welt und des eigenen Lebens das Denken der Menschen präge, während heute die kurzfristige Gestaltung des individuellen Lebens im Vordergrund steht. In einem kurzen Schlusskapitel werden zwei zentrale Ergebnisse formuliert: 1. Der Mensch ist in zeitlicher Sicht grundsätzlich abhängig von den Zeiten der Natur. Die Natur (die innere und die äußere) ist rhythmisch strukturiert und diese Rhythmen sind gekennzeichnet durch eine Vielfalt von Zeitformen und Bedürfnissen. Die Gesellschaft muss auf diese Vielfalt Rücksicht nehmen und sie in ihre Zeitorganisationsentscheidungen integrieren, um eine Balance von Stabilität und Flexibilität zu entwickeln. 2. Zeitvorstellungen und Zukunftsvorstellungen sind epochal unterschiedlich. Dabei prägt die jeweilige Zeitvorstellung zentral die Vorstellungen von Zukunft. Auch wenn heute immer mehrere Zeitvorstellungen nebeneinander existieren, die individuelle Wahl- und Orientierungsentscheidungen ermöglichen, gibt es doch dominante Vorstellungen von Zeit und eine gesellschaftliche Ordnung der Zeit, die diese Optionsvielfalt wesentlich verringern. Abschließend werden kurze Hinweise auf einen zukunftsfähigen Umgang mit Zeit und Zukunft unter den Stichworten Zukunftsgestaltung, Zeitbrachen, Chillout, individuelle Reflexion und Zukunftsoffenheit gegeben.
Die Begrenzung der Beteiligungen von Einlagenkreditinstituten an Unternehmen außerhalb des Finanzsektors nach § 12 Abs. 1 KWG ist mit der Einführung des Begriffs der qualifizierten Beteiligung (§ 1 Abs. 15 KWG) durch das Vierte Finanzmarktförderungsgesetz1 neu geregelt worden, nachdem § 12 KWG bereits zuvor im Rahmen der 6. KWG-Novelle2 gänzlich umgestaltet wurde3. Bislang knüpfte die bankaufsichtsrechtliche Reglementierung von Unternehmensbeteiligungen an den Begriff der bedeutenden Beteiligung im Sinne von § 1 Abs. 9 KWG an. Da dieser Begriff zugleich Anknüpfungspunkt für die Regeln über die Anteilseignerkontrolle gemäß § 2b KWG ist und beiden Regelungsbereichen ein unterschiedlicher Normzweck zugrunde liegt, hat es der Gesetzgeber aus Gründen der Rechtsklarheit für erforderlich gehalten, den Begriff der qualifizierten Beteiligung einzuführen, um nicht völlig unterschiedliche Sachverhalte mit dem gleichen juristischen Term zu besetzen 4. § 2b KWG dient dazu, die an Instituten tatsächlich bestehenden Machtverhältnisse offenzulegen, um es der Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin) zu ermöglichen, etwaige Gefahren für die Funktionsfähigkeit von Instituten rechtzeitig abzuwehren5. Demgegenüber sollen durch die Begrenzung von Beteiligungen nach § 12 Abs. 1 und 2 KWG in erster Linie Ansteckungsrisiken reduziert werden6. Beteiligungen können die Solidität des beteiligten Unternehmens in Gefahr bringen, wenn das Beteiligungsunternehmen in finanzielle Schwierigkeiten gerät oder sogar insolvent wird. Für Einlagenkreditinstitute ist die Gefahr einer beteiligungsbedingten Ansteckung besonders hoch, da sie ihre Aktiva durch die Hereinnahme von Einlagen überwiegend fremd finanzieren7. Die bankaufsichtsrechtliche Beteiligungsreglementierung verdient vor dem Hintergrund ihrer neuen Fassung eine nähere Überprüfung. Bei der Untersuchung wird insbesondere der für die Begrenzung von Beteiligungen zentrale Begriff der qualifizierten Beteiligung nach 1 Abs. 15 KWG analysiert (dazu III.). Darüber hinaus werden die sonstigen Tatbestandsmerkmale des § 12 Abs. 1 KWG (dazu II. und IV.) sowie die Folgen der Überschreitung vorgegebener Beteiligungsbegrenzungen erörtert (dazu V.). Eine Beurteilung der Regulierung von Unternehmensbeteiligungen nach § 12 Abs. 1 KWG rundet den Beitrag ab.
Bei der Bestimmung von Eingriffsbefugnissen der BaFin jenseits der vom Gesetz vorgesehenen besonderen Kompetenzen ist Zurückhaltung geboten: Die Auffangermächtigung nach § 4 Abs. 1 Satz 3 WpÜG ist keine Allzweckwaffe nach Art der polizeilichen Generalklausel, sondern soll lediglich die besonderen Ermittlungs- und Eingriffsbefugnisse der Behörde dort ergänzen, wo diese Befugnisse auch im Zusammenwirken mit anderen Rechtsfolgen von Pflichtverstößen nicht ausreichen, um die Regelungen des Gesetzes durchzusetzen und das Gesetz dieses Sanktionsdefizit auch nicht bewusst in Kauf nimmt. In den praktisch wichtigen Fällen der Erzwingung von Pflichtangeboten, der Änderung von Angeboten nach ihrer Veröffentlichung und des Einschreitens gegen unzulässige Abwehrmaßnahmen ist danach für den Rückgriff auf § 4 Abs. 1 Satz 3 WpÜG kaum Raum. Beim Rechtsschutz Dritter gegenüber der BaFin verfolgt das Gesetz eine mittlere Linie: Amtshaftungsansprüche wegen fehlerhafter Aufsicht und Ansprüche auf Einschreiten der Behörde sind durch die Öffentlichkeitsklausel des § 4 Abs. 2 WpÜG in verfassungsrechtlich unbedenklicher Weise ausgeschlossen. Dagegen besagt § 4 Abs. 2 WpÜG nichts über die Schutzrichtung der Regelungen über das Angebotsverfahren. Die Vorschrift steht dementsprechend nicht einer Anfechtung begünstigender Verfügungen durch Dritte entgegen, soweit das Gesetz auch den Schutz ihrer Interessen bezweckt. Daher sind insbesondere Aktionäre der Zielgesellschaft befugt, mit Widerspruch und Beschwerde gegen Befreiungen nach §§ 36 und 37 WpÜG vorzugehen, die in ihr Recht auf Abgabe eines Pflichtangebotes eingreifen.
Die Wirkung der 3-Hydroxy-3-Methylglutaryl-CoA-Reduktasehemmer ist auf die Blockierung der Isoprenoid-Bildung in der Cholesterin-de-novo-Synthese zurückzuführen. Unter Statin-Behandlung von glatten Gefäßmuskelzellen kommt es im Zytoplasma zur Akkumulation der inaktiven GTPase Rac, die für ihre Aktivierung Geranylgeranylpyrophosphat zur Verankerung in die Plasmamembran benötigt. Nach Stimulation von Agonisten wie Angiotensin II und Thrombin hemmen Statine die Rac-abhängige NADPH-Oxidase, die eine wichtige Quelle der vaskulären Sauerstoffradikalproduktion (ROS) ist. Die Senkung der ROS-Bildung hat die Blockierung der Phosphorylierung von ERK 1/2 und p38 MAP-Kinase und der Expression redox-sensitiver Gene zur Folge. In der vorliegenden Arbeit werden Untersuchungen an kultivierten glatten Muskelzellen zusammengefasst, die zeigen sollen, dass der Statin-Entzug in der Expression pro-inflammatorischer Gene resultiert, die eine bedeutende Rolle bei der Entwicklung und Progression der Arteriosklerose spielen. Es wurde nachgewiesen, dass der Entzug von Cerivastatin in vorbehandelten glatten Gefäßmuskelzellen zur Induktion von MCP-1 und Tissue Faktor (TF) mRNA führt. Die Steigerung der Expression von MCP-1 hat schließlich eine relevante MCP-1 Freisetzung zur Folge. Im Falle von TF ist die Expression so ausgeprägt, dass es auch zu einer Erhöhung der Aktivität von TF an der Zellmembran kommt. Durch Zusatz von Geranylgeranylpyrophosphat und Mevalonsäure kann die Wirkung der HMG-CoA-Reduktasehemmer wieder aufgehoben werden. Unter dem Einfluss der Hemmstoffe PD98059, SB203580 und Diphenyleniodonium (DPI) wird die durch Abbruch der Statin-Behandlung bedingte Expression des proarteriosklerotischen Faktors unterdrückt. Diese Beobachtung lässt die Beteiligung von ERK 1/2, p38 MAP-Kinase und NADPH-Oxidase an der Signaltransduktion zu. Der Entzug von Statinen führt zu einer Steigerung der Phosphorylierung der MAP-Kinasen und zu einer Verstärkung der ROS-Bildung. Da die Produktion von Sauerstoffradikalen vermutlich als Folge der Aktivierung der Rac-abhängigen NADPH-Oxidase ist, wurde der Effekt des Entzuges auf die Rac-Translokation in der Zelle untersucht. Es zeigte sich, dass die Unterbrechung der Behandlung mit HMG-CoA-Reduktasehemmer mit einer überschiessenden Translokation der GTPase vom Zytoplasma an die Plasmamembran verbunden ist. Aus den erhobenen Befunden kann somit gefolgert werden, dass der Entzug von Statinen in einer Aktivierung von Rac und konsekutiver ROS-Bildung resultiert. Durch die Aktivierung der nachfolgenden Signaltransduktionskaskaden kommt es zu einer Induktion von MCP-1 und Tissue Faktor.
Ziel der Nachuntersuchung war es, 10 Jahres Ergebnisse nach arthroskopischer vorderer Kreuzbandplastik mittels Patellarsehne zu erhalten. Dafür wurden 74 Patienten, 55 Männer und 19 Frauen mit einem durchschnittlichen Alter von 38 Jahren im Mittel 113 Monaten nach arthroskopischer vorderer Kreuzbandplastik mit Interferenzschraubenfixation nachuntersucht. Evaluiert wurden die IKDC Evaluation, die Tegner - Aktivitätsskala und der Lysholm - Score. Die Bandstabilität wurde instrumentell mit dem Rolimeter getestet. Die statistische Auswertung erfolgte mittels c² Test. Die Tegner - Aktivitätsskala ergab ein durchschnittliches Aktivitätsniveau von 5,2. Vor der Verletzung lag der Wert bei 6,4. Der Lysholm - Score erreichte 93,6 von 100 Punkten. Hinsichtlich der Funktion wurden 74% und hinsichtlich der Stabilität 72% der Patienten in der IKDC Evaluation als normal bzw. als fast normal bewertet. Der mit dem Rolimeter bestimmte Lachman Test war in 88% normal und in 12% fast normal. Der pivot-shift Test war in 95% der Fälle negativ. 30% der Patienten zeigten in den Röntgenaufnahmen zum Nachuntersuchungszeitpunkt deutlich degenerative Veränderungen. Es ergibt sich eine signifikante Korrelation zwischen der Zeitdauer vom Unfall bis zur operativen Versorgung und dem Arthrosegrad. Die Beschwerden an der Transplantatentnahmestelle korrelieren signifikant mit den allgemeinen Symptomen. Das Ausmaß der Arthrose korreliert signifikant mit der Mensikusschädigung. Zur Vermeidung der Folgearthrose sollte daher bei gegebener Indikation eine frühzeitige Kreuzbandversorgung und im Falle der Begleitmeniskusverletzung dessen Erhalt mittels Refixation angestrebt werden.
Compelling evidence for the creation of a new form of matter has been claimed to be found in Pb+Pb collisions at SPS. We discuss the uniqueness of often proposed experimental signatures for quark matter formation in relativistic heavy ion collisions. It is demonstrated that so far none of the proposed signals like J/psi meson production/suppression, strangeness enhancement, dileptons, and directed flow unambigiously show that a phase of deconfined matter has been formed in SPS Pb+Pb collisions. We emphasize the need for systematic future measurements to search for simultaneous irregularities in the excitation functions of several observables in order to come close to pinning the properties of hot, dense QCD matter from data.
We calculate the Gaussian radius parameters of the pion-emitting source in high energy heavy ion collisions, assuming a first order phase transition from a thermalized Quark-Gluon-Plasma (QGP) to a gas of hadrons. Such a model leads to a very long-lived dissipative hadronic rescattering phase which dominates the properties of the two-pion correlation functions. The radii are found to depend only weakly on the thermalization time tau i, the critical temperature T c (and thus the latent heat), and the specific entropy of the QGP. The dissipative hadronic stage enforces large variations of the pion emission times around the mean. Therefore, the model calculations suggest a rapid increase of R out/R side as a function of K T if a thermalized QGP were formed.
The equilibration of hot and dense nuclear matter produced in the central cell of central Au+Au collisions at RHIC (sqrt s = 200 A GeV) energies is studied within a microscopic transport model. The pressure in the cell becomes isotropic at t approx 5 fm/c after beginning of the collision. Within the next 15 fm/c the expansion of matter in the cell proceeds almost isentropically with the entropy per baryon ratio S/A approx 150, and the equation of state in the (P,epsilon) plane has a very simple form, P=0.15 epsilon. Comparison with the statistical model of an ideal hadron gas indicates that the time t approx 20 fm/c may be too short to reach the fully equilibrated state. Particularly, the creation of long-lived resonance-rich matter in the cell decelerates the relaxation to chemical equilibrium. This resonance-abundant state can be detected experimentally after the thermal freeze-out of particles.
The yields of strange particles are calculated with the UrQMD model for p,Pb(158 AGeV)Pb collisions and compared to experimental data. The yields are enhanced in central collisions if compared to proton induced or peripheral Pb+Pb collisions. The enhancement is due to secondary interactions. Nevertheless, only a reduction of the quark masses or equivalently an increase of the string tension provides an adequate description of the large observed enhancement factors (WA97 and NA49). Furthermore, the yields of unstable strange resonances as the Lambda star(1520) resonance or the phi meson are considerably affected by hadronic rescattering of the decay products.
The equilibration of hot and dense nuclear matter produced in the central region in central Au+Au collisions at square root s = 200A GeV is studied within the microscopic transport model UrQMD. The pressure here becomes isotropic at t approx 5 fm/c. Within the next 15 fm/c the expansion of the matter proceeds almost isentropically with the entropy per baryon ratio S/A approx 150. During this period the equation of state in the (P, epsilon)-plane has a very simple form, P = 0.15 epsilon. Comparison with the statistical model (SM) of an ideal hadron gas reveals that the time of approx 20 fm/c may be too short to attain the fully equilibrated state. Particularly, the fractions of resonances are overpopulated in contrast to the SM values. The creation of such a long-lived resonance-rich state slows down the relaxation to chemical equilibrium and can be detected experimentally.
Enhanced antiproton production in Pb(160 AGeV)+Pb reactions: evidence for quark gluon matter?
(2000)
The centrality dependence of the antiproton per participant ratio is studied in Pb(160 AGeV)+Pb reactions. Antiproton production in collisions of heavy nuclei at the CERN/SPS seems considerably enhanced as compared to conventional hadronic physics, given by the antiproton production rates in pp and antiproton annihilation in p p reactions. This enhancement is consistent with the observation of strong in-medium effects in other hadronic observables and may be an indication of partial restoration of chiral symmetry.
The relaxation of hot nuclear matter to an equilibrated state in the central zone of heavy-ion collisions at energies from AGS to RHIC is studied within the microscopic UrQMD model. It is found that the system reaches the (quasi)equilibrium stage for the period of 10-15 fm/c. Within this time the matter in the cell expands nearly isentropically with the entropy to baryon ratio S/A = 150 - 170. Thermodynamic characteristics of the system at AGS and at SPS energies at the endpoints of this stage are very close to the parameters of chemical and thermal freeze-out extracted from the thermal fit to experimental data. Predictions are made for the full RHIC energy square root s = 200$ AGeV. The formation of a resonance-rich state at RHIC energies is discussed.
The behavior of hadronic matter at high baryon densities is studied within Ultrarelativistic Quantum Molecular Dynamics (URQMD). Baryonic stopping is observed for Au+Au collisions from SIS up to SPS energies. The excitation function of flow shows strong sensitivities to the underlying equation of state (EOS), allowing for systematic studies of the EOS. Effects of a density dependent pole of the rho-meson propagator on dilepton spectra are studied for different systems and centralities at CERN energies.
Dilepton spectra are calculated within the microscopic transport model UrQMD and compared to data from the CERES experiment. The invariant mass spectra in the region between 300 MeV and 600 MeV depend strongly on the mass dependence of the rho meson decay width which is not sufficiently determined by the Vector Meson Dominance model. A consistent explanation of both the recent Pb+Au data and the proton induced data can be given without additional medium effects.
The hypothesis of local equilibrium (LE) in relativistic heavy ion collisions at energies from AGS to RHIC is checked in the microscopic transport model. We find that kinetic, thermal, and chemical equilibration of the expanding hadronic matter is nearly reached in central collisions at AGS energy for t >_ fm/c in a central cell. At these times the equation of state may be approximated by a simple dependence P ~= (0.12-0.15) epsilon. Increasing deviations of the yields and the energy spectra of hadrons from statistical model values are observed for increasing bombarding energies. The origin of these deviations is traced to the irreversible multiparticle decays of strings and many-body (N >_ 3) decays of resonances. The violations of LE indicate that the matter in the cell reaches a steady state instead of idealized equilibrium. The entropy density in the cell is only about 6% smaller than that of the equilibrium state.
Local equilibrium in heavy ion collisions. Microscopic model versus statistical model analysis
(1999)
The assumption of local equilibrium in relativistic heavy ion collisions at energies from 10.7 AGeV (AGS) up to 160 AGeV (SPS) is checked in the microscopic transport model. Dynamical calculations performed for a central cell in the reaction are compared to the predictions of the thermal statistical model. We find that kinetic, thermal and chemical equilibration of the expanding hadronic matter are nearly approached late in central collisions at AGS energy for t >= 10 fm/c in a central cell. At these times the equation of state may be approximated by a simple dependence P ~= (0.12-0.15) epsilon. Increasing deviations of the yields and the energy spectra of hadrons from statistical model values are observed for increasing energy, 40 AGeV and 160 AGeV. These violations of local equilibrium indicate that a fully equilibrated state is not reached, not even in the central cell of heavy ion collisions at energies above 10 AGeV. The origin of these findings is traced to the multiparticle decays of strings and many-body decays of resonances.
In dieser Arbeit werden Untersuchungen über die Anwendbarkeit von vier Methoden zur selektiven Einführung von Radikalen in DNA vorgestellt. Hierzu wurde die EPR-Spektroskopie (Elektronen-paramagnetische Resonanz) benutzt. Die selektive Einführung und Erzeugung von Radikalen in DNA ist nötig, um J-Kopplungen in DNA zu untersuchen. Vor dem Fernziel der Bestimmung der Austauschkopplungskonstanten J in biradikalischer DNA und deren Korrelation mit der charge-transfer-Geschwindigkeitskonstanten kCT stellen diese Untersuchungen einen wichtigen Ausgangspunkt dar. Stabile aromatische Nitroxide. Simulationen von Raumtemperatur-CW-X-Band-EPRSpektren fünf verschiedener aromatischer Nitroxide, welche potentielle DNA-Interkalatoren sind, wurden durchgeführt. Die aromatischen Nitroxide zeigen aufgelöste Hyperfeinkopplungen, welche zu dem Schluss führen, dass die Spindichte in hohem Maße delokalisiert ist, was die Verwendung dieser Verbindungen zur Messung von J-Kopplungen in biradikalischer DNA erlaubt. Transiente Guanin-Radikale. Transiente Guanin-Radikale werden in DNA selektiv durch die Flash-Quench-Technik erzeugt, bei der optisch anregbare Ruthenium-Interkalatoren verwendet werden. Transiente Thymyl-Radikale aus UV-bestrahltem 4'-Pivaloyl-Thymidin. Es werden photoinduzierte Prozesse untersucht, welche durch Bestrahlung von Thymin-Nukleosiden, die an der 4’-Position die optisch spaltbare Pivaloyl-Gruppe tragen, erzeugt werden. Dieses Nukleosid wurde speziell dafür entworfen, um Elektronenlöcher in DNA zu injizieren. In dieser Arbeit wird gezeigt, dass diese Verbindung benutzt werden kann, um selektiv eine Thymin-Base zu reduzieren. Transiente Thymyl-Radikale erzeugt durch ein neuartig modifiziertes Thymin nach UV-Bestrahlung. Photoinduzierte Prozesse, welche durch Bestrahlung eines ähnlichen Thymidin-Nukleosids erzeugt wurden, werden hier untersucht. Dieses Thymidin- Nukleosid wurde modifiziert, indem die optisch spaltbare Pivaloyl-Gruppe an eine Seitenkette angehängt wurde, welche an der C6-Position der Thymin-Base sitzt. Die Thymin-Base wurde speziell dafür entworfen, um Elektronen in DNA zu injizieren. In dieser Arbeit wurde bestätigt, dass ein Überschuss-Elektron selektiv auf eine Thymin-Base transferiert werden kann.
The behavior of hadronic matter at high baryon densities is studied within Ultrarelativistic Quantum Molecular Dynamics (URQMD). Baryonic stopping is observed for Au+Au collisions from SIS up to SPS energies. The excitation function of flow shows strong sensitivities to the underlying equation of state (EOS), allowing for systematic studies of the EOS. Dilepton spectra are calculated with and without shifting the rho pole. Except for S+Au collisions our calculations reproduce the CERES data.
Quantum Molecular Dynamics (QMD) calculations of central collisions between heavy nuclei are used to study fragment production and the creation of collective flow. It is shown that the final phase space distributions are compatible with the expectations from a thermally equilibrated source, which in addition exhibits a collective transverse expansion. However, the microscopic analyses of the transient states in the intermediate reaction stages show that the event shapes are more complex and that equilibrium is reached only in very special cases but not in event samples which cover a wide range of impact parameters as it is the case in experiments. The basic features of a new molecular dynamics model (UQMD) for heavy ion collisions from the Fermi energy regime up to the highest presently available energies are outlined.
We study the thermodynamic properties of infinite nuclear matter with the Ultrarelativistic Quantum Molecular Dynamics (URQMD), a semiclassical transport model, running in a box with periodic boundary conditions. It appears that the energy density rises faster than T4 at high temperatures of T approx. 200 - 300 MeV. This indicates an increase in the number of degrees of freedom. Moreover, We have calculated direct photon production in Pb+Pb collisions at 160 GeV/u within this model. The direct photon slope from the microscopic calculation equals that from a hydrodynamical calculation without a phase transition in the equation of state of the photon source.
Die in Englisch verfasste Dissertation, die unter der Betreuung von Herrn Prof. Dr. H. F. de Groote, Fachbereich Mathematik, entstand, ist der Mathematischen Physik zuzuordnen. Sie behandelt Stonesche Spektren von Neumannscher Algebren, observable Funktionen sowie einige Anwendungen in der Physik. Das abschließende Kapitel liefert eine Verallgemeinerung des Kochen-Specker-Theorems. Stonesche Spektren und observable Funktionen wurden von de Groote eingeführt. Das Stonesche Spektrum einer von Neumann-Algebra ist eine Verallgemeinerung des Gelfand-Spektrums, die observablen Funktionen verallgemeinern die Gelfand-Transformierten. Da de Grootes Ergebnisse zum großen Teil unveröffentlicht sind, folgt nach dem Einleitungskapitel im zweiten Kapitel eine Übersichtsdarstellung dieser Ergebnisse. Das dritte Kapitel behandelt die Stoneschen Spektren endlicher von Neumann-Algebren. Für Algebren vom Typ In wird eine vollständige Charakterisierung des Stoneschen Spektrums entwickelt. Zu Typ-II1-Algebren werden einige Resultate vorgestellt. Das vierte Kapitel liefert. einige einfache Anwendungen des Formalismus auf die Physik. Das fünfte Kapitel gibt erstmals einen funktionalanalytischen Beweis des Kochen-Specker-Theorems und liefert die Verallgemeinerung dieses Satzes, wobei die Situation für alle von Neumann-Algebren geklärt wird.
The centrality dependence of (multi-)strange hadron abundances is studied for Pb(158 AGeV)Pb reactions and compared to p(158 GeV)Pb collisions. The microscopic transport model UrQMD is used for this analysis. The predicted Lambda/pi-, Xi-/pi- and Omega-/pi- ratios are enhanced due to rescattering in central Pb-Pb collisions as compared to peripheral Pb-Pb or p-Pb collisions. A reduction of the constituent quark masses to the current quark masses m_s \sim 230 MeV, m_q \sim 10 MeV, as motivated by chiral symmetry restoration, enhances the hyperon yields to the experimentally observed high values. Similar results are obtained by an ad hoc overall increase of the color electric field strength (effective string tension of kappa=3 GeV/fm). The enhancement depends strongly on the kinematical cuts. The maximum enhancement is predicted around midrapidity. For Lambda's, strangeness suppression is predicted at projectile/target rapidity. For Omega's, the predicted enhancement can be as large as one order of magnitude. Comparisons of Pb-Pb data to proton induced asymmetric (p-A) collisions are hampered due to the predicted strong asymmetry in the various rapidity distributions of the different (strange) particle species. In p-Pb collisions, strangeness is locally (in rapidity) not conserved. The present comparison to the data of the WA97 and NA49 collaborations clearly supports the suggestion that conventional (free) hadronic scenarios are unable to describe the observed high (anti-)hyperon yields in central collisions. The doubling of the strangeness to nonstrange suppression factor, gamma_s \approx 0.65, might be interpreted as a signal of a phase of nearly massless particles.
Directed and elliptic flow
(1999)
We compare microscopic transport model calculations to recent data on the directed and elliptic flow of various hadrons in 2 - 10 A GeV Au+Au and Pb (158 A GeV) Pb collisions. For the Au+Au excitation function a transition from the squeeze-out to an in-plane enhanced emission is consistently described with mean field potentials corresponding to one incompressibility. For the Pb (158 A GeV) Pb system the elliptic flow prefers in-plane emission both for protons and pions, the directed flow of protons is opposite to that of the pions, which exhibit anti-flow. Strong directed transverse flow is present for protons and Lambdas in Au (6 A GeV) Au collisions as well. Both for the SPS and the AGS energies the agreement between data and calculations is remarkable.
Im Rahmen der Arbeit wurde eine Methodik zur umfassenden und automatischen Identifizierung von nativen Peptiden aus Extrakten komplexer biologischer Quellen entwickelt und am Beispiel des humanen Hämofiltrats angewendet. Die Firma BioVisioN führt seit der Gründung Forschung auf dem Gebiet der Peptide und kleinen Proteine mit dem Ziel, diagnostisch und therapeutisch relevante Substanzen zu finden, durch. Die Analyse sogenannter Peptidome, der qualitativen und quantitativen Beschreibung aller nativen Peptide und kleinen Proteinen bis ca. 15 kDa, ist als Analogon zur Proteom-Analytik zu verstehen, welche sich umfassend mit Proteinen beschäftigt. Quantitativ wird ein Peptidom über die Kombination chromatographischer Trennung und Fraktionierung mit der massenspektrometrischen „Inventarisierung“ der einzelnen Peptidspezies sowie den relativen Konzentrationen in der Probe erfasst, welches an anderer Stelle ausführlich beschrieben ist. Das Ergebnis einer solchen Peptidomanalyse besteht aus einer Peptidkarte, die die Peptide der Probe repräsentativ abbildet. Die Qualität eines Peptidoms wird über die Massen der Peptide, deren Aminosäuresequenzen und Elutionsverhalten und weitere biologische Informationen beschrieben. Zu diesen Zweck wird der Begriff des Peptide-Inventory eingeführt. Ein Inventory besteht aus allen verfügbaren Informationen nativer Peptide einer Quelle. Zu Beginn der Arbeit standen mit der reproduzierbaren Erstellung von Peptidbanken und deren systematischer Kartierung über MALDI-MS bereits zwei Werkzeuge zur Verfügung, um Daten eines Inventories zu erheben. Lediglich für die Erzeugung der Sequenzdaten wurde mit dem Edman-Abbau zwar eine etablierte, aber viel zu langsame und wenig sensitive Methode eingesetzt. Hier wurde der Ersatz durch eine schnelle und leicht zu automatisierenden Methode angestrebt. Die massenspektrometrische Sequenzierung über MS/MS mit anschließender Datenbanksuche ist ein aus der Proteom-Analytik durchaus bekanntes Verfahren, musste aber für die Analyse der nativen Peptide in einigen Bereichen modifiziert werden. Obwohl die Massenspektrometrie Peptide direkt aus komplexen Mischungen heraus identifizieren kann, stellte sich schnell heraus, dass die vorliegende biologische Beispielprobe (humanes Blutfiltrat) zu komplex war, um sie direkt für die geplante Sequenzierung einzusetzen. Es wurde eine erneute Auftrennung und Feinkartierung der Peptidbank notwendig. Jede dritte Fraktion wurde rechromatographiert und anschließend wiederum kartiert. Die entstandenen 97 Peptidkarten enthalten im Linear Modus ca. 100.000 Signale und im Reflektron Modus ca. 30.000 Signale, so dass nach der Feinkartierung > 10.000 native, im menschlichen Körper zirkulierende Peptide durch diese Methode dargestellt werden können. Zur Automatisierung der Kartierungsmessungen mit MALDI-MS wurde im Laufe dieser Arbeit ein Autosampler für ein MALDI-TOF-MS-System entwickelt und implementiert (DiskJockey). Das System hat eine Kapazität von 20 MALDI-Targets und ist vollständig über die Gerätesoftware steuerbar, so dass MALDI-MS-Messungen vollständig automatisiert über mehrere Tage ablaufen können. Zur Erzeugung der Sequenzdaten wurde eine Kombination aus elektrischer Ionenfalle und Datenbanksuche angewendet. Um zu gewährleisten, dass nur die zuvor kartierten Peptide einer MS/MS-Messung unterzogen werden, wurde das Softwaretool Alcatrap entwickelt. Diese Software übernimmt aus MALDI-MS-Messungen die Werte der monoisotopischen Peaks, überführt sie in mehrfach geladene Spezies und erstellt sowohl eine Methode für das MS-Gerät, als auch eine in die Gerätesoftware importierbare Arbeitsliste. Hierbei wird jeweils die Kollisionsenergie in Abhängigkeit der m/z-Wertes dynamisch gesetzt. Um den Datentransfer vom Fragmentspektrum zur Datenbanksuchmaschine zu gewährleisten, wurde mit „D2M“ eine weitere Softwareschnittstelle entwickelt. Die Erstellung des Inventories aus humanem Hämofiltrat liefert 1.225 verschiedene native, im menschlichen Blut zirkulierende Peptide aus 146 Proteinvorläufern. Darunter befinden sich mehrere Peptide, die neben ihrer physiologischen Bedeutung auch eine potenzielle medizinische Relevanz besitzen. Weiterhin ist auch der dynamische Bereich von acht Größenordnungen, in dem Sequenzen erzeugt wurden, vergleichbar mit dem des menschlichen Blutes. Eine Charakterisierung von Peptidomen ist in diesem Umfang bisher noch nicht durchgeführt worden und stellt eine Neuerung in der Proteomforschung dar. Die Studie ist durchaus vergleichbar mit kürzlich veröffentlichten umfangreichen Proteomstudien aus menschlichem Plasma und Serum und stellt eine Ergänzung dieser für den Bereich der Peptide und kleinen Proteine dar. Limitierungen bei der Identifizierung von Peptiden mit der Ionenfalle wurden analysiert und mit der Adaptierung des Peptide-Inventory Konzepts auf hochauflösende Quadrupol-Time-of-Flight Massenspektrometer zufriedenstellend gelöst. In diesem Rahmen wurde eine Methode entwickelt, die es ermöglicht, native Peptide bis zu einem Molekulargewicht von bis zu 8.500 Da direkt aus der komplexen Mischung zu fragmentieren und über eine Datenbanksuche zu identifizieren. Außerdem konnte exemplarisch gezeigt werden, dass durch die größere Massengenauigkeit und das größere Auflösungsvermögen des QTOF die Datenbanksuche wesentlich effektiver ist und durch die Kombination von Rechromatographie und QTOF-MS/MS nahezu jedes Signal einer Peptidbank der Identifizierung zugänlich gemacht werden kann. Sowohl die integrierte Methodik der Herstellung eines Peptide-Inventories, als auch die in dieser Arbeit erzielten Ergebnisse von nativen Peptiden in humanem Blut stellen wissenschaftliche Neuerungen dar, auf denen eine weitergehende Peptidom-Analytik aufsetzen kann.
Microscopic calculations of central collisions between heavy nuclei are used to study fragment production and the creation of collective flow. It is shown that the final phase space distributions are compatible with the expectations from a thermally equilibrated source, which in addition exhibits a collective transverse expansion. However, the microscopic analyses of the transient states in the reaction stages of highest density and during the expansion show that the system does not reach global equilibrium. Even if a considerable amount of equilibration is assumed, the connection of the measurable final state to the macroscopic parameters, e.g. the temperature, of the transient "equilibrium" state remains ambiguous.
Die Ermittlung von Proteinstukturen mittels NMR-Spektroskopie ist ein komplexer Prozess, wobei die Resonanzfrequenzen und die Signalintensitäten den Atomen des Proteins zugeordnet werden. Zur Bestimmung der räumlichen Proteinstruktur sind folgende Schritte erforderlich: die Präparation der Probe und 15N/13C Isotopenanreicherung, Durchführung der NMR Experimente, Prozessierung der Spektren, Bestimmung der Signalresonanzen ('Peak-picking'), Zuordnung der chemischen Verschiebungen, Zuordnung der NOESY-Spektren und das Sammeln von konformationellen Strukturparametern, Strukturrechnung und Strukturverfeinerung. Aktuelle Methoden zur automatischen Strukturrechnung nutzen eine Reihe von Computeralgorithmen, welche Zuordnungen der NOESY-Spektren und die Strukturrechnung durch einen iterativen Prozess verbinden. Obwohl neue Arten von Strukturparametern wie dipolare Kopplungen, Orientierungsinformationen aus kreuzkorrelierten Relaxationsraten oder Strukturinformationen, die sich in Gegenwart paramagnetischer Zentren in Proteinen ergeben, wichtige Neuerungen für die Proteinstrukturrechnung darstellen, sind die Abstandsinformationen aus NOESY-Spektren weiterhin die wichtigste Basis für die NMR-Strukturbestimmung. Der hohe zeitliche Aufwand des 'peak-picking' in NOESY-Spektren ist hauptsächlich bedingt durch spektrale Überlagerung, Rauschsignale und Artefakte in NOESY-Spektren. Daher werden für das effizientere automatische 'Peak-picking' zuverlässige Filter benötigt, um die relevanten Signale auszuwählen. In der vorliegenden Arbeit wird ein neuer Algorithmus für die automatische Proteinstrukturrechnung beschrieben, der automatisches 'Peak-picking' von NOESY-Spektren beinhaltet, die mit Hilfe von Wavelets entrauscht wurden. Der kritische Punkt dieses Algorithmus ist die Erzeugung inkrementeller Peaklisten aus NOESY-Spektren, die mit verschiedenen auf Wavelets basierenden Entrauschungsprozeduren prozessiert wurden. Mit Hilfe entrauschter NOESY-Spektren erhält man Signallisten mit verschiedenen Konfidenzbereichen, die in unterschiedlichen Schritten der kombinierten NOE-Zuordnung/Strukturrechnung eingesetzt werden. Das erste Strukturmodell beruht auf stark entrauschten Spektren, die die konservativste Signalliste mit als weitgehend sicher anzunehmenden Signalen ergeben. In späteren Stadien werden Signallisten aus weniger stark entrauschten Spektren mit einer größeren Anzahl von Signalen verwendet. Die Auswirkung der verschiedenen Entrauschungsprozeduren auf Vollständigkeit und Richtigkeit der NOESY Peaklisten wurde im Detail untersucht. Durch die Kombination von Wavelet-Entrauschung mit einem neuen Algorithmus zur Integration der Signale in Verbindung mit zusätzlichen Filtern, die die Konsistenz der Peakliste prüfen ('Network-anchoring' der Spinsysteme und Symmetrisierung der Peakliste), wird eine schnelle Konvergenz der automatischen Strukturrechnung erreicht. Der neue Algorithmus wurde in ARIA integriert, einem weit verbreiteten Computerprogramm für die automatische NOE-Zuordnung und Strukturrechnung. Der Algorithmus wurde an der Monomereinheit der Polysulfid-Schwefel-Transferase (Sud) aus Wolinella succinogenes verifiziert, deren hochaufgelöste Lösungsstruktur vorher auf konventionelle Weise bestimmt wurde. Neben der Möglichkeit zur Bestimmung von Proteinlösungsstrukturen bietet sich die NMR-Spektroskopie auch als wirkungsvolles Werkzeug zur Untersuchung von Protein-Ligand- und Protein-Protein-Wechselwirkungen an. Sowohl NMR Spektren von isotopenmarkierten Proteinen, als auch die Spektren von Liganden können für das 'Screening' nach Inhibitoren benutzt werden. Im ersten Fall wird die Sensitivität der 1H- und 15N-chemischen Verschiebungen des Proteinrückgrats auf kleine geometrische oder elektrostatische Veränderungen bei der Ligandbindung als Indikator benutzt. Als 'Screening'-Verfahren, bei denen Ligandensignale beobachtet werden, stehen verschiedene Methoden zur Verfügung: Transfer-NOEs, Sättigungstransferdifferenzexperimente (STD, 'saturation transfer difference'), ePHOGSY, diffusionseditierte und NOE-basierende Methoden. Die meisten dieser Techniken können zum rationalen Design von inhibitorischen Verbindungen verwendet werden. Für die Evaluierung von Untersuchungen mit einer großen Anzahl von Inhibitoren werden effiziente Verfahren zur Mustererkennung wie etwa die PCA ('Principal Component Analysis') verwendet. Sie eignet sich zur Visualisierung von Ähnlichkeiten bzw. Unterschieden von Spektren, die mit verschiedenen Inhibitoren aufgenommen wurden. Die experimentellen Daten werden zuvor mit einer Serie von Filtern bearbeitet, die u.a. Artefakte reduzieren, die auf nur kleinen Änderungen der chemischen Verschiebungen beruhen. Der am weitesten verbreitete Filter ist das sogenannte 'bucketing', bei welchem benachbarte Punkte zu einen 'bucket' aufsummiert werden. Um typische Nachteile der 'bucketing'-Prozedur zu vermeiden, wurde in der vorliegenden Arbeit der Effekt der Wavelet-Entrauschung zur Vorbereitung der NMR-Daten für PCA am Beispiel vorhandener Serien von HSQC-Spektren von Proteinen mit verschiedenen Liganden untersucht. Die Kombination von Wavelet-Entrauschung und PCA ist am effizientesten, wenn PCA direkt auf die Wavelet-Koeffizienten angewandt wird. Durch die Abgrenzung ('thresholding') der Wavelet-Koeffizienten in einer Multiskalenanalyse wird eine komprimierte Darstellung der Daten erreicht, welche Rauschartefakte minimiert. Die Kompression ist anders als beim 'bucketing' keine 'blinde' Kompression, sondern an die Eigenschaften der Daten angepasst. Der neue Algorithmus kombiniert die Vorteile einer Datenrepresentation im Wavelet-Raum mit einer Datenvisualisierung durch PCA. In der vorliegenden Arbeit wird gezeigt, dass PCA im Wavelet- Raum ein optimiertes 'clustering' erlaubt und dabei typische Artefakte eliminiert werden. Darüberhinaus beschreibt die vorliegende Arbeit eine de novo Strukturbestimmung der periplasmatischen Polysulfid-Schwefel-Transferase (Sud) aus dem anaeroben gram-negativen Bakterium Wolinella succinogenes. Das Sud-Protein ist ein polysulfidbindendes und transferierendes Enzym, das bei niedriger Polysulfidkonzentration eine schnelle Polysulfid-Schwefel-Reduktion katalysiert. Sud ist ein 30 kDa schweres Homodimer, welches keine prosthetischen Gruppen oder schwere Metallionen enthält. Jedes Monomer enhält ein Cystein, welches kovalent bis zu zehn Polysulfid-Schwefel (Sn 2-) Ionen bindet. Es wird vermutet, dass Sud die Polysulfidkette auf ein katalytischen Molybdän-Ion transferiert, welches sich im aktiven Zentrum des membranständigen Enzyms Polysulfid-Reduktase (Psr) auf dessen dem Periplasma zugewandten Seite befindet. Dabei wird eine reduktive Spaltung der Kette katalysiert. Die Lösungsstruktur des Homodimeres Sud wurde mit Hilfe heteronuklearer, mehrdimensionaler NMR-Techniken bestimmt. Die Struktur beruht auf von NOESY-Spektren abgeleiteten Distanzbeschränkungen, Rückgratwasserstoffbindungen und Torsionswinkeln, sowie auf residuellen dipolaren Kopplungen, die für die Verfeinerung der Struktur und für die relative Orientierung der Monomereinheiten wichtig waren. In den NMR Spektren der Homodimere haben alle symmetrieverwandte Kerne äquivalente magnetische Umgebungen, weshalb ihre chemischen Verschiebungen entartet sind. Die symmetrische Entartung vereinfacht das Problem der Resonanzzuordnung, da nur die Hälfte der Kerne zugeordnet werden müssen. Die NOESY-Zuordnung und die Strukturrechnung werden dadurch erschwert, dass es nicht möglich ist, zwischen den Intra-Monomer-, Inter-Monomer- und Co-Monomer- (gemischten) NOESY-Signalen zu unterscheiden. Um das Problem der Symmetrie-Entartung der NOESY-Daten zu lösen, stehen zwei Möglichkeiten zur Verfügung: (I) asymmetrische Markierungs-Experimente, um die intra- von den intermolekularen NOESY-Signalen zu unterscheiden, (II) spezielle Methoden der Strukturrechnung, die mit mehrdeutigen Distanzbeschränkungen arbeiten können. Die in dieser Arbeit vorgestellte Struktur wurde mit Hilfe der Symmetrie-ADR- ('Ambigous Distance Restraints') Methode in Kombination mit Daten von asymetrisch isotopenmarkierten Dimeren berechnet. Die Koordinaten des Sud-Dimers zusammen mit den NMR-basierten Strukturdaten wur- den in der RCSB-Proteindatenbank unter der PDB-Nummer 1QXN abgelegt. Das Sud-Protein zeigt nur wenig Homologie zur Primärsequenz anderer Proteine mit ähnlicher Funktion und bekannter dreidimensionaler Struktur. Bekannte Proteine sind die Schwefeltransferase oder das Rhodanese-Enzym, welche beide den Transfer von einem Schwefelatom eines passenden Donors auf den nukleophilen Akzeptor (z.B von Thiosulfat auf Cyanid) katalysieren. Die dreidimensionalen Strukturen dieser Proteine zeigen eine typische a=b Topologie und haben eine ähnliche Umgebung im aktiven Zentrum bezüglich der Konformation des Proteinrückgrades. Die Schleife im aktiven Zentrum umgibt das katalytische Cystein, welches in allen Rhodanese-Enzymen vorhanden ist, und scheint im Sud-Protein flexibel zu sein (fehlende Resonanzzuordnung der Aminosäuren 89-94). Das Polysulfidende ragt aus einer positiv geladenen Bindungstasche heraus (Reste: R46, R67, K90, R94), wo Sud wahrscheinlich in Kontakt mit der Polysulfidreduktase tritt. Das strukturelle Ergebnis wurde durch Mutageneseexperimente bestätigt. In diesen Experimenten konnte gezeigt werden, dass alle Aminosäurereste im aktiven Zentrum essentiell für die Schwefeltransferase-Aktivität des Sud-Proteins sind. Die Substratbindung wurde früher durch den Vergleich von [15N,1H]-TROSY-HSQC-Spektren des Sud-Proteins in An- und Abwesenheit des Polysulfidliganden untersucht. Bei der Substratbindung scheint sich die lokale Geometrie der Polysulfidbindungsstelle und der Dimerschnittstelle zu verändern. Die konformationellen Änderungen und die langsame Dynamik, hervorgerufen durch die Ligandbindung können die weitere Polysulfid-Schwefel-Aktivität auslösen. Ein zweites Polysulfid-Schwefeltransferaseprotein (Str, 40 kDa) mit einer fünffach höheren nativen Konzentration im Vergleich zu Sud wurde im Bakterienperiplasma von Wolinella succinogenes entdeckt. Es wird angenommen, dass beide Protein einen Polysulfid-Schwefel-Komplex bilden, wobei Str wässriges Polysulfid sammelt und an Sud abgibt, welches den Schwefeltransfer zum katalytischen Molybdän-Ion auf das aktive Zentrum der dem Periplasma zugewandten Seite der Polysulfidreduktase durchführt. Änderungen chemischer Verschiebungen in [15N,1H]-TROSY-HSQC-Spektren zeigen, dass ein Polysulfid-Schwefeltransfer zwischen Str und Sud stattfindet. Eine mögliche Protein-Protein-Wechselwirkungsfläche konnte bestimmt werden. In der Abwesenheit des Polysulfidsubstrates wurden keine Wechselwirkungen zwischen Sud und Str beobachtet, was die Vermutung bestätigt, dass beide Proteine nur dann miteinander wechselwirken und den Polysulfid-Schwefeltransfer ermöglichen, wenn als treibende Kraft Polysulfid präsent ist.