Refine
Year of publication
Document Type
- Article (31418)
- Part of Periodical (11574)
- Book (8328)
- Doctoral Thesis (5740)
- Part of a Book (3969)
- Working Paper (3391)
- Review (2940)
- Contribution to a Periodical (2368)
- Preprint (2299)
- Conference Proceeding (1712)
Language
- German (42887)
- English (30150)
- French (1060)
- Portuguese (840)
- Spanish (309)
- Croatian (302)
- Multiple languages (263)
- Italian (198)
- mis (174)
- Turkish (168)
Has Fulltext
- yes (76675) (remove)
Keywords
- Deutsch (1076)
- Literatur (868)
- taxonomy (769)
- Deutschland (553)
- Rezension (511)
- new species (457)
- Rezeption (354)
- Frankfurt <Main> / Universität (341)
- Übersetzung (329)
- Geschichte (300)
Institute
- Medizin (7794)
- Präsidium (5219)
- Physik (4707)
- Extern (2738)
- Wirtschaftswissenschaften (2702)
- Gesellschaftswissenschaften (2374)
- Biowissenschaften (2205)
- Biochemie und Chemie (1978)
- Frankfurt Institute for Advanced Studies (FIAS) (1829)
- Informatik (1672)
Credit Unions are cooperative financial institutions specializing in the basic financial needs of certain groups of consumers. A distinguishing feature of credit unions is the legal requirement that members share a common bond. This organizing principle recently became the focus of national attention as the Supreme Court and the U.S. Congress took opposite sides in a controversy regarding the number of common bonds that could co-exist within the membership of a single credit union. Despite its importance, little research has been done into how common bonds affect how credit unions actually operate. We frame the issues with a simple theoretical model of credit-union formation and consolidation. To provide intuition into the flexibility of multiple-group credit unions in serving members, we simulate the model and present some comparative-static results. We then apply a semi-parametric empirical model to a large dataset drawn from federally chartered occupational credit unions in 1996 to investigate the effects of common bonds. Our results suggest that credit unions with multiple common bonds have higher participation rates than credit unions that are otherwise similar but whose membership shares a single common bond.
"In this paper, I analyse the conduct of business rules included in the Directive on Markets in Financial Instruments (MiFID) which has replaced the Investment Services Directive (ISD). These rules, in addition to being part of the regulation of investment intermediaries, operate as contractual standards in the relationships between intermediaries and their clients. While the need to harmonise similar rules is generally acknowledged, in the present paper I ask whether the Lamfalussy regulatory architecture, which governs securities lawmaking in the EU, has in some way improved regulation in this area. In section II, I examine the general aspects of the Lamfalussy process. In section III, I critically analyse the MiFID s provisions on conduct of business obligations, best execution of transactions and client order handling, taking into account the new regime of trade internalisation by investment intermediaries and the ensuing competition between these intermediaries and market operators. In sectionIV, I draw some general conclusions on the re-regulation made under the Lamfalussy regulatory structure and its limits. In this section, I make a few preliminary comments on the relevance of conduct of business rules to contract law, the ISD rules of conduct and the role of harmonisation."
Die rechtliche Beurteilung der Verwendung des Gewinns von Zentralbanken bewegt sich im Überschneidungsbereich von: 1) Währungsrecht 2) Finanzverfassungsrecht und 3) Finanzpolitik. Rechtliche Bedenken ergeben sich im Wesentlichen aus den verfassungsrechtlichen Vorgaben für die Staatsfinanzierung sowie aus der Garantie der Unabhängigkeit der Europäischen Zentralbank und der Bundesbank. Maßgebende Rechtsquellen sind sowohl das Recht der Europäischen Union als auch das deutsche Finanzverfassungsrecht, angereichert um das einfache Haushaltsrecht des Bundes.
In contrast to the class A heat stress transcription factors (Hsfs) of plants, a considerable number of Hsfs assigned to classes B and C have no evident function as transcription activators on their own. In the course of my PhD work I showed that tomato HsfB1, a heat stress induced member of class B Hsf family, is a novel type of transcriptional coactivator in plants. Together with class A Hsfs, e.g. tomato HsfA1, it plays an important role in efficient transcrition initiation during heat stress by forming a type of enhanceosome on fragments of Hsp promoter. Characterization of promoter architecture of hsp promoters led to the identification of novel, complex heat stress element (HSE) clusters, which are required for optimal synergistic interactions of HsfA1 and HsfB1. In addition, HsfB1 showed synergistic activation of the expression of a subset of viral and house keeping promoters. CaMV35S promoter, the most widely expressed constitutive promoter turned out to be the the most interesting candidate to study this effect in detail. Because, for most house-keeping promoters tested during this study, the activators responsible for constitutive expression are not known, but in case of CaMV35S promoter they are quite well known (the bZip proteins, TGA1/2). These proteins belong to the acidic activators, similar to class A Hsfs. Actually, on heat stress inducible promoters HsfA1 or other class A Hsfs are the synergistic partners of HsfB1, whereas on house-keeping or viral promoters, HsfB1 shows synergistic transcriptional activation in cooperation with the promoter specific acidic activators, e.g. with TGA proteins on 35S promoter. In agreement with this the binding sites for HsfB1 were identified in both house-keeping and 35S promoter. It has been suggested during this study that HsfB1 acts in the maintenance of transcription of a sub-set of house-keeping and viral genes during heat stress. The coactivator function of HsfB1 depends on a single lysine residue in the GRGK motif in its CTD. Since, this motif is highly conserved among histones as the acetylation motif, especially in histones H2A and H4,. It was suggested that the GRGK motif acts as a recruitment motif, and together with the other acidic activator is responsible for corecruitment of a histone acetyl transferase (HAT). So, the effect of mammalian CBP (a well known HAT) and its plant orthologs (HAC1) was tested on the stimulation of synergistic reporter gene activation obtained with HsfA1 and HsfB1. Both in plant and mammalian cells, CBP/HAC1 further stimulated the HsfA1/B1 synergistic effect. Corecruitment of HAC1 was proven by in vitro pull down assays, where the NTD of HAC1 interacted specifically both with HsfA1 and HsfB1. Formation of a ternary complex between HsfA1, HsfB1 and CBP/HAC1 was shown via coimmunoprecipitation and electrophoretic mobility shift assays (EMSA). In conclusion, the work presented in my thesis presents a new model for transcriptional regulation during an ongoing heat stress.
Das Recht der sog. eigenkapitalersetzenden Gesellschafterdarlehen ist in der jüngeren Vergangenheit zunehmend Gegenstand der Kritik geworden. Mit dem nachfolgenden Beitrag wird auf der Grundlage einer kritischen Analyse der lex lata ein Vorschlag für eine Vereinfachung der Regeln über die Gesellschafterfremdfinanzierung in der Krise entwickelt.
Der vorliegende Beitrag - die stark überarbeitete Fassung des Vortrages "Lektüren des Unausdeutbaren ", den der Verfasser im Januar 2004 im Rahmen der kulturwissenschaftlichen Vortragsreihe GrenzBereiche des Lesens hielt - ist auch erschienen in: literatur für leser 27 (2004), Heft 4, S. 181-199. Ein Beispiel für die Schwierigkeit der literarischen Lektüre gibt Friedrich Schmidt. Er untersucht Lektüremöglichkeiten für das formale wie semantische "Abgebrochensein" des literarischen Kunstwerks der Moderne, wie es in den Fragmenten Kafkas seinen exponierten Ausdruck findet. In diesen Texten tritt zur äußeren Unabgeschlossenheit des Textkorpus ein brüchiges Sinngefüge: die Endlosigkeit der Reflexionen und Handlungszüge, die Heterogenität der Erzählfiguren, die Inkonsistenz jeder Bedeutungskonstruktion von Seiten des Lesers. Indem überdies der Abbruch, als verlorene Schrift oder verschwiegene Botschaft, in Kafkas Fragmenten explizit zum Thema wird, erhebt sich der Text gleichzeitig zum metareflexiven Kommentar: er vollzieht selbst, wovon er spricht. Insofern handelt er – sprachskeptisch – vom Defizit seines eigenen Ausdrucks, das letztlich auch von Lektüren nie vollständig eingeholt werden kann.
In an attempt to search for potential candidate molecules involved in the pathogenesis of endometriosis, a novel 2910 bp cDNA encoding a putative 411 amino acid protein, shrew-1 was discovered. By computational analysis it was predicted to be an integral membrane protein with an outside-in transmembrane domain but no homology with any known protein or domain could be identified. Antibodies raised against the putative open-reading frame peptide of shrew-1 labelled a protein of ca. 48 kDa in extracts of shrew-1 mRNA positive tissues and also detected ectopically expressed shrew-1. In the course of my PhD work, I confirmed the prediction that shrew-1 is indeed a transmembrane protein, by expressing epitope-tagged shrew-1 in epithelial cells and analysing the transfected cells by surface biotinylation and immunoblots. Additionally, I could show that shrew-1 is able to target to E-cadherin-mediated adherens junctions and interacts with the E-cadherin-catenin complex in polarised MCF7 and MDCK cells, but not with the N-cadherin-catenin complex in non-polarised epithelial cells. A direct interaction of shrew-1 with beta-catenin could be shown in an in vitro pull-down assay. From this data, it could be assumed that shrew-1 might play a role in the function and/or regulation of the dynamics of E-cadherin-mediated junctional complexes. In the next part of my thesis, I showed that stable overexpression of shrew-1 in normal MDCK cells. causes changes in morphology of the cells and turns them invasive. Furthermore, transcription by ²-catenin was activated in these MDCK cells stably overexpressing shrew-1. It was probably the imbalance of shrew-1 protein at the adherens junctions that led to the misregulation of adherens junctions associated proteins, i.e. E-cadherin and beta-catenin. Caveolin-1 is another integral membrane protein that forms complexes with Ecadherin- beta-catenin complexes and also plays a role in the endocytosis of E-cadherin during junctional disruption. By immunofluorescence and biochemical studies, caveolin-1 was identified as another interacting partner of shrew-1. However, the functional relevance of this interaction is still not clear. In conclusion, it can be said that shrew-1 interacts with the key players of invasion and metastasis, E-cadherin and caveolin-1, suggesting its possible role in these processes and making it an interesting candidate to unravel other unknown mechanisms involved in the complex process of invasion.
Ein gastroösophagealer Reflux, der keine gastroenterologischen Symptome wie Erbrechen oder saure Regurgitation zeigt, kann im Kindesalter chronische Erkrankungen der Lunge auslösen. Typische Krankheitsbilder sind hierbei zum Beispiel Asthma bronchiale oder rezidivierende Bronchitiden. Die Inzidenz hierfür beträgt 1 : 300 bis 1 : 500. Für die Entstehung eines gastroösophagealen Reflux wird ein multifaktorielles Geschehen diskutiert. So kann zum Beispiel ein verminderter Druck des unteren Ösophagussphinkters, eine verminderte Leistung der Clearancefunktion des Ösophagus, eine pathologische Magensäuresekretion und auch eine verlängerte Entleerung des Magens ursächlich sein. Studien haben einen Zusammenhang zwischen einer pathologischen Magenentleerungszeit und einem symptomatischen gastroösophagealen Reflux beschrieben. Ein primärer Defekt wird hierbei in einer Motilitätsstörung vermutet, da ein signifikanter Zusammenhang zwischen pathologischen Magenentleerungszeiten und Dysrhythmien (abnormen elektrischen Potentialen) des Magens beschrieben ist. Bisher ist kein diagnostisches Verfahren bekannt, dass mit hoher Sensitivität und Spezifität das Vorliegen eines gastroösophagealen Reflux beweist. Vielmehr umfasst die derzeitige Diagnostik lediglich Teilaspekte der Erkrankung und liefert uneinheitliche Bilder. Bei insgesamt 25 Kindern mit Lungenproblemen bedingt durch einen gastroösophagealen Reflux wurde die Magenentleerungszeit, eine 2 Punkt-pH Metrie, eine obere Magendarmpassage sowie eine quantitative Bestimmung von fettbeladenen Alveolarmakrophagen im Rahmen einer Bronchoskopie erhoben. Im Gegensatz zur bisher üblichen Bestimmung der Magenentleerungszeit per Szintigraphie konnten im Rahmen dieser Arbeit die Werte mit einem 13C-Acetat- Atemtest gemessen werden. Eine pathologische Magenentleerungszeit wurde bei ungefähr der Hälfte der Patienten dargestellt. Obwohl ein Zusammenhang zwischen der Magenentleerungszeit und anderen Untersuchungsbefunden vermutet wurde, konnte keine signifikante Korrelation aufgezeigt werde. Alle Testverfahren lieferten unterschiedliche Ergebnisse. Bei keinem Kind mit klinisch gesichertem gastroösophagealen Reflux waren alle erhobenen Parameter pathologisch. Die Verteilung der Ergebnisse erfolgte auch im grenzpathologischen Bereich nicht signifikant. Als Grund hierfür kann vermutet werden, dass der gastroösophageale Reflux bei Kindern unterschiedliche Ursachen hat. So könnte eine pathologische Magenentleerungszeit bei einem Teil der Kinder ursächlich sein oder im Vordergrund stehen, während andere pathologische Korrelate das gleiche Krankheitsbild verursachen. Die Diagnosestellung eines gastroösophagealen Reflux bei Kindern mit pulmonaler Symptomatik kann somit nur mit hinweisenden Untersuchungen erfolgen, bei denen auch Widersprüche geduldet werden müssen.
Im Mittelpunkt der Arbeit steht die theoretische Beschreibung von ultraschnellen nichtadiabatischen cis-trans-Photoisomerisierunen in kondensierter Phase. Zu diesem Zweck wurde auf einen etablierten Modell-Hamilton-Operator zur Darstellung des isomerisierenden Systems zurückgegriffen und die Wechselwirkung mit der Umgebung im Rahmen der Redfield-Theorie behandelt. Eine gängige Näherung im Rahmen der Redfield-Theorie ist die Säkularnäherung, welche eine deutliche Reduktion des numerischen Aufwands bewirkt. Allerdings liefert die Säkularnäherung keine korrekte Beschreibung der Dynamik für Systeme, welche Regelmäßigkeiten im Eigenwertspektrum aufweisen, was für die in dieser Arbeit benutzten Isomerisierungsmodelle mit harmonischen Schwingungsmoden zutrifft. Andererseits verbietet sich für diese Systeme aus numerischer Sicht der Redfield-Algorithmus mit vollem Relaxationstensor. Daher wurde in dieser Arbeit ein nichtsäkularer Algorithmus entwickelt, der durch die Berücksichtigung der wichtigsten nichtsäkularen Terme eine adäquate Beschreibung der Dynamik im Rahmen der Redfield-Theorie liefert und gleichzeitig zu einer durchschnittlichen Reduktion der Rechenzeit auf ein Zehntel gegenüber der vollen Redfield-Rechnung führt. Im Rahmen der Redfield-Theorie wurden dann Dekohärenz- und dissipative Effekte für ein zweidimensionales Isomerisierungsmodell untersucht, wobei die unterschiedliche nichtadiabtische Dynamik an einer konischen Durchschneidung versus einer vermiedenen Kreuzung im Mittelpunkt des Interesses stand. Fazit dieser Studie ist, dass die konische Durchschneidung ein schnelles Abklingen anfänglicher Kohärenzen und eine effiziente Energieabgabe an die Umgebung bewirkt, was zu einer um eine Größenordnung schnelleren Isomerisierung gegenüber der vermiedenen Kreuzung führt. Daraus kann gefolgert werden, dass der photochemische Trichter tatsächlich der bevorzugte Reaktionsweg bei ultraschnellen internen Konversionsprozessen ist. Ein weiteres Anliegen dieser Arbeit war die Simulation von zeit- und frequenzaufgelösten Pump-Probe-Spektren für Photoreaktionen in dissipativer Umgebung. Hierzu wurde der Doorway-Window-Formalismus herangezogen, bei dem die Wechselwirkung der Pump- und Probepulse mit dem System im Doorway- bzw. Window-Operator enthalten ist. Für diese wurden unter der Annahme gaussförmiger Laserpulse durch analytische Integration der zweizeitigen Antwortfunktionen explizite Ausdrücke erhalten, die in den Redfield-Algorithmus integriert wurden. Somit existiert nun eine Methode zur Berechnung von Pump-Probe-Spektren, deren Skalierungsverhalten durch den Redfield-Algorithmus bestimmt wird. Diese Methode wurde dann angewandt für eine umfangreiche Modellstudie zu PumpProbe-Spektren von Isomerisierungsreaktionen in dissipativer Umgebung. Dabei wurden potentielle Probleme bei der Interpretation von transienten Spektren durch die Überlagerung und teilweisen Auslöschung der spektralen Beiträge zum Gesamtsignal aufgezeigt und diskutiert. In einer weiteren Studie wurde die Methode benutzt, um am Beispiel eines Morse-Oszillators zeitaufgelöste IR-Experimente zu simulieren, wie sie zur Gewinnung von modenselektiven Informationen über eine Reaktion durchgeführt werden.
Bendamustin ist eine Substanz, die seit über 40 Jahren in den Indikationen Non-Hodgkin Lymphom, CLL, multiples Myelom, Morbus Hodgkin, Mammakarzinom und SCLC eingesetzt wird, die jedoch erst nach der Wiedervereinigung Deutschlands systematisch neu entwickelt wurde. Die Wirksamkeit der Substanz als Monotherapie wurde, mit Ausnahme des Morbus Hodgkin, in allen Indikationen nachgewiesen. Obwohl in der Monotherapie hier keine Ergebnisse von randomisierten Studien vorliegen, ist der Stellenwert von Bendamustin als Einzelsubstanz eindeutig belegt, denn es wird als Monotherapie meist in fortgeschrittenen Therapiestadien eingesetzt, in denen es kaum Standardtherapieempfehlungen gibt. Die Ergebnisse in diesen Therapiesituationen sind insbesondere bei NHL beeindruckend (9, 28) und mit den Ergebnissen von Polychemotherapien in früheren Stadien der Erkrankung zu vergleichen (11). Beim Mammakarzinom wird Bendamustin als Monotherapie hauptsächlich palliativ eingesetzt, (36, 38, 64). Der Vorteil gegenüber anderen vergleichbaren Substanzen liegt in der Tatsache, daß Bendamustin kaum Alopezie und Organtoxizität verursacht, so dass die Patientinnen bezüglich Lebensqualität profitieren. In allen Indikationen sind oben beschriebene verschiedenste Kombinationsschemata geprüft worden. In-vitro konnte gezeigt werden, dass Bendamustin mit dem Purinanalogon Cladribin sowie mit dem monoklonalen Antikörper Rituximab synergistisch wirkt. Die Kombination mit einem Purinanalogon erwies sich klinisch zwar als sehr effektiv, aber durch das überschneidende Toxizitätsprofil ist sie mit schweren Nebenwirkungen verbunden (49). Als besonders günstig erwies sich bei den NHL die Kombination mit dem monoklonalen Antikörper Rituximab (68, 79). Die Kombination ist mit Ansprechraten von über 90% hocheffektiv und die Nebenwirkungen waren selten und nur von geringer Ausprägung. Dieses ist die einzige Bendamustin-Kombination, die systematisch vom Labor bis zur klinischen Prüfung entwickelt wurde. Die Prüfung dieser Kombination in prospektiv randomisierten Studien ist für die Weiterentwicklung der Substanz der logische nächste Schritt. Eine Indikationserweiterung erscheint insbesondere beim multiplen Myelom und bei der CLL sinnvoll. Die Ergebnisse der vorliegenden Studien zeigen, dass Bendamustin auch bei diesen Erkrankungen der B-Zellreihe sehr effektiv ist (2, 29, 59). Beim Mammakarzinom liegt der Stellenwert der Substanz eher in der Monotherapie als palliativer Ansatz (38, 64). Die Ergebnisse der Phase-III Studie in der BMF Kombination werden mit Spannung erwartet, jedoch sind die Therapiestandards in dieser Indikation inzwischen durch neue Substanzen, wie den Taxanen, modifiziert, so dass nur eine Prüfung gegen einen modernen Therapiestandard den Stellenwert des Bendamustins realistisch bestimmen könnte. Die Prüfung des Stellenwertes bei soliden Tumoren wäre insbesondere beim SCLC interessant, sofern gezeigt werden kann, dass die Substanz äquipotent ist und eine bessere Verträglichkeit aufweist. Das Toxizitätsprofil der Substanz ist ausreichend belegt. Die Haupttoxizität ist die Hämatotoxizität im Sinne von Leukozytopenie, Granulozytopenie und Thrombozytopenie. Als nicht-hämatologische Toxizität sind Übelkeit und Erbrechen dominierend. Die Toxizitäten sind in der Regel geringer Ausprägung, gut handhabbar und kontrollierbar. Langzeiteffekte sind bisher nicht bekannt, eine kumulative Thrombozytopenie ist anzunehmen (64), jedoch nicht an großen Patientenzahlen belegt. Bisher sind keine Zweittumoren als Langzeiteffekt dokumentiert worden, dies mag an der zum Teil erst relativ kurzen Nachbeobachtungszeit der in neueren Zeiten systematisch durchgeführten Studien liegen. Als Hauptindikation stellen sich die Non-Hodgkin Lymphome dar. In dieser Indikation dominiert die Zahl der durchgeführten Studien . Die Kombination mit Rituximab könnte eine sinnvolle mögliche Vergleichstherapie zur derzeitigen Standardtherapie darstellen. Ein Stellenwert als Standardtherapie kann der Substanz derzeit allerdings noch nicht zugesprochen werden. Die Substanz scheint insbesondere in der Kombination mit Rituximab bei NHL ein ideales Profil zu erfüllen: hohe Effektivität in Einklang mit einem patientenfreundlichen Toxizitätsprofil.
Barriere Sprachkompetenz : Dokumentation zur Impulstagung vom 2. November 2001 im Volkshaus Zürich
(2002)
NMDA-Rezeptoren sind als ionotrope Glutamatrezeptoren (iGluRs) an der Signalübertragung durch den wichtigen Neurotransmitter L-Glutamat beteiligt. Vor allem aufgrund ihrer Bedeutung für das Phänomen der neuronalen Plastizität sind NMDA-Rezeptoren außerordentlich gründlich untersucht worden. Dennoch sind auch heute noch zentrale Fragen zu ihrer Funktionsweise ungeklärt, darunter auch diejenige, wie auf molekularer Ebene die Umsetzung der Glutamatbindung in die Öffnung des Ionenkanals erfolgt. Publizierte Kristallstrukturen der Liganden-bindungsdomänen zweier iGluRs haben die Grundlage für ein Modell der ligandeninduzierten und der Kanalöffnung vorausgehenden Vorgänge in der Bindungsdomäne geschaffen. Diesem zufolge schließt sich die aus zwei Teildomänen bestehende Bindungsdomäne venusfliegenfallenartig um den Liganden und die dabei entstehende mechanische Spannung führt zur Öffnung des Ionenkanals. Dieses Modell wurde in der vorliegenden Arbeit überprüft. Hierzu wurden verschiedene in der Ligandenbindungsdomäne punktmutierte NR1/NR2A-Rezeptoren heterolog in Säugerzellen exprimiert und durch Glutamat hervorgerufene Gesamtzellströme elektrophysiologisch gemessen. Mittels kinetischer Auswertung wurden dann Aminosäurereste in der Bindungsdomäne identifiziert, die einen Beitrag zur Kanalöffnung leisten. Die notwendige Schnelligkeit der Ligandenzugabe wurde dabei durch dessen photochemische Freisetzung aus einer maskierten und dadurch inaktiven Vorstufe (caged compound) erreicht. Die Ergebnisse bestätigen das Modell der Kopplung der Kanalöffnung an das Schließen der Bindungsdomäne und erweitern das Verständnis der genauen zeitlichen Abfolge der ligandeninduzierten Konformationsänderungen in der Bindungsdomäne. Intramolekulare Wechselwirkungen zwischen den Teildomänen S1 und S2 spielen demnach erst relativ spät im Aktivierungsprozeß eine Rolle und dienen vor allem der Stabilisierung des geschlossenen Zustandes der Bindungsdomäne und damit des offenen Ionenkanals.
In dieser Arbeit wurden zwei Idealkristallsysteme und drei Systeme, die im weitesten Sinne als Domänenkristalle zu bezeichnen sind, mit quantenmechanischen Methoden untersucht, die auf Dichte-Funktional-Theorie basieren. Dabei wurden je nach System unterschiedliche Eigenschaften der jeweiligen Kristalle betrachtet. Zusätzlich wurden die berechneten Domänenkristalle jeweils mit entsprechenden Idealkristallen bezüglich ihrer Stabilität verglichen. Insgesamt konnte gezeigt werden, dass sich die hier verwendeten Rechenmethoden sehr gut zur Untersuchung von Grundzuständen und Strukturen unter hydrostatischem Druck sowie von Bindungseigenschaften eignen. Desweiteren lieferten die Ergebnisse starke Hinweise darauf, dass Kristalle mit Strukturgradienten nur dann existieren können, wenn sie sich vom Idealkristall um sehr geringe Energien unterscheiden, die unter der Fehlergrenze der hier angewendeten Methode (2-3 kJ/Mol) liegen.
Intelligenz : ein relevantes differenzialdiagnostisches Merkmal bei Sprachentwicklungstörungen?
(2003)
Die Spezifische Sprachentwicklungsstörung (SSES) ist als erwartungswidrige Minderleistung der Sprachentwicklung im Vergleich zur kognitiven Entwicklung definiert. Untersucht wird, (1) ob sich für SSES-Kinder im Vergleich zu unterdurchschnittlich intelligenten sprachentwicklungsgestörten Kindern (SES-Lb) ein typisches Muster von sprachlichen Leistungen sowie von Teilleistungsstörungen nachweisen lässt, das für eine Differenzialdiagnostik und damit für eine Untergruppenbildung sprachentwicklungsgestörter Kinder nutzbringend eingesetzt werden kann, (2) ob und in welcher Weise eine solche Differenzierung Konsequenzen für die Diagnostik und nachfolgend für eine Therapie zeitigt und (3) ob es Defizite in umschriebenen Leistungsbereichen gibt, die als Bedingungsfaktoren für eine Sprachentwicklungsstörung gelten, sich aber als unabhängig von der Intelligenz erweisen. Eine Gruppe von 138 fünf- und sechsjährigen Kindern mit einer schweren Sprachentwicklungsstörung, von denen 108 eine normale nonverbale Intelligenz aufwiesen, wurde anhand von IDIS (Inventar diagnostischer Informationen bei Sprachentwicklungsauffälligkeiten) untersucht. Erfasst wurden neben den sprachlichen Fähigkeiten auf der phonetisch-phonologischen, der semantisch-lexikalischen, der morphologisch-syntaktischen und der pragmatischen Ebene auch die Intelligenz, die auditive und visuelle Wahrnehmung, die auditive und visuelle Merkfähigkeit, sowie die Fein- und Grobmotorik. In den meisten geprüften Bereichen zeigt sich ein deutlicher Effekt der Intelligenz auf die Leistungen, der nicht nur auf Unterschiede in der Profilhöhe, sondern auch im Profilverlauf, also auf strukturelle Leistungsdifferenzen, hinweist. Als ein von der Intelligenz unabhängiger Bedingungsfaktor für eine Sprachentwicklungsstörung gilt eine gestörte phonologische Schleife, das auditive Subsystem des Arbeitsgedächtnisses. Für die Beibehaltung der Differenzierung der Sprachentwicklungsstörungen nach der kognitiven Leistungsfähigkeit wird nicht nur aufgrund der unterschiedlichen Leistungsstrukturen plädiert, sondern auch, weil die therapeutischen Möglichkeiten in Abhängigkeit von der Intelligenz als verschiedenartig eingeschätzt werden.
This paper proves correctness of Nocker s method of strictness analysis, implemented for Clean, which is an e ective way for strictness analysis in lazy functional languages based on their operational semantics. We improve upon the work of Clark, Hankin and Hunt, which addresses correctness of the abstract reduction rules. Our method also addresses the cycle detection rules, which are the main strength of Nocker s strictness analysis. We reformulate Nocker s strictness analysis algorithm in a higherorder lambda-calculus with case, constructors, letrec, and a nondeterministic choice operator used as a union operator. Furthermore, the calculus is expressive enough to represent abstract constants like Top or Inf. The operational semantics is a small-step semantics and equality of expressions is defined by a contextual semantics that observes termination of expressions. The correctness of several reductions is proved using a context lemma and complete sets of forking and commuting diagrams. The proof is based mainly on an exact analysis of the lengths of normal order reductions. However, there remains a small gap: Currently, the proof for correctness of strictness analysis requires the conjecture that our behavioral preorder is contained in the contextual preorder. The proof is valid without referring to the conjecture, if no abstract constants are used in the analysis.
Work on proving congruence of bisimulation in functional programming languages often refers to [How89,How96], where Howe gave a highly general account on this topic in terms of so-called lazy computation systems . Particularly in implementations of lazy functional languages, sharing plays an eminent role. In this paper we will show how the original work of Howe can be extended to cope with sharing. Moreover, we will demonstrate the application of our approach to the call-by-need lambda-calculus lambda-ND which provides an erratic non-deterministic operator pick and a non-recursive let. A definition of a bisimulation is given, which has to be based on a further calculus named lambda-~, since the na1ve bisimulation definition is useless. The main result is that this bisimulation is a congruence and contained in the contextual equivalence. This might be a step towards defining useful bisimulation relations and proving them to be congruences in calculi that extend the lambda-ND-calculus.
In this paper we demonstrate how to relate the semantics given by the nondeterministic call-by-need calculus FUNDIO [SS03] to Haskell. After introducing new correct program transformations for FUNDIO, we translate the core language used in the Glasgow Haskell Compiler into the FUNDIO language, where the IO construct of FUNDIO corresponds to direct-call IO-actions in Haskell. We sketch the investigations of [Sab03b] where a lot of program transformations performed by the compiler have been shown to be correct w.r.t. the FUNDIO semantics. This enabled us to achieve a FUNDIO-compatible Haskell-compiler, by turning o not yet investigated transformations and the small set of incompatible transformations. With this compiler, Haskell programs which use the extension unsafePerformIO in arbitrary contexts, can be compiled in a "safe" manner.
This paper proposes a non-standard way to combine lazy functional languages with I/O. In order to demonstrate the usefulness of the approach, a tiny lazy functional core language FUNDIO , which is also a call-by-need lambda calculus, is investigated. The syntax of FUNDIO has case, letrec, constructors and an IO-interface: its operational semantics is described by small-step reductions. A contextual approximation and equivalence depending on the input-output behavior of normal order reduction sequences is defined and a context lemma is proved. This enables to study a semantics of FUNDIO and its semantic properties. The paper demonstrates that the technique of complete reduction diagrams enables to show a considerable set of program transformations to be correct. Several optimizations of evaluation are given, including strictness optimizations and an abstract machine, and shown to be correct w.r.t. contextual equivalence. Correctness of strictness optimizations also justifies correctness of parallel evaluation. Thus this calculus has a potential to integrate non-strict functional programming with a non-deterministic approach to input-output and also to provide a useful semantics for this combination. It is argued that monadic IO and unsafePerformIO can be combined in Haskell, and that the result is reliable, if all reductions and transformations are correct w.r.t. to the FUNDIO-semantics. Of course, we do not address the typing problems the are involved in the usage of Haskell s unsafePerformIO. The semantics can also be used as a novel semantics for strict functional languages with IO, where the sequence of IOs is not fixed.
Context unification is a variant of second order unification. It can also be seen as a generalization of string unification to tree unification. Currently it is not known whether context unification is decidable. A specialization of context unification is stratified context unification, which is decidable. However, the previous algorithm has a very bad worst case complexity. Recently it turned out that stratified context unification is equivalent to satisfiability of one-step rewrite constraints. This paper contains an optimized algorithm for strati ed context unification exploiting sharing and power expressions. We prove that the complexity is determined mainly by the maximal depth of SO-cycles. Two observations are used: i. For every ambiguous SO-cycle, there is a context variable that can be instantiated with a ground context of main depth O(c*d), where c is the number of context variables and d is the depth of the SO-cycle. ii. the exponent of periodicity is O(2 pi ), which means it has an O(n)sized representation. From a practical point of view, these observations allow us to conclude that the unification algorithm is well-behaved, if the maximal depth of SO-cycles does not grow too large.
Context unification is a variant of second-order unification and also a generalization of string unification. Currently it is not known whether context uni cation is decidable. An expressive fragment of context unification is stratified context unification. Recently, it turned out that stratified context unification and one-step rewrite constraints are equivalent. This paper contains a description of a decision algorithm SCU for stratified context unification together with a proof of its correctness, which shows decidability of stratified context unification as well as of satisfiability of one-step rewrite constraints.
It is well known that first order uni cation is decidable, whereas second order and higher order unification is undecidable. Bounded second order unification (BSOU) is second order unification under the restriction that only a bounded number of holes in the instantiating terms for second order variables is permitted, however, the size of the instantiation is not restricted. In this paper, a decision algorithm for bounded second order unification is described. This is the fist non-trivial decidability result for second order unification, where the (finite) signature is not restricted and there are no restrictions on the occurrences of variables. We show that the monadic second order unification (MSOU), a specialization of BSOU is in sum p s. Since MSOU is related to word unification, this is compares favourably to the best known upper bound NEXPTIME (and also to the announced upper bound PSPACE) for word unification. This supports the claim that bounded second order unification is easier than context unification, whose decidability is currently an open question.
This paper describes the development of a typesetting program for music in the lazy functional programming language Clean. The system transforms a description of the music to be typeset in a dvi-file just like TEX does with mathematical formulae. The implementation makes heavy use of higher order functions. It has been implemented in just a few weeks and is able to typeset quite impressive examples. The system is easy to maintain and can be extended to typeset arbitrary complicated musical constructs. The paper can be considered as a status report of the implementation as well as a reference manual for the resulting system.
The extraction of strictness information marks an indispensable element of an efficient compilation of lazy functional languages like Haskell. Based on the method of abstract reduction we have developed an e cient strictness analyser for a core language of Haskell. It is completely written in Haskell and compares favourably with known implementations. The implementation is based on the G#-machine, which is an extension of the G-machine that has been adapted to the needs of abstract reduction.
This paper describes context analysis, an extension to strictness analysis for lazy functional languages. In particular it extends Wadler's four point domain and permits in nitely many abstract values. A calculus is presented based on abstract reduction which given the abstract values for the result automatically finds the abstract values for the arguments. The results of the analysis are useful for veri fication purposes and can also be used in compilers which require strictness information.
A partial rehabilitation of side-effecting I/O : non-determinism in non-strict functional languages
(1996)
We investigate the extension of non-strict functional languages like Haskell or Clean by a non-deterministic interaction with the external world. Using call-by-need and a natural semantics which describes the reduction of graphs, this can be done such that the Church-Rosser Theorems 1 and 2 hold. Our operational semantics is a base to recognise which particular equivalencies are preserved by program transformations. The amount of sequentialisation may be smaller than that enforced by other approaches and the programming style is closer to the common one of side-effecting programming. However, not all program transformations used by an optimising compiler for Haskell remain correct in all contexts. Our result can be interpreted as a possibility to extend current I/O-mechanism by non-deterministic deterministic memoryless function calls. For example, this permits a call to a random number generator. Adding memoryless function calls to monadic I/O is possible and has a potential to extend the Haskell I/O-system.
Automatic termination proofs of functional programming languages are an often challenged problem Most work in this area is done on strict languages Orderings for arguments of recursive calls are generated In lazily evaluated languages arguments for functions are not necessarily evaluated to a normal form It is not a trivial task to de ne orderings on expressions that are not in normal form or that do not even have a normal form We propose a method based on an abstract reduction process that reduces up to the point when su cient ordering relations can be found The proposed method is able to nd termination proofs for lazily evaluated programs that involve non terminating subexpressions Analysis is performed on a higher order polymorphic typed language and termi nation of higher order functions can be proved too The calculus can be used to derive information on a wide range on di erent notions of termination.
We consider unification of terms under the equational theory of two-sided distributivity D with the axioms x*(y+z) = x*y + x*z and (x+y)*z = x*z + y*z. The main result of this paper is that Dunification is decidable by giving a non-deterministic transformation algorithm. The generated unification are: an AC1-problem with linear constant restrictions and a second-order unification problem that can be transformed into a word-unification problem that can be decided using Makanin's algorithm. This solves an open problem in the field of unification. Furthermore it is shown that the word-problem can be decided in polynomial time, hence D-matching is NP-complete.
We consider the problem of unifying a set of equations between second-order terms. Terms are constructed from function symbols, constant symbols and variables, and furthermore using monadic second-order variables that may stand for a term with one hole, and parametric terms. We consider stratified systems, where for every first-order and second-order variable, the string of second-order variables on the path from the root of a term to every occurrence of this variable is always the same. It is shown that unification of stratified second-order terms is decidable by describing a nondeterministic decision algorithm that eventually uses Makanin's algorithm for deciding the unifiability of word equations. As a generalization, we show that the method can be used as a unification procedure for non-stratified second-order systems, and describe conditions for termination in the general case.
1. Das Gemeinschaftsrecht garantiert durch Art. 108 EGV umfassend die Weisungsfreiheit der Europäischen Zentralbank und der nationalen Zentralbanken als Institution. Diese Garantie erfasst auch die natürlichen Personen, die Mitglieder der Entscheidungsgremien sind. 2. Hinzu treten weiter Regelungen des Gemeinschaftsvertrages und der Satzung von ESZB und EZB, welche diese Garantie zu einer allgemeinen Unabhängigkeitsgarantie ausbauen und verstärken. 3. Garantiert ist vor allem auch die persönlicher Unabhängigkeit der Mitglieder in den Entscheidungsgremien. 4. Von wenigen Ausnahmen abgesehen, sind diese Regelungen für das sekundäre Gemeinschaftsrecht unantastbar. Als Teil des primären Gemeinschaftsrechts können sie prinzipiell nur durch Vertragsänderung, also einstimmig verändert werden. 5. Diese europarechtlichen Garantien werden über Art. 88 Satz 2 GG für die Bundesbank als integrales Bestandteil des ESZB in das deutsche Verfassungsrecht transponiert. Daraus ergibt sich eine „gemeinschaftsrechtlich vermittelte verfassungsrechtliche Unabhängigkeitsgarantie“ für die Bundesbank. 6. Die Regelung ist mit dem Demokratieprinzip vereinbar. 7. Änderungen der umfassenden Garantie können die verfassungsrechtlichen Voraussetzungen für die Übertragung der währungs- und notenbankpolitischen Befugnisse auf das ESZB entfallen lassen. 8. Der Entwurf einer Verfassung für Europa enthält keine verfassungsrechtlich relevanten Relativierungen der Unabhängigkeitsgarantie. 9. Das Ziel der Preisstabilität hat den ihm gebührenden Rang behalten. Bei genauer Analyse zeigt sich auch, dass sein besonderer Rang für die Tätigkeit des ESZB nicht beeinträchtigt ist. 10. Ein Vergleich der verschiedenen sprachlichen Fassungen des Verfassungsvertrages zeigt auch, dass – entgegen dem deutschen Text – die EZB nicht als – möglicherweise weniger unabhängiges - Organ der EU, sondern als sonstige Einrichtung eingestuft worden ist.
Der vorliegende Hochschulentwicklungsplan I wurde in seinen Teilen 1, 2 und 4 am 17.10.2001 vom Senat der Johann Wolfgang Goethe-Universitt verabschiedet. Den Teil 3 (Entwicklungspläne der Fachbereiche) nahm der Senat zur Kenntnis. Mit dem Hochschulentwicklungsplan I beschließt der Senat ein strategisches Konzept, in dem die Richtung der Hochschulentwicklung und die Schwerpunktbildung in Forschung und Lehre beschrieben werden. Dieser Plan dient der inneruniversitären Vergewisserung und Bewußtseinsbildung und als Initial für weitere inneruniversitäre Diskussionen und Konkretisierungen. Er beruht auf vorhandenen Planungen der Fachbereiche, Fächer und Zentren und enthält gleichzeitig die Aufforderung, zukünftige Planungen an seinen Zielen und Schwerpunkten auszurichten. Er wird Maßstab bei Berufungen und anderen strategischen Entscheidungen sein. Er muß klare Leitlinien und eine strukturierte Planung vorgeben, damit die Universität den Anforderungen der Zukunft gerecht werden kann, und er muß gleichzeitig eine produktive Fortschreibung ermöglichen, um der Universität ihre Dynamik und ihr Potential zu erhalten, auf kurzfristige Entwicklungen und Innovationen zu reagieren. Als Rahmenplanung verzichtet der Hochschulentwicklungsplan auf Detailvorgaben. Er ist angelegt auf Konkretisierung durch die Organe der Universität, durch Senat und Hochschulleitung und insbesondere durch die Fachbereiche und Zentren der Universität. Der vorliegende Hochschulentwicklungsplan I basiert auf einer ersten Runde der Entwicklungsplanung an der Johann Wolfgang Goethe-Universität, in der Fachbereiche und Senat vorrangig die wichtigsten Grundlinien der Schwerpunkt- und Profilbildung in den Fachbereichen und auf gesamtuniversitärer Ebene herausgearbeitet haben. In einer zweiten Phase werden im Wintersemester weitere Themen in Angriff genommen.(vgl. Teil IV)
Operative Eingriffe am offenen Herzen wie die häufig durchgeführten Bypass- und Herzklappenersatzoperationen bedürfen fast immer der Unterstützung durch die Herz Lungenmaschine bzw. extrakorporale Zirkulation. Durch den Kontakt des Blutes mit nichtorganischen Fremdoberflächen der EKZ kommt es zur Induktion einer transienten Hyperaktivität neutrophiler Granulozyten. Nachdem Herz und Lunge nach Öffnung der Aortenklemme ihre physiologische Funktion wieder aufnehmen und reperfundiert werden, werden aus diesen ischämischen Organen darüber hinaus pathogene Moleküle wie freie Sauerstoffradikale freigesetzt. Von aktivierten Neutrophilen freigesetzte, immmunkompetente Moleküle (z.B. Zytokine) führen zusammen mit diesem oxidativen Stress zu Organdysfunktionen durch Ödembildung in Körpergeweben wie Myokard, Lunge, Gehirn und Gastrointestinaltrakt und dadurch zu typischen Folgeerscheinungen wie z.B. verlängerter postoperativer Beatmungszeit oder (meist transienten) neuropsychologischen Dysfunktionen im Sinne von kognitiven Defiziten. Andere Pathomechanismen wie Mikroembolien durch z.B. Kleinstteilchen und Gasbildungen aus dem OP Gebiet verstärken diese pathogenen Effekte. Resultat ist eine verlängerte Regenerationsdauer und ein verlängerter Krankenhausaufenthalt der operierten Patienten. Zur Minimierung dieser unerwünschten Wirkungen der EKZ wurden in den letzen 20 Jahren diverse Techniken zur Filtration der unterschiedlichen Kreislaufbestandteile innerhalb der EKZ entwickelt. Von besonderem Interesse ist die seit ca. 8 bis 10 Jahren etablierte Filtration aktivierter neutrophiler Granulozyten, die die Hauptverantwortung für das aseptische Entzündungsgeschehen unter Anwendung der EKZ tragen. Entwicklung und Einsatz dieser leukozytenspezifischen Filtersysteme führt zwar zu einer deutlichen Reduktion der zirkulierenden immunaktiven Zellen und zu einer geringgradigen Verringerung der pathogenen EKZ Folgeerscheinungen, die Effektivität der gegenwärtigen Leukozytenfiltration stellt sich allerdings nur in einzelnen Berichten als positiv dar. Die Daten, die einen deutlichen klinischen Vorteil der Leukozytenfiltration zeigen, sind nicht vorhanden. Die unterstützende Anwendung antiinflammatorischer, systemisch angewandter Pharmaka führte zwar bei den meisten Präparaten zu Erfolg versprechenden Ergebnissen im Tierversuch, konnte aber beim operierten Patienten selbst zu keiner deutlichen Verminderung der unerwünschten EKZ Wirkungen beitragen. Unter der Vorstellung, dass gefilterte, aktivierte Leukozyten zum Großteil zwar nicht in den Patientenkreislauf zurückgepumpt werden, jedoch immer noch immunaktive Stoffe von ihnen synthetisiert und sezerniert werden können, liegt es auf der Hand, dass die aktuell zum klinischen Einsatz kommenden Filtersysteme zum Zwecke der Filtrationsoptimierung und konsekutiver Pathogenitätsminimierung durchaus verbesserungsbedürftig sind. Die in Abschnitt 3 angeführten Ergebnisse belegen, dass antikörperbeschichtete Leukozytenfiltermembranen durchaus in der Lage sind, in einem Kreislaufmodell ihre entsprechenden Antigene herauszufiltern und damit zu inaktivieren. Als klinische Anwendung ist dieses Modell allerdings nur unter einem immensem Technik- sowie Kostenaufwand umsetzbar, so dass sich die Frage nach alternativen Lösungsstrategien stellt. Diese Arbeit leistete die theoretische Grundlage zur Entwicklung eines in naher Zukunft möglicherweise klinisch praktikablen Moduls zur Leukozyteninaktivierung. Da anti CD95 IgM in der Lage sind, Apoptose in CD95 Rezeptor tragenden Zellen zu induzieren und diese damit bzgl. ihrer Stoffwechselaktivität zu limitieren bzw. zu inaktivieren, konnte ein ebenfalls in Abschnitt 3 vorgestelltes Modell zeigen, dass in CD 95 Rezeptor tragenden Zellen über ihren Kontakt mit anti CD95 IgM beschichteten Leukozytenfiltermembranen Apoptose induziert werden kann. Ein detailverbessertes, anti CD95 IgM beschichtetes Leukozytenfiltersystem (Leukozyteninhibitionsmodul, „LIM“) zeigte bereits im Schweineversuch eine deutliche Verbesserung der postoperativen Herzfunktion gegenüber der Tiergruppe, die mit herkömmlichem Leukozytenfiltersystem operiert wurde. Außerdem konnte eine deutlich reduzierte Transmigrationsfähigkeit (als Maß des Aktivierungszustandes) der aus dieser EKZ isolierten Neutrophilen nachgewiesen werden, so dass Grund zur Annahme besteht, dass dieses Modell in Zukunft den herkömmlichen Leukozytenfilter ablösen könnte. Mit dieser Arbeit wurde eine Möglichkeit aufgezeigt, wie die Problematik der EKZ induzierten Immunpathogenese grundlegender bekämpft werden kann.
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Thomas Küpper nimmt in seinem Beitrag das Kriterium der Wiederholungslektüre, das als Qualitäts- und Differenzmerkmal ästhetisch anspruchsvoller Literatur gilt, zum Anlass, die Grenzziehung zwischen Kitsch und Kunst genauer zu überdenken. Nicht die Wiederholungslektüre an sich macht bereits den Unterschied, vielmehr muss eine Unterscheidung zwischen verschiedenen Formen der Wiederholungslektüre getroffen werden. In systemtheoretischer Perspektive lässt sich eine solche typologische Differenzierung anhand des je spezifischen Verhältnisses von Medium, d.h. hier: der Gattungen, und der Form, d.h. der Texte, präzise vornehmen. Trivialliteratur unterscheidet sich dann von der Kunst, insofern ihre Medien der eigentlichen Formrealisierung nur wenig Spielraum lassen: Nicht die Abweichung, sondern die Bestätigung der gegebenen Schemata wird honoriert. Auch der Kitsch bietet Variationen des Bekannten, doch – und hier nähert er sich der Kunst an – die vertrauten und wiederholten Muster werden als einmalige und besondere Formen von bleibendem Wert inszeniert. Am Beispiel des Kultfilms "Pretty Woman" spielt Thomas Küpper diese unterschiedlichen Lektüren durch und zeigt an diesem vermeintlich eindeutig trivialen Fall, dass sich die Faszination des Films den vielen Wiederholungen verdankt.
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. In ihrem Beitrag zu Spannungsliteratur und Lesepraxen um 1800 entwirft Ute Dettmar aus kultursoziologischer Perspektive ein Bild von der Vielfalt und Dynamik der kulturellen, literarischen und diskursiven Praxen des ausgehenden 18. Jahrhunderts. Die Gleichzeitigkeit von ästhetisch-normierender Auseinandersetzung um die Faszination des Schrecklichen, von aufgeklärter Lesekritik und einer unbefangenen bürgerlichen Lese- und Theaterpraxis, die sich nicht an das vorgegebene Maß und die Grenzen eines autonomieästhetisch konstituierten Kunstbegriffs hält, charakterisiert das spannungsreiche Mit- und Gegeneinander dieser Umbruchzeit. Anhand der Lektüre populärer Räuberromane erweist sich, dass Grenzziehungen zwischen hoch- und unterhaltungskulturellen Textverwendungsweisen weder in Hinblick auf Stoffe und Gattungen, noch in Hinblick auf die lesende Öffentlichkeit hier bereits rigide gezogen sind.
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Manuel Gujber widmet sich einem vordergründig "sprachlosen" Gegenstand: der Architektur. Sein Interesse gilt dabei dem Spannungsverhältnis zwischen architektonischer Konstruktion und Oberfläche – der "Haut" des Hauses. So bietet die architektonische Oberfläche nicht nur fortwährend neue Möglichkeiten der Gestaltung sondern auch der Interpretation – Lesarten, in denen sich das Verhältnis zwischen "Haut" und "Haus" sowie von deren Wahrnehmung spiegelt.
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Ein weiterer medialer Wechsel vollzieht sich im Beitrag von Annette Becker, der dem Fernsehen, genauer: dem Fernsehinterview gilt. Anhand verschiedener Fernsehinterviews zum gleichen politischen Anlass wird gezeigt, dass und wie verschiedene Lesarten solcher Interviews mit linguistischen Mitteln greif- und analysierbar gemacht werden können.
Protected Mode
(2005)
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Gegenstand von Harald Hillgärtners Untersuchung ist die Frage nach der Lesbarkeit des Computers, vielmehr seiner System- und Programmcodes. Gilt der Computer einerseits als "Textmaschine", die endlose Schreib- und Leseakte prozessiert, so finden jene Programmabläufe doch zumeist jenseits der für alle zugänglichen Benutzeroberflächen statt, die ihrerseits in immer stärkerem Maß mit Icons – Bildern – arbeiten. Und selbst im Falle von frei zugänglichen Software-Codes ist zu fragen, um welche Art Text es sich hier handelt – ob in diesen Fällen gar von Literatur die Rede sein kann. Insofern ist die Frage nach der Lesbarkeit des Computers nicht nur eine Frage nach der Zukunft des Lesens (geht es um Sinn oder um Information?) sondern vielmehr nach dem (Zu-)Stand unserer Schriftkultur selbst.
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Irene Pieper beschäftigt sich aus literaturdidaktischer und lesesoziologischer Perspektive mit der kulturellen Praxis des Lesens. Ihr Beitrag entwickelt systematisch, worin die "Kunst" des literarischen Lesens im Einzelnen besteht und wie diese Kompetenz methodisch in der Auseinandersetzung mit dem Gegenstand Literatur zu erwerben bzw. zu vermitteln ist. Ein kompetenter Leser zu werden heißt, ein breites Spektrum von Fähigkeiten zu erwerben, das vom Realisieren der poetischen Funktion der Literatur über die Empathiefähigkeit bis hin zur Lust am Text reicht. Der Beitrag lotet aus, in welcher Weise vor allem die Schule, die außerhalb der Familie Begegnungen mit und Kommunikationen über Literatur herbeiführt und anregt, an der Bildung solcher Leser und Leserinnen mitwirken kann.
Im Jahr 2003 innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Sabine Nessel eröffnete die Vortragsreihe mit Beobachtungen zum Lektürebegriff hinsichtlich des Phänomens Film: am Beispiel von Otto Premingers "Bonjour Tristesse" zeigt sie, wie die seit den späten 1960er Jahren übliche Übertragung des Textparadigmas auf den Film im Folgenden eine Erfassung des „Erlebnis Kino“ als Ereignis verstellte. Im Durchgang durch verschiedene Filmtheorien zeigt sie auf, dass Filme zwar "gelesen" aber auch auf einer Ebene jenseits des Kino-Texts somatisch rezipiert – "genossen" – werden, dass also die Begriffe Film, Text und Lesen auf die Bereiche Kino, Ereignis und Erleben hin zu erweitern sind.
Mit den Erinnerungstexten jüdischer Emigranten, in denen die Kindheit im altösterreichischen Galizien eine herausragende Rolle spielt, behandelt diese Arbeit eine bisher wenig beachtete Komponente der deutschen Exilliteratur. Enttäuscht in ihrer Identifikation mit Deutschland und verunsichert durch das Leben im Exil richten die Autoren die Gedanken nach rückwärts: Sie besinnen sich auf die schon weit entfernte Welt ihrer Kindheit im galizischen Schtetl. Trotz unterschiedlicher Formen weisen die Texte viele thematische Parallelen auf und sind in der farbigen Zeichnung der 'Welt von Vorgestern' von der unwirtlichen Exilgegenwart geprägt. Exemplarisch wird diese 'imaginative Aneignung ihrer Herkunft als Heimat' (B.Spies) an der Autobiographie des Schauspielers Granach und dem autobiographischen Roman des Journalisten Katz gezeigt.
Das neue Insiderrecht
(2004)
Mit Inkrafttreten von Art. 1 des Gesetzes zur Verbesserung des Anlegerschutzes (Anlegerschutzverbesserungsgesetz - AnSVG) am 30. Oktober 2004 hat das WpHG zahlreiche Änderungen erfahren. Die nachfolgenden Ausführung gehen anhand einiger ausgewählter Beispiel der Frage nach, inwieweit die Marktmißbrauchsrichtlinie und ihre Umsetzung durch das AnSVG das bisher geltende Insiderrecht geändert haben. Vorab sei bemerkt, daß die Aufgabe, das neue Recht einigermaßen zutreffend zu interpretieren, durch die Besonderheiten des Rechtssetzungsverfahrens, das schließlich in die Neufassung des WpHG eingemündet ist, nicht gerade erleichtert wird: Die europarechtlichen Vorgaben finden sich nicht mehr nur in einer einzigen Richtlinie, sondern sind aufgrund des Komitologieverfahrens über zahlreiche Rechtsakte verteilt. Für das Insiderrecht sind neben der Marktmißbrauchsrichtlinie mehrere Durchführungsrichtlinien und eine Verordnung der Kommission von Bedeutung, für deren Verständnis wiederum die CESR-Vorschläge zusätzliche Anhaltspunkte bieten. Da schon die deutsche Fassung der Richtlinien in etlichen Punkten von den jeweiligen englischen Version und das WpHG wiederum nicht selten von den Richtlinien abweicht, entsteht bisweilen eine Art "stille Post"-Effekt, der es noch mehr als schon bislang notwendig macht, sich bei der Auslegung der Begriffe des WpHG zu vergewissern, ob sich die Umsetzung durch den deutschen Gesetzgeber innerhalb des europarechtlichen Rahmens bewegt. Insbesondere auf der Sanktionenseite ist das nicht durchweg der Fall.
Am 8 Juni 2004 innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Auch Musik wird "gelesen", nämlich immer dann, wenn es um theoretische Deutungen musikalischer Werke geht. Diese untersucht Ferdinand Zehentreiter, und zwar hinsichtlich der zwei gegensätzlichen Betrachtungsweisen, die sich traditionell in der Interpretation von Musik herausgebildet haben. Geht es einerseits um eine formale Zergliederung der Werke, so werden andererseits außermusikalische Inhalte zur philologischen Erforschung herangezogen. Demgegenüber steht die Beobachtung, dass Kompositionen immanent als Ausdrucks- oder Sinngebilde sui generis nur in Ausnahmefällen entschlüsselt werden, etwa bei E.T.A. Hoffmann, Roland Barthes oder Th. W. Adorno. Der Beitrag geht der Frage nach, ob und wie diese grundlegende Problemkonstellation der Musikwissenschaft heute überwunden werden kann.
QCD-Summenregeln mit Massen
(1993)
Funktionale Programmiersprachen weisen viele Eigenschaften auf, die zur modernen Softwareentwicklung benotigt werden: Zuverlässigkeit, Modularisierung, Wiederverwendbarkeit und Verifizierbarkeit. Als schwer vereinbar mit diesen Sprachen stellte sich die Einbettung von Seiteneffekten in diese Sprachen heraus. Nach einigen mehr oder weniger gescheiterten Ansätzen hat sich mittlerweile fur die nichtstrikte funktionale Sprache Haskell der monadische Ansatz durchgesetzt, bei dem die Seiteneffekte geschickt verpackt werden, so dass zumindest IO-behaftete Teile eines Haskell-Programms dem klassischen imperativen Programmierstil ähneln. S. Peyton Jones bringt dieses in [Pey01, Seite 3] auf den Punkt, indem er schreibt "...Haskell is the world's finest imperative programming language." Dies ist einerseits vorteilhaft, denn die klassischen Programmiertechniken können angewendet werden, andererseits bedeutet dies auch eine Rückkehr zu altbekannten Problemen in diesen Sprachen: Der Programmcode wird unverständlicher, die Wiederverwendbarkeit von Code verschlechtert sich, Änderungen im Programm sind aufwendig. Zudem erscheint die monadische Programmierung teilweise umständlich. Deshalb wurde im Zuge der Entwicklung in fast jede Implementierung von Haskell ein Konstrukt eingebaut, dass von monadischem IO zu direktem IO führt. Da dieses nicht mit dem bisherigen Ansatz vereinbar schien, wird es als "unsafe" bezeichnet, die entsprechende Funktion heißt "unsafePerformIO". Zahlreiche Anwendungen benutzten diese Funktion, teilweise scheint die Verwendung zumindest aus Effizienzgründen unabdingbar. Allerdings ist die Frage, wann dieses verwendet werden darf, d.h. so angewendet wird, dass es nicht "unsicher" ist, nur unzureichend geklärt. Das Zitat in Abbildung 1.1 gibt wenig Aufschluss über die korrekte Anwendung, zumal immer wieder Diskussionen entstehen, ob die Verwendung von unsafePerformIO in diesem oder jenem Spezialfall korrekt ist.
Die Alzheimer-Demenz (AD) ist gekennzeichnet durch extrazelluläre Ablagerungen des Amyloid-beta-Peptids (Aß), durch neurofibrilläre Bündel bestehend aus dem Tau-Protein, massiven Neuronenverlust und synaptische Dysfunktion. Weiterhin ist bekannt, dass mitochondriale Dysfunktion sowie ein gestörter NO-Stoffwechsel eine entscheidende Rolle bei der AD spielen. Um genauere Informationen über die Ursache der mitochondrialen Dysfunktion zu erhalten, wurden akute, chronische und dosisabhängige Effekte von Aß auf die NO-Produktion und die mitochondriale Funktion untersucht. Als Zellkulturmodelle standen PC12- und HEK-Zellen zur Verfügung, die entweder mit humanem Wildtyp-APP (APPwt) oder mit der schwedischen Doppelmutation im APP-Gen (APPsw) stabil transfiziert waren. APPsw-PC12-Zellen wiesen Aß-Spiegel im pikomolaren Bereich auf. Im Vergleich dazu hatten APPsw-HEK-Zellen ca. 20fach erhöhte Aß-Spiegel im niedrig-nanomolaren Bereich. Interessanterweise wiesen sowohl APPsw-PC12- als auch APPsw-HEK-Zellen im Vergleich zu den jeweiligen Kontrollzellen signifikant erhöhte NO-Spiegel auf. Dies ging in beiden Zellsystemen mit signifikant erniedrigten ATP-Spiegeln einher. Die Inkubation untransfizierter Zellen mit extrazellulärem Aß1-42 führte nur zu einem schwachen Anstieg der NO-Spiegel und zu einem leichten Abfall der ATP-Spiegel. Dies weist darauf hin, dass in erster Linie intrazelluläre Aß-Effekte den NO-Anstieg und die ATP-Reduktion bewirken. Die 48-stündige Inkubation mit dem gamma-Sekretasehemmstoff DAPT führte zur beinahe vollständigen Normalisierung der NO- und ATP-Spiegel in APP-transfizierten PC12- und HEK-Zellen. Das stützt die Hypothese, dass der gestörte NO-Stoffwechsel und die mitochondriale Dysfunktion durch Aß-Anreicherungen hervorgerufen werden und nicht durch eine Überexpression von APP. Passend zu den reduzierten ATP-Spiegeln zeigten APPsw-PC12-Zellen eine signifikant erniedrigte Cytochrom-C-Oxidase-Aktivität. Des Weiteren konnte APP in Mitochondrien von APPsw-PC12-Zellen nachgewiesen werden. Die Reduktion der ATP-Spiegel und die verminderte Cytochrom-C-Oxidase-Aktivität können also zum einen durch die Aß-bedingten erhöhten NO-Spiegel und zum anderen durch die Anwesenheit von APP bzw. Aß im Mitochondrium hervorgerufen werden. Auf der Ebene des mitochondrialen Membranpotentials wiesen die beiden Zelllinien stark unterschiedliche Ergebnisse auf. APPsw-PC12-Zellen zeigten unter basalen Verhältnissen ein leicht hyperpolarisiertes mitochondriales Membranpotential, was auf einen Gegenregulationsmechanismus hinweist. APPsw-HEK-Zellen wiesen bereits basal ein signifikant erniedrigtes mitochondriales Membranpotential auf. Nach Inkubation mit dem gamma-Sekretasehemmstoff DAPT normalisierte sich sowohl die Hyperpolarisation des mitochondrialen Membranpotentials in APPsw-PC12-Zellen als auch die Depolarisation in APPsw-HEK-Zellen. Anhand der in dieser Arbeit gewonnenen Daten konnte ein Modell sowohl für die sporadische als auch für die familiäre AD entwickelt werden. APPsw-PC12-Zellen spiegeln hierbei die pathogenen Mechanismen in Patienten mit sporadischer AD wider, wohingegen APPsw-HEK-Zellen die initialen Veränderungen bei Patienten mit familiärer AD aufzeigen. Mitochondriale Fehlfunktion und ein gestörter NO-Stoffwechsel stellen entscheidende initiale Pathomechanismen bei AD dar. Innerhalb der Gruppe der Antidementiva konnte gezeigt werden, dass sowohl Ginkgo-biloba-Extrakt als auch Piracetam schützende Effekte auf die mitochondriale Funktion ausüben. Aufgrund der wichtigen Rolle von mitochondrialer Fehlfunktion in der Pathogenese der Alzheimer Demenz stellen Ginkgo-biloba-Extrakt und Piracetam zwei sehr interessante Präventions- und Therapieoptionen bei Patienten mit leichten kognitiven Störungen bzw. bei Patienten mit AD dar.
Lavater was admired and detested for his unconventional approach to theology and his rediscovery of physiognomy. He was an avid communicator and through his correspondence became known to almost all leading personalities of eighteenth century Europe, such as Goethe, Wieland and Rousseau. The more than 21,000 letters in Lavater's estate in the Zentralbibliothek Zürich display the enormous thematic variety produced during a remarkable forty years of correspondence. This unique source material is now being published for the first time. IDC Publishers makes this collection available for research to such various disciplines as theology, history, literature, arts, humanities and above all, the history of eighteenth century culture. Scope: * 9,121 letters from Lavater * 12,302 letters to Lavater * 1,850 correspondents
Um zu sehen, was im atomaren Bereich "die Welt im Innersten zusammenhält", werden seit fast einem Jahrhundert atomphysikalische Stoßexperimente durchgeführt. Es ist also möglich, durch den Beschuß von "Targetteilchen" mit "Projektilteilchen" Aussagen über verschiedene Größen in der atomaren Welt zu treffen. Hierbei werden nicht nur Eigenschaften wie der "Durchmesser" oder eine "Ladungsverteilung" eines Atoms untersuchbar, sondern - durch entsprechend geschickte Variation des Prinzips "Stoßexperiment" - auch Größen, die ein Laie niemals mit einem Stoß zwischen zwei Teilchen in Verbindung brächte. Moderne Experimente erlauben es inzwischen zum Beispiel, selektiv die Impulsverteilung einzelner Elektronen in Atomen und Molekülen sichtbar zu machen, indem diese durch Photonen entsprechender Energie aus dem zu untersuchenden Teilchen herausgerissen werden. Besagte Experimente stellen nicht nur hohe Anforderungen an die Nachweiseinheit, die den eigentlichen Prozeß sichtbar macht, sondern auch an das verwendete Target und das Projektil. Im Bereich der atomaren Grundlagenforschung bietet sich Helium als zu untersuchendes Objekt oftmals an. Um die Natur zu verstehen, ist es nötig, gemessene Größen mit einer Theorie, die den untersuchten Vorgang beschreiben soll, zu vergleichen. Im Bereich der theoretischen Physik kann bisher nur das Wasserstoffatom, das ein sog. "Zweikörperproblem" ist, ohne Näherungsverfahren vollständig beschrieben werden. Ein Heliumatom stellt also das "einfachste" atomare System dar, das als noch nicht "komplett verstanden" gilt. Genauso ist ein Heliumatom mit seinem Atomkern und seinen zwei Elektronen das erste "Mehrelektronensystem" im Periodensystem. Es können hier also im Vergleich zu Wasserstoff auch Korrelationseffekte zwischen Elektronen untersucht werden. Die gesamte Dynamik innerhalb des Atoms erhält einen anderen Charakter. Bisherige Experimente mit Helium innerhalb unserer Arbeitsgruppe haben allerdings eine prinzipielle Beschränkung: es ist im Allgemeinen sehr schwierig, den Spin der beteiligten Elektronen im Experiment nachzuweisen, so daß alle bisherigen Messungen immer die Einstellung der Elektronenspins nicht berücksichtigen. Es wird also über den Spin gemittelt gemessen. Ein Weg, dieses Problem zu umgehen, ist, neben einer wirklichen Messung des Spins, den Spin im Anfangszustand - also vor dem Streuexperiment - zu kennen. Dies geschieht in der vorliegenden Arbeit dadurch, daß Heliumatome in einem durch "Mikrostrukturelektroden" erzeugten Mikroplasma angeregt werden, und sich so die Spins ihrer beiden Elektronen zum Teil auch parallel zueinander einstellen. Während bisherige Ansätze das Prinzip verfolgen, die angeregten Heliumatome in Niederdruckplasmen bei einigen Millibar zu erzeugen, wird die Plasmaquelle in dieser Arbeit bei Drücken von bis zu einem Bar betrieben. Dadurch kann das Prinzip des "supersonic jets" ausgenutzt werden, so daß der hier erzeugte Atomstrahl eine interne Temperatur von einigen Millikelvin und eine mittlere Geschwindigkeit von 1000 m/s besitzt. Durch einen nur 10 cm langen Separationsmagneten werden die angeregten Zustände mit Spin (#; #) von den Zuständen mit Spin ("; ") und den nicht- angeregten Heliumatomen getrennt und in einem Fokuspunkt für ein Streuexperiment zur Verfügung gestellt. In der folgenden Arbeit wird also ein sehr kompakter Aufbau eines Gastargets aus angeregtem Helium mit polarisiertem Elektronenspin vorgestellt. Ein Target aus angeregtem Helium hat außerdem einen weiteren großen Vorteil gegenüber gewöhnlichen Heliumtargets. In der modernen experimentellen Physik werden oftmals Laser zur Manipulation von Atomen eingesetzt. So ist es möglich, durch gezielte Anregung eines Atoms mit einem Laser dieses zum Beispiel extrem zu kühlen. Hierzu müssen allerdings Anregungsniveaus im Atom zur Verfügung stehen, die mit den Wellenlängen heutiger Laser erreicht werden können. Das erste Anregungsniveau von Helium liegt jedoch mit 19.8 eV deutlich zu hoch. Der nächst höhere P-Zustand ist von diesem Niveau aber nur noch ca. 1.1 eV entfernt. Photonen dieser Energie können leicht mit Lasern erzeugt werden. Angeregtes Helium ist also durch Laser manipulierbar und liefert so zum Beipiel auch den Ausgangspunkt für die Bose-Einstein Kondensation von Helium.
Welches der vielen Internet-Bezahlsysteme sich am Markt durchsetzen wird, hängt entscheidend von der „gefühlten Sicherheit“ bei den Kunden ab. Dieses Fazit konnte man Ende Juni 2002 zum Abschluss des Symposiums „Digitales Geld“ im Institut für Telematik ziehen. Weitere Voraussetzungen für den wirtschaftlichen Erfolg sind einfache Bedienung, transparente und bequeme Abwicklung sowie niedrige Kosten für Verbraucher und Anbieter, waren sich die 14 Referenten aus Wissenschaft, Wirtschaft und Verbänden einig. Das Symposium zur Sicherheit von Internet-Bezahlsystemen verfolgten rund 30 Teilnehmer vor Ort und mehr als 100 durch Live-Übertragung im World Wide Web. Die technischen Probleme - so wurde klar - sind mehr oder weniger alle gelöst. Offen bleibt die Frage, wie für das Verträgeschließen und Bezahlen im Internet mehr gesellschaftliche Akzeptanz und juristische Absicherung erreicht werden kann. Nach dem übereinstimmenden Urteil der meisten Referenten sind Internet-Bezahlsysteme „selbst für die technische Avantgarde“ noch zu kompliziert zu bedienen. Verständlich sei der Wunsch nach einheitlichen Standards. Noch immer stellten für die Kunden die Überweisung nach Rechnung (fast 90% der Internet- Käufer), die Lastschriftabbuchung (über 70%) und die Nachnahme-Zahlung (rund 65%) die beliebtesten Zahlverfahren beim Online-Shopping dar, betonten Marktforscher und Verbraucherschützer. Den größten Bedarf für neue Verfahren, die sinnvollerweise auf den vorhandenen Abrechnungsmechanismen aufbauen sollten, sahen die Symposiums-Teilnehmer im Bereich der Abrechnung von Klein(st)-Beträgen, wie sie beim Kauf digitaler Güter (Software, Musik, elektronische Dokumente usw.) anfallen. Um rentabel arbeiten zu können, seien hier aber die Sicherheitsanforderungen geringer. Mobiles Bezahlen per Handy werde sich in Zukunft immer mehr durchsetzen. Das Sicherheitsproblem liege hier in der „Luftschnittstelle“, so ein Experte, denn das Abhören von Mobilfunkverkehr sei in Europa besonders weit verbreitet. In jedem Fall - so hochrangige Vertreter der Finanzwirtschaft - haben Verfahren im E- und M-Commerce dann eine Chance, wenn sie auf den weltweit bewährten Transaktionsmechanismen beruhen.
Europäische Bankkonzerne sind nicht nur verpflichtet, konsolidierte Jahresabschlüsse zu erstellen, sie müssen seit Mitte der achtziger Jahre darüber hinaus ihr gesamtes regulatives Eigenkapital im Wege eines weiteren Konsolidierungsverfahrens ermitteln. Dieses Verfahren hat der deutsche Gesetzgeber im Kreditwesengesetz kodifiziert. Der folgende Beitrag erörtert offene Fragen, die sich bei Anwendung der kreditwesenrechtlichen Vorschriften über die Kapitalkonsolidierung stellen, und zeigt die Konsequenzen auf, die das Konsolidierungsverfahren auf die Geschäftsentfaltungsmöglickeiten der Konzernunternehmen hat. Die anschließende Analyse der Zweckmäßigkeit des Verfahrens soll belegen, dass sich die Pflicht zur Durchführung einer besonderen bankaufsichtsrechtlichen Kapitalkonsolidierung kaum rechtfertigen lässt. Der Autor plädiert daher für deren Abschaffung und für die Einführung einer generellen Pflicht zur Unterlegung von Bank-an-Bank Beteiligungen mit Haftungsmitteln.
Wozu ein solcher Bibliotheksführer?
Frankfurt am Main hat eine reiche und vielfältige Bibliothekslandschaft. Neben den großen und bekannten Bibliotheken gibt es zahlreiche Spezialbibliotheken. Sie sind häufig nur einem kleineren Nutzerkreis bekannt, obwohl sie oftmals Fragestellungen zu einer Fachrichtung eher beantworten als andere Bibliotheken und somit der Suchende sich dort schneller und besser informieren könnte. Um das Netz der Frankfurter Bibliotheken besser nutzbar zu machen, erscheint dieser Führer. Er soll kein Ersatz für bereits existierende Publikationen sein, die die Bibliotheken in ihrer Gesamtheit verzeichnen. Leitlinie bei der Erstellung war der Nutzen für den Leser. So wurden ausschließlich Bibliotheken aufgenommen, die öffentlich und uneingeschränkt zugänglich und regelmäßig geöffnet sind sowie über eine gewisse Bestandsgröße verfügen.
Die antivirale Funktion der RNA-abhängigen Adenosin-Desaminase bei der angeborenen Immunantwort
(2004)
Die angeborene Immunantwort von Säugetieren ist die erste wirkungsvolle Barriere gegen eindringende Pathogene, die sowohl Infektionen als auch die Entstehung von Neoplasien verhindern kann. Insbesondere wird durch sie die Ausbreitung und Replikation von Viren wirksam bekämpft. Bei RNA-Viren wird die angeborene Immunabwehr in infizierten Zellen von der doppelsträngigen RNA aktiviert, die während der Replikation oder Transkription dieser Viren entsteht. Es kommt zur Sezernierung von Interferon-alpha und -beta (IFN-alpha/beta), die wiederum die Expression einer Reihe von antiviralen Proteinen stimulieren. Eines dieser Proteine ist die IFN-alpha-induzierbare RNA-abhängige Adenosin Desaminase (iADAR-1). Ziel dieser Arbeit war es, die Rolle der iADAR-1 in der Immunabwehr näher zu charakterisieren. Bisher wurde die antivirale Aktivität der iADAR-1 gegen verschiedene Virusstämme, deren Genome Adenosin zu Guanosin (A->G) Hypermutationen aufweisen, nur angenommen, jedoch noch nicht direkt gezeigt [4]. In dieser Arbeit wurde am Beispiel des Glykoproteins (GP) des lymphozytären Choriomeningitis Virus (LCMV) untersucht, ob solche A->G Mutationen im viralen Genom tatsächlich durch die iADAR-1 verursacht werden und ob dadurch die Funktion der viralen Proteine und damit die Infektiösität von LCMV reduziert wird. Des Weiteren wurde die Induktion der iADAR-1 durch die Infektion mit LCMV und die Wirkung der iADAR-1 auf die Replikation von LCMV analysiert. Bekannt war nur, dass die iADAR-1 durch IFN-alpha selbst oder durch die Infektion von Makrophagen mit Adenoviren induziert wird. In dieser Arbeit wurde erstmals für Fibroblasten, neuronale Zellen und in vivo in Mäusen nachgewiesen, dass die iADAR-1 direkt durch die Infektion mit LCMV hochreguliert wird. Dies ist ein weiterer Hinweis, dass die iADAR-1 zu den antiviralen Effektormolekülen der angeborenen Immunabwehr zählt. LCMV induzierte die Expression der iADAR-1 sowohl auf mRNA- als auch auf Proteinebene. Im Gegensatz zu Vaccinia- und Adenoviren, die die Aktivität der iADAR-1 inhibieren [5, 6], konnte bei der Infektion von SH-SY5Y-Zellen mit LCMV keine reduzierte Aktivität der iADAR-1 festgestellt werden. Ferner konnte das schon in anderen Viren beobachtete A->G Hypermutationsmuster nun auch für LCMV bestätigt werden. Sowohl in vitro in L929-Zellen als auch in vivo in Mäusen wurde eine erhöhte A->G Mutationsfrequenz gefunden, die zwischen 50 und 75 % aller Mutationen in der S-RNA von LCMV ausmacht. Dies zeigte sich vor allem in der späten Phase der Infektion, also zu Beginn der Persistenz. Insgesamt wurden zu diesem Zeitpunkt in L929-Zellen 27 % und in der Maus 15 % nicht funktionelles LCMV-GP synthetisiert. Zudem wurde die Relevanz der A->G Hypermutationen für die beeinträchtigte Funktion des GPs deutlich, da sie 62 % der nicht infektiösen GP-Moleküle verursachen. Die desaminierende Wirkung der iADAR-1 auf das virale Genom von LCMV wurde in 293T-Zellen direkt gezeigt. A->G Mutationen in der S-RNA von LCMV nahmen durch die Überexpression der iADAR-1 in 293T-Zellen um 40 % zu. Ebenso wurde die Replikation bzw. das Assembly von Virionen durch die iADAR-1 reduziert, da im Vergleich zu Kontrollzellen der LCMV-Titer im Überstand von iADAR-1-überexprimierenden Zellen wesentlich niedriger war. Des Weiteren konnte bestätigt werden, dass die A->G Mutationen nicht durch die virale Polymerase induziert werden. Hierfür wurden iADAR-1 „knockout“ murine embryonale Fibroblasten (MEF) isoliert und als stabile Zelllinie etabliert. In diesen Zellen war kein A->G Hypermutationsmuster in der LCMV-RNA zu erkennen. In MEF wt war ebenfalls kein A->G Hypermutationsmuster nachweisbar. Der Grund hierfür könnte die im Vergleich zu L929-Zellen deutlich geringere basale iADAR-1-Expression der nicht völlig ausdifferenzierten MEFs sein.
Das Bankgeheimnis stellt weder ein absolutes Verbot der Weitergabe kundenbezogener Informationen noch ein Verbot der Abtretung von Forderungen gegen Kunden dar. Die aus dem Bankgeheimnis folgende Pflicht zur vertraulichen Behandlung von Informationen über Kunden wird ihrerseits durch immanente Grenzen beschränkt, soweit es die Ausübung von Gläubigerrechten der Bank in Frage steht. Eine Veräußerung und Abtretung von Forderungen und die dafür notwendige Weitergabe der Kundendaten wird daher durch das Bankgeheimnis nicht ausgeschlossen. Das Bankgeheimnis verpflichtet die Bank allerdings dazu, bei der Ausübung ihrer Gläubigerrechte die Vertraulichkeit der Informationen über die Geschäftsbeziehung so weit wie nur möglich zu wahren. Weitergehende Schranken zieht auch das Datenschutzrecht der Verwaltung und Verwertung von Forderungen durch die Bank nicht.
This Article concerns the duty of care in American corporate law. To fully understand that duty, it is necessary to distinguish between roles, functions, standards of conduct, and standards of review. A role consists of an organized and socially recognized pattern of activity in which individuals regularly engage. In organizations, roles take the form of positions, such as the position of the director. A function consists of an activity that an actor is expected to engage in by virtue of his role or position. A standard of conduct states the way in which an actor should play a role, act in his position, or conduct his functions. A standard of review states the test that a court should apply when it reviews an actor’s conduct to determine whether to impose liability, grant injunctive relief, or determine the validity of his actions. In many or most areas of law, standards of conduct and standards of review tend to be conflated. For example, the standard of conduct that governs automobile drivers is that they should drive carefully, and the standard of review in a liability claim against a driver is whether he drove carefully. Similarly, the standard of conduct that governs an agent who engages in a transaction with his principal is that the agent must deal fairly, and the standard of review in a claim by the principal against an agent, based on such a transaction, is whether the agent dealt fairly. The conflation of standards of conduct and standards of review is so common that it is easy to overlook the fact that whether the two kinds of standards are or should be identical in any given area is a matter of prudential judgment. In a corporate world in which information was perfect, the risk of liability for assuming a given corporate role was always commensurate with the incentives for assuming the role, and institutional considerations never required deference to a corporate organ, the standards of conduct and review in corporate law might be identical. In the real world, however, these conditions seldom hold, and in American corporate law the standards of review pervasively diverge from the standards of conduct. Traditionally, the two major areas of American corporate law that involved standards of conduct and review have been the duty of care and the duty of loyalty. The duty of loyalty concerns the standards of conduct and review applicable to a director or officer who takes action, or fails to act, in a matter that does involve his own self-interest. The duty of care concerns the standards of conduct and review applicable to a director or officer who takes action, or fails to act, in a matter that does not involve his own self-interest.
Der Fachbereich Erziehungswissenschaften befindet sich nach Ablauf der Gültigkeit des ersten Strukturplans zum 30.9.1996 in der Phase der Strukturprüfung. Im Zeitraum der vergangenen drei Jahre hat der Fachbereich in Abstimmung mit der Universitätsleitung und dem Ministerium und mit deren Unterstützung eine Reihe von strukturellen Maßnahmen ergriffen: a) Änderung der Binnengliederung des Fachbereichs und Modernisierung seiner Arbeits- und Studienorganisation, sowie des Ressourceneinsatzes. b) Arbeit an einem Stellenentwicklungskonzept mit dem Ergebnis erster Stellenfreigaben und Stellenanpassungen. c) Realisierung der Stellenabgabe 1995 – 1998/99. Dabei wurden die neuen gesetzlichen Bestimmungen, neue Verfahrensweisen und Regelungen berücksichtigt. In den hier vorgelegten Strukturplan gehen zum einen die bereits getroffenen Strukturentscheidungen ein, zum anderen wird die beabsichtigte Entwicklung des Fachbereichs bis 2004 auf dieser Basis dargestellt. Ziel dieses Strukturplans ist die Herstellung von Organisations- und Planungssicherheit durch eine auf sechs Jahre befristete Vereinbarung. Der Fachbereich macht Aussagen zu der von ihm angezielten Profilbildung anhand der besonderen Akzentuierungen der erziehungswissenschaftlichen Gegenstandsbereiche, die der Fachbereich aufzuweisen hat. Diese Akzentuierungen werden in den kommenden Jahren gestärkt werden. Dabei achtet der Fachbereich auf: - die ausgewogene Vertretung seiner Schwerpunkte durch Professuren in Forschung und Lehre - das angemessene Verhältnis von Lehramts- und Diplom-/Magisterausbildung sowie die Verbesserung der Lehrorganisation - Nutzung freiwerdender C2 - Stellen für die Förderung des wissenschaftlichen Nachwuchses - die Stärkung seines Forschungspotentials und der Nachwuchsförderung durch Unterstützung von Arbeitszusammenhängen - die Effektivierung der Organisation, Mitteleinwerbung und Mittelverwendung. Der Fachbereich begreift Strukturplanung als einen kontinuierlichen Prozeß und wird den vorliegenden Strukturplan fortschreiben.
Revised Draft: January 2005, First Draft: December 8, 2004 The picture of dispersed, isolated and uninterested shareholders so graphically drawn by Adolf Berle and Gardiner Means in 19321 is for the most part no longer accurate in today's market, although their famous observations on the separation of control and ownership of public corporations remain true.
Anmerkungen zum Urteil des BGH vom 24. November 2003, II ZR 171/01 : Das Urteil des BGH vom 24. 11. 2003 verschärft das Recht der Kapitalerhaltung empfindlich. Der Leitsatz, Kreditgewährungen an Gesellschafter, die nicht aus Rücklagen oder Gewinnvorträgen, sondern zu Lasten des gebundenen Vermögens der GmbH erfolgen, sind auch dann grundsätzlich als verbotene Auszahlung von Gesellschaftsvermögen zu bewerten, wenn der Rückzahlungsanspruch gegen den Gesellschafter im Einzelfall vollwertig sein sollte und die zugehörigen Urteilsgründe lassen erhebliche Auswirkungen nicht nur auf das Finanzierungsgebaren kleiner Gesellschaften, um die es in dem vom BGH entschiedenen Fall ging, sondern auch auf die Möglichkeiten der Innenfinanzierung großer Konzerne befürchten.
Der vorliegende Aufsatz befasst sich mit Fragen, die auftreten, wenn die an einer deutschen Börse notierten Aktien einer deutschen Gesellschaft auch an der New York Stock Exchange (im Folgenden “NYSE”) notiert werden und zwar ohne Zwischenschaltung von Hinterlegungsscheinen (American Depositary Receipts, im Folgenden “ADR”). Der Aufsatz behandelt dagegen nicht die Rechtsfragen, die sowohl bei einer Börsennotierung von Aktien als auch bei einer Börsennotierung von ADR einer deutschen Gesellschaft gelöst werden müssen, z.B. Rechtsfragen, die sich auf das US-amerikanische Kapitalmarktrecht, insbesondere das Bilanzrecht, die US-amerikanischen Anforderungen an die Corporate Governance, das Insiderverbot und Verhaltensregeln im Umgang mit der Presse beziehen.
Taking shareholder protection seriously? : Corporate governance in the United States and Germany
(2003)
The attitude expressed by Carl Fuerstenberg, a leading German banker of his time, succinctly embodies one of the principal issues facing the large enterprise – the divergence of interest between the management of the firm and outside equity shareholders. Why do, or should, investors put some of their savings in the hands of others, to expend as they see fit, with no commitment to repayment or a return? The answers are far from simple, and involve a complex interaction among a number of legal rules, economic institutions and market forces. Yet crafting a viable response is essential to the functioning of a modern economy based upon technology with scale economies whose attainment is dependent on the creation of large firms.
With the Council regulation (EC) No. 1346/2000 of 29 May 2000 on insolvency proceedings, that came into effect May 31, 2002 the European Union has introduced a legal framework for dealing with cross-border insolvency proceedings. In order to achieve the aim of improving the efficiency and effectiveness of insolvency proceedings having cross-border effects within the European Community, the provisions on jurisdiction, recognition and applicable law in this area are contained in a Regulation, a Community law measure which is binding and directly applicable in Member States. The goals of the Regulation, with 47 articles, are to enable cross-border insolvency proceedings to operate efficiently and effectively, to provide for co-ordination of the measures to be taken with regard to the debtor’s assets and to avoid forum shopping. The Insolvency Regulation, therefore, provides rules for the international jurisdiction of a court in a Member State for the opening of insolvency proceedings, the (automatic) recognition of these proceedings in other Member States and the powers of the ‘liquidator’ in the other Member States. The Regulation also deals with important choice of law (or: private international law) provisions. The Regulation is directly applicable in the Member States3 for all insolvency proceedings opened after 31 May 2002.
Lassen Sie mich einleitend mit fünf Thesen zu Basel II beginnen: 1. Basel II stellt einen flexiblen Regulierungsansatz dar, welcher auf einem Mix von privater Selbstregulierung und einer ständigen Überwachung durch staatliche Aufsichtsbehörden beruht. Möglicherweise repräsentiert Basel II einen Prototyp für einen neuartigen Regulierungsansatz im 21. Jahrhundert. 2. An dem Prozess bei Basel II auf internationaler Ebene nehmen neben staatlichen Stellen auch Marktteilnehmergruppen teil. Die Verhandlungen, die derzeit noch nicht abgeschlossen sind, erfolgen außerhalb der etablierten Regierungszirkel. Die Regelungen werden in unterschiedlich zusammengesetzten Unter- und Nebengruppen beim Basler Ausschuss für Bankenaufsicht vorbereitet. 3. Basel II reflektiert den Fakt der sich rasch wandelnden Finanzmärkte und anhaltender Fortentwicklungen bei den Bankgeschäften. Insoweit bildet Basel II eher einen Prozess als einen festen Zustand ab. 4. Stärker als die bisherigen Aufsichtsregularien bewirkt Basel II einen Anpassungsdruck in Richtung eines globalen Standards, im Zuge dessen eine Nivellierung der bestehenden, historisch gewachsenen und national geprägten Finanzierungsformen latent einhergehen dürfte. 5. Basel II verlangt eine aufwendige Betreuung –sowohl im Hinblick auf dessen Ausgestaltung als Regelungswerk als auch auf dessen praktische Anwendung. Expertise gewinnt an Bedeutung. Daraus könnten möglicherweise Verunsicherungen oder gar ein latentes Unbehagen bei den Bankkunden resultieren. Hier erscheint eine Aufklärung über die sachlichen Zusammenhänge bei Basel II angebracht.
Increasingly, alternative investments via hedge funds are gaining importance in Germany. Just recently, this subject was taken up in the legal literature, too; this resulted in a higher product transparency. However, German investment law and, particularly, the special division "hedge funds" is still a field dominated by practitioners. First, the present situation shall be outlined. In addition, a description of the current development is given, in which the practical knowledge of the author is included. Finally, the hedge fund regulation intended by the legislator at the beginning of the year 2004 is legally evaluated against this background.
In response to recent developments in the financial markets and the stunning growth of the hedge fund industry in the United States, policy makers, most notably the Securities and Exchange Commission (“SEC”), are turning their attention to the regulation, or lack thereof, of hedge funds. U.S. regulators have scrutinized the hedge fund industry on several occasions in the recent past without imposing substantial regulatory constraints. Will this time be any different? The focus of the regulators’ interest has shifted. Traditionally, they approached the hedge fund industry by focusing on systemic risk to and integrity of the financial markets. The current inquiry is almost exclusively driven by investor protection concerns. What has changed? First, since 2000, new kinds of investors have poured capital into hedge funds in the United States, facilitated by the “retailization” of hedge funds through the development of funds of hedge funds and the dismal performance of the stock market. Second, in a post-Enron era, regulators and policy makers are increasingly sensitive to investor protection concerns. On May 14 and 15, 2003, the SEC held for the first time a public roundtable discussion on the single topic of hedge funds. Among the investor protection concerns highlighted were: an increase in incidents of fraud, inadequate suitability determinations by brokers who market hedge fund interests to individual investors, conflicts of interest of managers who manage mutual funds and hedge funds side-by-side, a lack of transparency that hinders investors from making informed investment decisions, layering of fees, and unbounded discretion by managers in pricing private hedge fund securities. Although there has been discussion about imposing wide-ranging restrictions onhedge funds, such as reining in short selling, requiring disclosure of long/short positions and limiting leverage, such a response would be heavy-handed and probably unnecessary. The existing regulatory regime is largely adequate to address the most flagrant abuses. Moreover, as the hedge fund market further matures, it is likely that institutional investors will continue to weed out weak performers and mediocre or dishonest hedge fund managers. What is likely to emerge from the newest regulatory focus on investor protection is a measured response that would enhance the SEC’s enforcement and inspection authority, while leaving hedge funds’ inherent investment flexibility largely unfettered. A likely scenario, for example, might be a requirement that some, or possibly all, hedge fund sponsors register with the SEC as investment advisers. Today, most are exempt from registration, although more and more are registering to provide advice to public hedge funds and attract institutions. Registration would make it easier for the SEC to ferret out potential fraudsters in advance by reviewing the professional history of hedge fund operators, allow the SEC to bring administrative proceedings against hedge fund advisers for statutory violations and give the agency access to books and records that it does not have today. Other possible initiatives, including additional disclosure requirements for publicly offered hedge funds, are discussed below. This article addresses the question whether U.S. regulation of hedge funds is really taking a new direction. It (i) provides a brief overview of the current U.S. regulatory scheme, from which hedge funds are generally exempt, (ii) describes recent events in the United States that have contributed to regulators’ anxiety, (iii) examines the investor protection rationale for hedge fund regulation and considers whether these concerns do, in fact, merit increased regulation of hedge funds at this time, and (iv) considers the likelihood and possible scope of a potential regulatory response, principally by the SEC.
In an ideal world all investment products, including hedge funds, would be marketable to all investors. In this ideal world, all investors would fully understand the nature of the products and would be able to make an informed choice whether to invest. Of course the ideal world does not exist – the retail investment market is characterised by asymmetries of information. Product providers know most about the products on offer (or at least they should do). Investment advisers often know rather less than the provider but much more than their retail customers. Providers and intermediary advisers are understandably motivated by the desire to sell their products. There is therefore a risk that investment products will be mis-sold by investment advisers or mis-bought by ill-informed investors. This asymmetry of information is dealt with in most countries through regulation. However, the regulatory response in different countries is not necessarily the same. There are various ways in which protections can be applied and it is important to understand that the cultural background and regulatory histories of countries flavours the way regulation has developed. This means (as will be explained in greater detail later) that some countries are better able than others to admit hedge funds to the retail sector. Following this Introduction, Section II looks at some key background issues. Section III then looks at some important questions raised by the retail hedge fund issue. Many of these are questions of balance. Balance lies at the heart of regulation of course – regulation must always balance the needs of investors and with market efficiency. Understanding the “retail hedge fund” question requires particular attention to balance. Section IV then looks at the UK regime and how the FSA has answered the balance question. Section V offers some international perspectives. Section VI concludes. It will be seen that there is no obviously right answer to the question whether hedge fund products should be marketed to retail investors. Each regulator in each jurisdiction needs to make up its own mind on how to deal with the various issues and balances. It is evident, however, that internationally there is a move towards a greater variety of retail funds. There is nothing wrong with that, provided the regulators and the retail customers they protect, understand sufficiently what sort of protection is, or is not, being offered in the regulatory regime.
While hedge funds have been around at least since the 1940's, it has only been in the last decade or so that they have attracted the widespread attention of investors, academics and regulators. Investors, mainly wealthy individuals but also increasingly institutional investors, are attracted to hedge funds because they promise high “absolute” returns -- high returns even when returns on mainstream asset classes like stocks and bonds are low or negative. This prospect, not surprisingly, has increased interest in hedge funds in recent years as returns on stocks have plummeted around the world, and as investors have sought alternative investment strategies to insulate them in the future from the kind of bear markets we are now experiencing. Government regulators, too, have become increasingly attentive to hedge funds, especially since the notorious collapse of the hedge fund Long-Term Capital Management (LTCM) in September 1998. Over the course of only a few months during the summer of 1998 LTCM lost billions of dollars because of failed investment strategies that were not well understood even by its own investors, let alone by its bankers and derivatives counterparties. LTCM had built up huge leverage both on and off the balance sheet, so that when its investments soured it was unable to meet the demands of creditors and derivatives counterparties. Had LTCM’s counterparties terminated and liquidated their positions with LTCM, the result could have been a severe liquidity shortage and sharp changes in asset prices, which many feared could have impaired the solvency of other financial institutions and destabilized financial markets generally. The Federal Reserve did not wait to see if this would happen. It intervened to organize an immediate (September 1998) creditor-bailout by LTCM’s largest creditors and derivatives counterparties, preventing the wholesale liquidation of LTCM’s positions. Over the course of the year that followed the bailout, the creditor committee charged with managing LTCM’s positions effected an orderly work-out and liquidation of LTCM’s positions. We will never know what would have happened had the Federal Reserve not intervened. In defending the Federal Reserve’s unusual actions in coming to the assistance of an unregulated financial institutions like a hedge fund, William McDonough, the president of the Federal Reserve Bank of New York, stated that it was the Federal Reserve’s judgement that the “...abrupt and disorderly close-out of LTCM’s positions would pose unacceptable risks to the American economy. ... there was a likelihood that a number of credit and interest rate markets would experience extreme price moves and possibly cease to function for a period of one or more days and maybe longer. This would have caused a vicious cycle: a loss of investor confidence, lending to further liquidations of positions, and so on.” The near-collapse of LTCM galvanized regulators throughout the world to examine the operations of hedge funds to determine if they posed a risk to investors and to financial stability more generally. Studies were undertaken by nearly every major central bank, regulatory agency, and international “regulatory” committee (such as the Basle Committee and IOSCO), and reports were issued, by among others, The President’s Working Group on Financial Markets, the United States General Accounting Office (GAO), the Counterparty Risk Management Policy Group, the Basle Committee on Banking Supervision, and the International Organization of Securities Commissions (IOSCO). Many of these studies concluded that there was a need for greater disclosure by hedge funds in order to increase transparency and enhance market discipline, by creditors, derivatives counterparties and investors. In the Fall of 1999 two bills were introduced before the U.S. Congress directed at increasing hedge fund disclosure (the “Hedge Fund Disclosure Act” [the “Baker Bill”] and the “Markey/Dorgan Bill”). But when the legislative firestorm sparked by the LTCM’s episode finally quieted, there was no new regulation of hedge funds. This paper provides an overview of the regulation of hedge funds and examines the key regulatory issues that now confront regulators throughout the world. In particular, two major issues are examined. First, whether hedge funds pose a systemic threat to the stability of financial markets, and, if so, whether additional government regulation would be useful. And second, whether existing regulation provides sufficient protection for hedge fund investors, and, if not, what additional regulation is needed.
Der Titel des Vortrags benennt eine der wichtigsten Abgrenzungsfragen, die man sich zu stellen hat, sobald man es mit Kurs- und Marktpreismanipulation zu tun hat. Was ist zulässiges Marktverhalten, was muss jeder Marktteilnehmer tun dürfen, ohne mit einem Bein im Gefängnis zu stehen und wo fängt die verbotene Kursmanipulation an? Eine bedeutsame Unterscheidung für die aktiven Akteure am Kapitalmarkt, um Klarheit darüber zu haben, was erlaubt ist und was nicht. Der Markt braucht das Vertrauen der Anleger, und Anleger vertrauen nur in ordnungsgemäß funktionierende Märkte, in Märkte, an denen Preisbildungsmechanismen funktionieren und kontrolliert werden. Daher ist es notwendig,Vorkehrungen zu treffen, die gewährleisten, dass Märkte funktionieren und Preise sich an Märkten manipulationsfrei bilden können und auch bilden. Auf der präventiven Seite tragen hierzu die Handelsregeln der verschiedenen Börsen bei, die insbesondere dezidierte Regelungen zur Preisbildung beinhalten. Sie sollen gewährleisten, dass Preise ordnungsgemäß zustande kommen und einen fairen Ausgleich von Angebot und Nachfrage darstellen. Ergänzt wird dieser präventive Aspekt durch die repressive Seite, nämlich die Ahndung von Fehlverhalten. Hierzu gab es bisher die Regelung des Kursbetrugs in § 88 Börsengesetz. Diese Vorschrift existierte inhaltlich bereits über 100 Jahre, in denen sie aber, wenn nicht tot, so doch zumindest annähernd scheintot war. Denn es sind kaum Verurteilungen oder sonstige Maßnahmen auf der Grundlage dieser Norm bekannt. Wollte man aus diesem Schattendasein allerdings folgern, dass aufgrund des integren Verhaltens der Marktteilnehmer eine solche Regelung obsolet sei, so wäre das ein Fehlschluss. Mit dem Vierten Finanzmarktförderungsgesetz, das zum 01. Juli 2002 in Kraft tat, wurde dann auch eine Reform durchgeführt. Die alte Vorschrift wurde gestrichen und durch die neue Regelung des Verbots der Kurs- und Marktpreismanipulation im Wertpapierhandelsgesetz ersetzt. Dort wurden §§ 20a und 20b neu eingefügt. Die Aufgabe der Überwachung dieses Manipulationsverbots und die Verfolgung von Verstößen wurde der BaFin übertragen.
As there are apparently no doubts concerning the existence of Nazi anti-Semitism before 1933 regarding this topic – having largely been ignored by scholars of contemporary history – seems to be no use. This article tends to trace the role of anti-Semitism during the ascend of the Nazi-movement. Therefore, the author describes the theoretic function of this phenomena for the NSDAP by referring to Hitler’s Weltanschauung and the official program of the party. But how did this anti-Jewish ideology find its way into the party’s day-to-day agitation? By analysing Hitler’s political speeches it is shown how, after 1925/26, the Führer tried to present himself as a moderate politician – for he had realised that the NSDAP had to become a mass-movement in order to gain political power in Weimar Germany. Vis-à-vis the party’s antisemitic membership, mainly retailers and graduates, anti-Jewish stereotypes were pushed in propaganda. Yet, National Socialist anti-Semitism was not only opportunist in that it was played up or down depending upon when and where it hit responsive chords, it was also subject to the regional Gauleiter if this phenomena was promoted like in Streicher’s Franconia or restricted like in Württemberg, Hamburg or Danzig. Only after the world-wide economic crisis of 1929 the NSDAP had considerable success in the Reichstag’s elections. The party presented itself as the only power being capable to establish a new order in Germany. The propaganda focused on the main enemies of the National Socialists: Communism and the liberal democracy – in this context, the anti-Semitism was negligible.
When performance measures are used for evaluation purposes, agents have some incentives to learn how their actions affect these measures. We show that the use of imperfect performance measures can cause an agent to devote too many resources (too much effort) to acquiring information. Doing so can be costly to the principal because the agent can use information to game the performance measure to the detriment of the principal. We analyze the impact of endogenous information acquisition on the optimal incentive strength and the quality of the performance measure used.
Die vorliegende, von Studierenden der Fachhochschule für Bibliothekswesen in Frankfurt am Main erstellte Projektarbeit befaßt sich mit Fragen, Aspekten und Möglichkeiten der Flexibilisierung von Arbeitszeiten und Arbeitsformen in Bibliotheken. Im ersten Teil der Arbeit werden die wichtigsten Arbeitsteilzeitmodelle vorgestellt und deren Vorteile für Arbeitgeber und nehmer herausgearbeitet. Anschließend erfolgt eine durch Graphiken und Tabellen veranschaulichte Untersuchung von drei ausgewählte Universitätsbibliotheken (Gießen, Marburg, Mainz) in bezug auf bereits existierende Arbeitszeitflexibilisierung. Ein Ausblick geht der Frage nach, ob die dargestellten Teilzeitmodelle für Bibliotheken notwendig und ausreichend sind. Der zweite Themenkomplex befaßt sich mit der Telearbeit als einer innovativen Arbeitsform in Bibliotheken. Ausgehend von einer Begriffsbestimung werden verschiedene Formen der Telearbeit sowie deren Vor und Nachteile geschildert. Es wird erläutert, welche Bedingungen an den Telearbeiter und seinen Arbeitsplatz geknüpft sind, welche rechtlichen Voraussetzungen erfüllt werden müssen, welche finanziellen Aspekte eine Rolle spielen und welche Anwendungsmöglichkeiten für Telearbeit in Bibliotheken bestehen. An drei konkreten Beispielen wird dann geschildert, wie Telearbeit in Bibliotheken bereits verwirklicht wurde. Abschließend wird der Frage nachgegangen, welche Perspektiven der Einsatz von Telearbeit in Bibliotheken hat. Der dritte Abschnitt der Ausarbeitung stellt das bibliothekarische Call Center als neue Form einer benutzerorientierten Einrichtung vor. Zielsetzungen und Dienstleistungsformen des Call Centers werden ebenso abgehandelt wie Aspekte der Planung, Einrichtung und Arbeitsplatzergonomie sowie des Einsatzes von Telearbeit. Anhand des Beispiels der Zentral und Landesbibliothek Berlin wird schließlich dokumentiert, wie sich ein bibliothekarisches Call Center in der Praxis bereits bewährt hat.
Im Rahmen dieser Projektarbeit sollen drei Beispiele für Publikationsportale vorgestellt werden: das Bibliotheks und Informationssystem der Carl-von-Ossietzky-Universität Oldenburg, der Dokumenten und Publikationsserver der Humboldt-Universität zu Berlin mit Ausblick auf das Projekt ProPrint und das Publikationsportal der Universitätsbibliothek Kassel, das für den Titel dieser Arbeit Pate stand. Um deren Entstehung und Einbindung in einen aktiven Entwicklungsprozess zu verdeutlichen, werden zunächst einige wegweisende Initiativen auf dem Gebiet des elektronischen Publizierens beschrieben, sowie die Kriterien näher erläutert, die für das elektronische Publizieren von grundlegender Bedeutung sind. Es ist noch zu bemerken, dass nur Beispiele zum Publizieren von Monografien beschrieben werden, da das Einbeziehen von Zeitschriftenartikeln zu weit geführt hätte.
Da in der heutigen Zeit Metadaten auch in der bibliothekarischen Erschließung eine wesentliche Rolle spielen und diese dann durch das Internet in der ganzen Welt genutzt werden können, ist es erforderlich, ein international anerkanntes Regelwerk zu schaffen, das einheitliche Strukturen aufweist und möglichst einfach gehalten ist. Ziel dieser Arbeit ist es, die Auswirkungen des für diese Vorgaben geschaffenen Dublin-Core-Sets auf die bibliothekarische Arbeit zu untersuchen. Dabei wird sowohl auf die historische Entwicklung als auch die einzelnen Elemente des Dublin-Core-Sets eingegangen. Darüber hinaus wird untersucht, welche Rolle Bibliotheken im Hinblick auf die wachsende Präsenz der elektronisch verfügbaren Dokumente spielen und wie diese Metadaten für Bibliotheken, Bibliotheksverbünde sowie Hochschulnetze genutzt werden können. Schwerpunkt der Arbeit bildet dann die Anwendung von Dublin-Core in ausgewählten Projekten, sowie ein Vergleich der Nutzung von Metadaten nach Dublin-Core in diesen Projekten. Die daraus resultierende Frage, in wie weit sich Dublin-Core als Standard zur Erschließung von Metadaten etablieren konnte, steht dann im Mittelpunkt der Betrachtung des darauffolgenden Kapitels. Zum Abschluss der Arbeit soll dann geprüft werden, ob Dublin-Core in der Lage ist, den o.g. Forderungen Rechnung zu tragen. Darüber hinaus werden Perspektiven für die Zukunft bezüglich des Einsatzes von Dublin-Core kurz angerissen.
Elektronische Information ist ein immer wichtiger werdender Teil in der heutigen Informationsvermittlung und spielt auch für Bibliotheken eine zunehmend bedeutende Rolle. Da sie aber nicht mehr die einzigen Informationsvermittler sind, sondern auch private Anbieter diesen Markt entdeckt haben, müssen Bibliotheken dieser Konkurrenz durch Marketingstrategien entgegentreten. Dies ist eine neue Herausforderung im Bibliotheksbereich. Deshalb stellt sich die Frage, inwieweit Bibliotheken heute schon Marketing betreiben. Im Rahmen unseres Studiums an der Fachhochschule für Bibliothekswesen in Frankfurt am Main, haben wir diese Entwicklung zum Thema einer Projektarbeit gemacht, da sie eine aktuelle Bedeutung für uns als angehende Diplom-Bibliothekare hat. Unsere Ausgangsfragestellung entwickelten wir in der Auseinandersetzung mit den Thesen des Projekts Nutzung elektronischer wissenschaftlicher Informationen in der Hochschulausbildung von der Sozialforschungsstelle Dortmund zusammen mit dem Lehrstuhl für Soziologie der Universität Dortmund und der Gesellschaft für Angewandte Unternehmensforschung und Sozialstatistik mbH (GAUS) im Auftrag des Bundesministeriums für Bildung und Forschung (BMB+F), auch als SteFi-Studie (Studieren mit elektronischen Fachinformationen) bekannt (http://www.stefi.de/). Ziel unserer Arbeit ist es herauszufinden, welche Marketingstrategien bereits von Bibliotheken eingesetzt werden, welche Ziele damit verfolgt werden und wie diese neue Aufgabe organisiert wird. Dazu haben wir mittels eines Fragebogens eine Umfrage an zehn Bibliotheken gerichtet, an der sich neun Bibliotheken beteiligt haben. Diese befasst sich mit den Aspekten Marketingmaßnahmen, Stellenwert dieser Maßnahmen, Marketinggesamtkonzept und Finanzierung. Bei unseren Untersuchungen wurden ausschließlich Universitätsbibliotheken befragt, denen wir für ihre Mitarbeit und Hilfsbereitschaft danken.
Die vorliegende Projektarbeit beschäftigt sich mit der komplexen Thematik der funktionalen Einschichtigkeit an hessischen Hochschulbibliothekssystemen. Dargestellt werden sowohl die historisch politischen Gründe für die Prägung des Begriffs funktionale Einschichtigkeit sowie auch die Zielstellung der mit der Umsetzung verbundenen Veränderungen. Im Bezug darauf nehmen die Bearbeiter Empfehlungen des Wissenschaftsrates und der Deutschen Forschungsgemeinschaft sowie auch andere historische Dokumente genauer unter die Lupe. Um Veränderungsprozesse deutlich erläutern zu können, werden Fallbeispiele geliefert. Hiefür wurden die Bibliothekssysteme Frankfurt am Main, Marburg und Darmstadt untersucht, wobei die Sonderrolle des Marburger Modells in der Arbeit herausgestellt wird. Nach dem Versuch, die Komplexität der Thematik und die damit verbundenen Schwierigkeiten deutlich zu machen, werden letztendlich Schlussfolgerungen gezogen und Ansätze für Lösungen gegeben.
Am 3 Februar 2004 innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Die potentielle Unabschließbarkeit literarischer Lektüren ist oft mit der Metapher vom Text als Gewebe umschrieben worden. Uwe Wirth widmet sich ihr mit Blick auf den Grenzbereich eines anderen Mediums: des Computers. Findet sich im Hypertext die digitale Einlösung der Metapher vom Textgewebe, so stellt sich aufs Neue die Frage nach den Rollen von Autor und Leser: Der Hypertextleser wird zum editorialen "Spinner" eines Netzes aus semantischem und medialem Gewebe.
Am 10 Februar 2004 innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Claus Zittel diskutiert in seinem Beitrag die Frage der Lesbarkeit von Bildern. Er analysiert die vielfältigen Bedeutungen, Darstellungsfunktionen und den argumentativen Stellenwert von Abbildungen in wissenschaftlichen Abhandlungen der Frühen Neuzeit. Anhand einer Fülle von Beispielen zeigt er, wie undifferenziert und trügerisch die verbreitete Vorstellung von der Evidenz wissenschaftlicher Bilder ist: Abbildungen sind weder eindeutig durch den illustrativen Zweck noch durch eine gegebene Evidenz bestimmt. Die Decodierbarkeit und Überzeugungskraft der Bilder hängt vielmehr von kulturell codierten und etablierten Sicht- und Denkweisen ab, die die Bilder selbst in produktiver Weise mit prägen. Status, Funktionen und Bedeutungen von Abbildungen differieren, und sie können nur angemessen erschlossen – gelesen – werden, wenn die erkenntnistheoretischen Voraussetzungen und praktischen Kontexte ihrer Verwendung mit in Betracht gezogen werden.
Im Rahmen der vorliegenden Arbeit wird eine systematische Untersuchung von Feldabschirmungseffekten bei Photostrommessungen in Abhängigkeit der optischen Anregungsdichte an GaAs/AlGaAs{Halbleiterubergitterstrukturen vorgenommen. Diese Untersuchungen gestatten es, Kontaktierungsmethoden zu finden, um das elektrische Feld innerhalb der Übergitterstruktur definiert einzustellen. Diese Untersuchungen waren notwendig geworden, da sowohl erste zeitaufgelöste (z.B. die THz-Emission von Bloch-Oszillationen), wie auch verschiedene nicht zeitaufgelöste Messungen (z.B. differentielle Elektroreflexionsmessungen) nahelegten, daß in der Probe kein elektrisches Feld einzustellen war. Die Untersuchungen zur anregungsdichteabhangigen Feldabschirmung wurden in einem Photostromaufbau durchgeführt, bei dem die Anregungsdichte durch die Verwendung eines abstimmbaren CW-Ti:Saphir Laser gegenüber Aufbauten mit einer Kombination aus Lampe und Monochromator weiter gesteigert werden kann. Als Indikator für die Feldabschirmung dient die Herausbildung der Wannier-Stark-Leiter in den Photostromspektren. Zur Untersuchung der Feldabschirmung wurde zunächst die Probenpraparation verändert. Anschließend wurde die Anregungsdichte systematisch variiert und es wurden verschiedene Probenstrukturen untersucht, unter anderem zum Vergleich mit den hier pin-Übergitter Dioden auch eine häufig verwendete Schottky-Diode. Es wurden verschiedene präparative Variationen durchgeführt, um den Einfluß der dotierten Schichten zu klären. So wurde beispielsweise die p+-Schicht heruntergeätzt, oder auf die p+-Schicht eine zusätzliche metallische semitransparente Cr/Au-Schicht aufgedampft, sowie Proben mit verschiedenen Dotierungsmaterialien (Berylium und Kohlenstoff) untersucht. Alle betrachteten Proben zeigen bei niedrigen Anregungsdichten eine Aufspaltung in Wannier-Stark-Zustände. Die Absorptionslinien, die in den Spektren die Übergänge darstellen, werden dann bei steigender Anregungsdichte zunächst asymmetrisch, treten erst bei niedrigeren äußeren Vorspannungen auf und verschwinden schließlich für sehr hohe Dichten ganz. Eine Analyse der systematischen Untersuchungen für die verschiedenen Probentypen ergibt, daß sich höchstwahrscheinlich Ladungstrager in der p+-Schicht ansammeln und so das äußere elektrische Feld abschirmen. Zusätzlich zeigt im Vergleich der zwei Dotierungsmaterialien die mit Kohlenstoff dotierte Probe eine bei deutlich höheren Anregungsdichten einsetzende Abschirmung gegenüber der mit Berylium dotierten Probe. Die konsequente Umsetzung der gewonnenen Erfahrungen führt zu einem neuen Probendesign. Die Vermeidung p+-dotierter Schichten, wobei die Proben nur mit einer semitransparenten Cr/Au-Schicht bedampft werden, hat dazu geführt, daß es schließlich möglich war, die kohärente Emission von Bloch-Oszillationen unter 45 ° zu messen. Weiterhin war es auch möglich, erste Messungen zur kohärenten Detektion der direkten Emission von Bloch-Oszillationen in einem Magnetfeld zu realisieren, diese Messungen werden daher nur kurz dargestellt. Je nach Feldstarke des elektrischen und des magnetischen Feldes wird die Emission der Bloch-Oszillationen durch die magnetische oder elektrische Quantisierung dominiert. In Vorbereitung auf zeitaufgelöste Messungen wurde im Rahmen dieser Arbeit zusätzlich auch ein neuer dichroitischer Strahlteiler verwendet und charakterisiert. Ein Indium-Zinn-Oxid-Film auf einem Glassubstrat ist im optischen Frequenzbereich transparent, besitzt aber im niedrigen THz-Frequenzbereich (0 bis 2.5 THz) eine relative Reflexion von 90% bis 80% und eine relative Transmission von konstant etwa 10% und kann somit als Alternative zu dem sonst häufig verwendeten Folien-Strahlteiler verwendet werden. Der komplexe Brechungsindex ñ kann numerisch aus den Reflexions- bzw. Transmissionsdaten bestimmt werden.
Im Rahmen dieser Arbeit wurde ein Verfahren zur Messung der Absorption der TM0-Mode im atmosphärischen Wellenleiter entwickelt, das auf der Bestimmung des Amplitudenabfalls von durch Blitze generierten ELF-Impulsen beruht. Eine Anwendung des Verfahrens setzt die simultane Messungen der ELF-Impulse an verschiedenen Stationen voraus. Im Sommer 1998 wurde im Rahmen der Spritekampagne'98 ein geeigneter Datensatz an drei Stationen im Westen Nordamerikas gewonnen. Bislang wurde ein Teil dieses Datensatzes herangezogen, um das Messverfahren zu testen und mit Ergebnissen aus einer anderen Quelle zu vergleichen. Diese Tests waren erfolgreich und die Ergebnisse von Hughes und Gallenberger [10] konnten reproduziert werden. Die Stationen wurden mit Induktionsspulen-Magnetometern vom Typ Metronix MFS05 im HF-Modus betrieben. Die für die Instrumentenkorrektur erforderlichen Übertragungsfunktionen der Magnetometer waren vorab nur für den LF-Modus mit Vertrauen erweckender Sicherheit bekannt. Dies machte eine Nachkalibrierung der Magnetometer erforderlich, bei der zunächst versucht wurde, die bekannte LF-Übertragungsfunktion zu reproduzieren. Dazu wurde die Einspeisung einer Rechteckschwingung in den Kalibriereingang des MFS05-Magnetometers verwendet. Bei 5 von 6 verwendeten Magnetometern ließ sich die Übertragungsfunktion für den LF-Modus reproduzieren. Bei einem traten jedoch deutliche Abweichungen auf, die sich auch bei anderen Messungen reproduzieren ließen. Die Übertragungsfunktion des Magnetometers hat sich also seit der letzten Kalibrierung durch den Hersteller verändert. Erst durch diese Nachkalibrierung ist es möglich geworden, diese Veränderung in Instrumentenkorrekturen einzubringen. Nachdem im LF-Modus gezeigt war, dass die verwendete Kalibrierungsmethode funktioniert wurde sie auch für den HF-Modus angewandt. Neben der Kalibrierung durch Einspeisung eines synthetischen Signals wurden auch Kalibrierungen unter Ausnutzung der natürlichen Anregung durchgeführt. Diese dienten in erster Linie einem Vergleich verschiedener Messgeräte: Den beiden Datenloggern SPAM MkIII und Quanterra QT4120 sowie den bei- den Magnetometern Metronix MFS05 und EMI BF-4. Der QT4120-Datenlogger wurde ursprünglich nicht zum Anschluss von Magnetometern konzipiert und benötigte dazu eine separate Adaptereinheit. Eine solche Adaptereinheit (kurz "Adapterbox") wurde im Rahmen dieser Arbeit konzipiert und gemeinsam mit der am Institut angestellten Elektronikerin Vera Fischer implementiert. Die Messergebnisse der Kalibrierungen mit natürlicher Anregung wurden so gedeutet, dass der SPAM MkIII-Datenlogger und das MFS05-Magnetometer gegenüber dem Quanterra QT4120-Datenlogger und dem EMI BF-4-Magnetometer einen geringeren Rauschpegel im ELF-Bereich aufweisen. Dies muss nicht für Frequenzen unterhalb des ELF-Bereichs gelten - dort wurden keine Untersuchungen angestellt.
Diese Arbeit entstand im Zusammenhang mit dem Funneling-Experiment am Institut für Angewandte Physik. Dieses Experiment soll die praktische Umsetzung des für das HIDIF-Projekt benötigte Funneln zur Ionenstrom-Erhöhung demonstrieren. Dabei stand die Erzeugung zweier identischer Ionenstrahlen mit einer Energie von 4 keV im Vordergrund. Diese Ionenstrahlen werden in zwei aufeinander zulaufenden RFQ-Beschleunigern auf eine Energie von 160 keV beschleunigt. Der noch in Planung stehende Funneling-Deflektor bringt die beiden Ionenstrahlen auf eine gemeinsame Strahlachse. Zu Beginn der Diplomarbeit stand der Umbau der Emittanzmeßanlage auf eine PC-Plattform. Gleichzeitig wurde ein sogenannter Quellenturm zum Betrieb der Ionenquellen aufgebaut (vgl. Kapitel 7.2). Die Multicusp-Ionenquellen wurden von K. N. Leung vom Lawrence Berkeley National Laboratory (LBNL) entwickelt und gebaut. Das elektrostatische Linsensystem wurde von R. Keller (LBNL) entworfen und berechnet. Die beiden Linsensysteme wurden in unserer Werkstatt gefertigt. Der erste Teil des Testbetriebs der Injektionssysteme, bestehend aus der Multicusp- Ionenquelle sowie dem elektrostatischen Linsensystem auch LEBT (Low Energy Beam Transport) genannt, bestand aus der Messung des Strahlstromes sowie der zugehörigen Emittanz. Zum Messen des Strahlstromes stand eine durch Preßluft in den Ionenstrahl fahrbare Faradaytasse zur Verfügung. Von dieser Faradaytasse wurde eine Kennlinie zur Bestimmung der Spannung der Sekundärelektronen- unterdrückung aufgenommen (vgl. Kapitel 8.1). Zur Messung der Strahlemittanz wurde eine Emittanzmessung nach dem Schlitz-Gitter Prinzip vorgenommen (vgl. Kapitel 5, Kapitel 7.7-7.9). Beim Betreiben der Injektionssysteme stand vor allem der Synchronbetrieb im Vordergrund. Dabei wurde festgestellt, daß eine der beiden Ionenquellen auch ohne Linsensystem einen größeren Strahlstrom liefert (vgl. Kapitel 8.9). Der Unterschied zwischen den Ionenquellen beträgt bei einem Bogenstrom von 6 A über 20 %. Dies bedeutet für den späteren Strahlbetrieb am RFQ, daß zum Erzeugen gleicher Strahlströme eine Ionenquelle immer mit einem kleineren Bogenstrom betrieben werden muß. Die dadurch unterschiedlichen Plasmadichten sowie thermischen Belastungen der Plasmakammer und unterschiedlichen Füllgrade der elektrostatischen Linsen tragen zu den festgestellten Emittanzunterschieden bei. Zum späteren Vergleich der Injektionssysteme wurde ein Injektionssystem durch verschiedene Bogenströme, variierte Spannungen an den elektrostatischen Linsen sowie unterschiedlichen Gasdrücken in der Plasmakammer ausgemessen. Diese Messungen wurden nach Wechseln der Glühkathode sowie Demontage und Neumontage von Ionenquelle und Linsensystem wiederholt. Dabei wurde festgestellt, daß sich der Strahlstrom bei der Vergleichsmessung kaum, die Emittanz der Injektionssysteme aber bis ca. 10% ändert (vgl. Kapitel 8.5). Diese Unterschiede müssen bei dem späteren Vergleich mit dem zweiten Injektionssystem einbezogen werden.Beim Betrieb des zweiten Injektionssystems wurden im direkten Vergleich der Injektionssysteme Unterschiede zwischen dem Strahlstrom sowie der Emittanz festgestellt. Auch hier lieferte das zweite Injektionssystem den schon nach der Ionenquelle festgestellten größeren Ionenstrom. Die gemessenen normierten 90 % RMS-Emittanzen bei einem Strahlstrom von 1 mA betragen am Injektionssystem 1 , beim Injektionssystem 2 , bei einer e1 =0,0288 mm mrad e2 =0,0216 mm mrad Strahlenergie von 4 keV. Die Emittanzunterschiede betragen bis zu 30 %. Im Betrieb mit dem RFQ können die Linsensysteme nicht mit den identischen Spannungen betrieben werden. Dies ist zum einen auf die fertigungsbedingten Unterschiede zurückzuführen, zum anderen auf die abweichenden Plasmadichten zum Erreichen gleicher Strahlströme. Im geplanten HIDIF-Projekt sollen 48 Ionenquellen drei unterschiedliche Teilchenströme erzeugen. Bei dieser Anzahl an Ionenquellen für drei unterschiedliche Ionensorten wird das Erzeugen identischer Teilchenströme sicher noch schwerer zu bewältigen sein. Am Funneling-Experiment ist der Vergleich der beiden Injektionssysteme abgeschlossen. Der Doppelstrahl RFQ-Beschleuniger ist aufgebaut, es wurde bereits ein Ionenstrahl in den RFQ eingeschossen (vgl. Kapitel 8.13). Die normierten 90 % RMS-Emittanzen nach dem RFQ betragen 0,057 mm mrad sowie 0,0625 mm mrad für die beiden Strahlachsen. Der Emittanzunterschied ist kleiner 9 %. Die Emittanzen nach dem RFQ können nicht direkt mit den im Testbetrieb gemessenen Emittanzen der Injektionssysteme verglichen werden. Im Strahlbetrieb mit dem RFQ wurde eine Strahlenergie der Injektionssysteme von 4,15 keV benötigt. Außerdem mußten durch geänderte Einschußbedingungen in den RFQ die Linsenspannungen gegenüber dem Testbetrieb variiert werden. Mit dem Aufbau des Funneling-Deflektors wird zur Zeit begonnen. Nach der Erprobung wird der Einbau in die Strahlachse erfolgen.
In dieser Arbeit wurden Untersuchungen zur Einstellung und Analyse des Sauerstoffgehalts an YBa2Cu3O6+x-Dünnfilmen durchgeführt. Zur Analyse des Sauerstoffgehalts wurde ein optisches Verfahren angewendet. Durch Messung der Transmission un der Reflektion in einem Spektralbereich von 2000nm bis 3000nm wird mit Hilfe des im Rahmen dieser Arbeit erstellten Markov-Modells die optische Leitfähigkeit bestimmt. Aus den gewonnen Werten der optischen Leitfähigkeit kann so auf den Sauerstoffgehalt in YBa2Cu3O6+x geschlossen werden.
Es wurde eine Meßstation zum Vermessen von THz-Photomischern vorgestellt und aufgebaut. Weiterhin konnte gezeigt werden, wie diese Station es ermöglicht, das Vermessen von THz-Photomischern, im Vergleich zum bisher verwendeten Meßaufbau, deutlich zu vereinfachen und zu beschleunigen. Mit dieser Station wurden zwei Proben, die sich in der Dicke der LT-GaAs-Schicht unterscheiden, vermessen. Um die gemessenen Daten analysieren zu können wurden zuvor beschrieben, wie eine Modulation des Photostroms in Photomischern erhalten und damit THz-Strahlung erzeugt werden kann. Gemessen wurde die THz-Leistung in Abhängigkeit von Frequenz , Vorspannung und Leistung der optischen Beleuchtung. Diese Messungen haben zu Ergebnissen geführt, die nur zum Teil mit den theoretisch vorhergesagten Ergebnissen übereinstimmen. So wurde festgestellt, daß nur etwa 1 bis 2 % der theoretisch erwarteten THz-Leistung detektiert wurde. Dies kann an langlebigen Ladungsträgern liegen, die im Substrat erzeugt werden. Diese Ladungsträger unterhalb der LT-GaAs-Schicht führen zu einer erhöhten Leitfähigkeit und können dadurch Reflexion und Absorption von THz-Strahlung verursachen. Diese Vermutung wird unterstützt durch die Beobachtung einer starken Reduktion des Signals in einem gepulsten THz-System, wenn eine konstante Hintergrundbeleuchtung eingeschaltet wird.[45] Weiterhin ist nicht auszuschließen, daß die für die THz-Erzeugung relevante Lebenszeit der Ladungsträger deutlich größer ist, als die mit Anrege-Abfrage-Messungen bestimmte. Analog könnte auch eine deutlich höhere Kapazität des Photomischers als die theoretisch berechnete diese Beobachtung erklären. Ob langlebige Ladungsträger im Substrat für die geringe gemessen Leistung verantwortlich sind kann überprüft werden, indem zwischen Substrat und LT-GaAs-Schicht einen Bragg-Refelektor gewachsen wird. So kann verhindert werden, daß eingestrahlte Leistung das Substrat erreicht. Dadurch können keine Ladungsträger im Substrat angeregt werden. Zusätzlich hat dies den Effekt, daß ein größerer Anteil der eingestrahlten Strahlung absorbiert werden kann, weil die einfallende Strahlung wegen der Reflexion zweimal durch die LT-GaAs-Schicht läuft. Ein solcher Mischer wurde bereits von E. R. Brown vorgeschlagen.[46] Bei den Messungen der THz-Leistung gegen Vorspannung konnte beobachtet werden, daß der Photostrom eine andere Abhängigkeit von der Vorspannung zeigt, als theoretisch vorhergesagt wurde. Erwartet wurde ein linearer Zusammenhang. Bei höheren Vorspannungen wurde aber ein stärkerer Anstieg beobachtet. Dies kann z.B. an einem zusätzlichen nichtlinearen Strom durch das Substrat oder an einer vom elektrischen Feld abhängigen Lebenszeit der Ladungsträger liegen. Für beide Erklärungsansätze wurden vereinfachte Modelle vorgestellt. Beide Modelle treffen dabei unterschiedliche Vorhersagen über die Änderung der Effizienz beim Auftreten des höheren Stromes. Deutlich werden die Unterschiede in den Vorhersagen im Frequenzverlauf. So führt ein zusätzlicher Strom durch das Substrat zu einer Verringerung der Effizienz um einen von der Frequenz unabhängigen konstanten Faktor. Der Frequenzverlauf verschiebt sich also zu geringeren Effizienzen. Eine Erhöhung der Lebenszeit hingegen führt zu einem geänderten Frequenzverlauf. So ist die Änderung der Effiienz bei niedirgen Frequenzen gering, zu höheren Frequenzen hin ändert sich die Effizienz jedoch immer stärker. Die Vorhersagen beider Modelle wurden mit dem gemessenen Daten verglichen. Bei den gegebenen Parametern war der Unterschied zwischen den beiden Modellen jedoch zu gering und die Fluktuation in den Meßdaten zu hoch, um entscheiden zu können, welches der beiden Modelle die gemessenen Daten besser beschreibt. Um erkennen zu können, welches der Modelle den Effekt beschreibt, der zu einem höheren Strom führt, müßte der Effekt in den Meßdaten erhöht werden. Dies kann geschehen, indem zusätzlich bei höheren Spannungen gemessen wird. Es müßte dabei allerdings die optische Leistung reduziert werden, um ein Zerstören der Mischer zu vermeiden. In dieser Arbeit konnte somit gezeigt werden, daß die aufgebaute Meßstation ein vereinfachtes Messen von THz-Photomischern ermöglicht. Weiterhin konnte das Verhalten von zwei vermessenen Mischern gezeigt und analysiert werden, sowie weitere Messungen vorgeschlagen werden, die eine exaktere Analyse der Photomischer ermöglichen sollten.
Bei der Regulierung und Aufsicht auf den internationalen Wertpapiermärkten gibt es immer noch viele Unterschiede bei den Regelungsinhalten und in der Prioritätensetzung. Die steigende weltweite Verflechtung der Finanzsektoren und deren Akteure sowie die hohe Kapitalmobilität machen es jedoch zunehmend erforderlich, auch die Aufsicht zunehmend zu internationalisieren. Internationale Aufsichtsstandards wiederum können grenzüberschreitende Aktivitäten von Marktteilnehmern erleichtern und sicherer machen. Es ist inzwischen anerkannt, dass eine gute und effiziente Regulierung einen Finanzplatz gerade im internationalen Umfeld attraktiv macht und so dessen Wettbewerbsfähigkeit erhöht. Es ist daher von großer Bedeutung, die nationale Aufsicht internationalen Standards folgen zu lassen. Eine wichtige Funktion bei der Aufstellung dieser Standards haben die internationalen Organisationen wie IOSCO im Wertpapierhandel, die IAIS im Versicherungs- und der Baseler Ausschuss im Bankenbereich inne. In vielfältiger Weise ist deren Arbeit für den Finanzplatz Deutschland richtungsweisend. Das sind wichtige Gründe, weshalb die Teilnahme an Aktivitäten der IOSCO, Mitarbeit an Berichten, Standards und Resolutionen der IOSCO dem deutschen Kapitalmarkt und insbesondere dem Wertpapierhandel in Deutschland nützen kann. Um näher verständlich machen zu können, auf welche Weise IOSCO dem deutschen Kapitalmarkt in diesem Sinne nützlich sein kann, und Arbeiten in der IOSCO von Bedeutung für das deutsche Recht im Bereich des Wertpapierhandels sind, ist es zunächst wichtig, die Organisation IOSCO (1) , ihre Zielsetzung (2) und Struktur (3) zu verstehen, und die Bereiche zu kennen, in denen IOSCO arbeitet (4) sowie die Formen und jeweilige Bindungswirkung der Produkte der IOSCO (5). Wichtig in diesem Zusammenhang sind auch Art und Weise, auf die in IOSCO Beschlossenes unser Finanzsystem tangieren kann und bereits tangiert hat.
The volume is a collection of papers given at the conference “sub8 -- Sinn und Bedeutung”, the eighth annual conference of the Gesellschaft für Semantik, held at the Johann-Wolfgang-Goethe-Universität, Frankfurt (Germany) in September 2003. During this conference, experts presented and discussed various aspects of semantics. The very different topics included in this book provide insight into fields of ongoing Semantics research.
In der vorliegenden Arbeit wird die Photodoppelionisation (PDI) von Helium (He) experimentell untersucht. Dazu wurde an der Synchrotronstrahlenquelle Advanced Light Source des Lawrence Berkeley National Laboratory (USA) der vollständig differentielle Wirkungsquerschnitt (FDCS) der PDI von He mit linear sowie mit links und rechts zirkular polarisiertem Licht bei den zwei Photon-Energien E_gamma = 179 eV und 529 eV gemessen. Dabei gelang erstmals eine Messung, bei der die Kontinuumsenergie der Fragmente wesentlich über der Bindungsenergie (79 eV) des Systems liegt. Aufgrund dieser hohen Energie lassen die gemessenen Winkel- und Energieverteilungen erstmals Rückschlüsse auf die Wechselwirkungsprozesse in der Ionisation zu. In allen bisherigen Messungen bei niedrigen Photon-Energien überdeckt der Einfluß der Elektron-Elektron-Wechselwirkung im Endzustand alle Spuren der seit langem theoretisch diskutierten Reaktionsmechanismen. Der FDCS der PDI von He wurde mit einer COLTRIMS (COLd Target Recoil Ion Momentum Spectroscopy)-Apparatur gemessen. Hierbei wird das Gastarget durch eine adiabatische Expansion gekühlt und dann mit dem Photon-Strahl zum Überlapp gebracht. Die bei einer Reaktion freigesetzten Elektronen, deren Summenenergie sich zu E_sum = E_1 + E_2 = E_gamma - 79 eV berechnet (die Summenenergie der beiden Elektronen ist gleich der Überschußenergie E_exc), werden mit einer Energie bis zu E_1,2 = 60 eV durch ein elektrisches und magnetisches Feld im vollen Raumwinkel von 4 pi auf einem großen ortssensitiven Detektor abgebildet. Das elektrische Feld projiziert die kalten Rückstoßionen auf einen zweiten ortssensitiven Detektor. Aus der Flugzeit und dem Auftreffort werden der Ladungszustand und der Impuls der Teilchen ermittelt. Ergebnisse: Die Energieaufteilung auf die beiden Elektronen erfolgt asymmetrisch. Diese Asymmetrie ist bei der PDI 450 eV über der Doppelionisationsschwelle (79 eV) stärker ausgeprägt als bei E_exc = 100 eV. Langsame Elektronen werden generell isotrop zur Polarisation emittiert (beta = 0), während die 100 eV-Elektronen einen Anisotropie-Parameter von beta = 1,7 und die sehr schnellen 450 eV-Elektronen sogar eine Dipolverteilung (beta = 2) bzgl. der Polarisationsachse aufweisen. Eine asymmetrische Energieaufteilung zusammen mit einem Anisotropie-Parameter von beta = 2 für die 450 eV-Elektronen zeigt, daß bei der PDI 450 eV über der Schwelle ein Zwei-Stufen-Prozeß vorliegt, in dem das erste Elektron die Energie und den Drehimpuls des Photons aufnimmt. Das zweite Elektron gelangt dann durch den Shake-off oder den Two-Step-One-Mechanismus ins Kontinuum. Sowohl die Häufigkeitsverteilung der Zwischenwinkel der Elektronen als auch der Verlauf der Quadrate der geraden und der ungeraden Amplituden bei der PDI 450 eV über der Schwelle zeigen, daß sehr langsame Elektronen (2 eV) hauptsächlich durch den Shake-off-Mechanismus ins Kontinuum gelangen, während etwas schnellere 30 eV-Elektronen ihre Energie über einen (e,2e)-Stoß (Two-Step-One-Mechanismus) erhalten. Für 100 eV über der Schwelle zeigt sich, daß der Relativimpulsvektor der beiden Elektronen parallel zum Polarisationsvektor steht. Das bedeutet, daß die PDI von He 100 eV über der Schwelle nicht mehr im Gültigkeitsbereich der Wannier-Näherung liegt. Aufgrund der großen Geschwindigkeitsdifferenzen kann die PDI von Helium parallel zum Polarisationsvektor erfolgen. Der gegen den Zwischenwinkel varphi_12 der Elektronen aufgetragene normierte Zirkulare Dichroismus CD_n ist bei E_exc = 100 eV wesentlich stärker ausgeprägt als bei E_exc = 450 eV. Der Wert des Extremums ist für alle Energieaufteilungen - außer der symmetrischen - gleich. Für beide Überschußenergien findet man eine Abhängigkeit der varphi_12-Position des Extremums von der Energieaufteilung. Die Extreme entfernen sich mit zunehmender asymmetrischer Energieaufteilung von varphi_12=180°. Die experimentell gewonnenen Ergebnisse zu den vollständig differentiellen Wirkungsquerschnitten der PDI von He sowohl mit linear als auch mit links und rechts zirkular polarisiertem Licht bei 100 eV und 450 eV über der Doppelionisationsschwelle zeigen insgesamt gute Übereinstimmungen mit den Ergebnissen der convergent-close-coupling-Rechnungen von A. Kheifets und I. Bray.
In der vorliegenden Arbeit wird die enge Verbindung von Zeitvorstellungen und gesellschaftlicher Zeitorganisation zu gesellschaftlichen Zukunftsvorstellungen und individuellen Lebensperspektiven herausgearbeitet. Erfasst und analysiert werden auch jene Faktoren, die die Manipulationsmacht des Menschen und der gesellschaftlichen Systeme bei temporalen Gestaltungsvorhaben begrenzen. Kernaussage und zentrale Fragestellungen: Zeitbewusstsein und Zeitvorstellungen prägen die Vorstellungen von Zukunft. Bestimmte Formen von Zeit und gesellschaftlicher Zeitorganisation können die Entstehung und Entwicklung von Zukunftsvorstellungen hemmen oder fördern. Damit ragen Zeitbewusstsein und Zeitorganisation in die Wahrnehmung und Entwicklung von Zukunft hinein. Zentral ist u.a. die Form, in der Zeit zur Verfügung steht. Sind es immer nur kurze Momente, die für Reflexion, Retrospektion oder Prospektion zur Verfügung stehen oder längere zusammenhängende Sequenzen? Stehen solche Zeiten nur dem auf sich gestellten Individuum oder ganzen gesellschaftlichen Gruppen gemeinsam zur Verfügung? Liegen diese Zeiten so und sind sie so gestaltet, dass sie sinnvoll zur Entwicklung und Gestaltung von Zukunft genutzt werden können? Aufbau der Arbeit: Im ersten Kapitel wird das Thema expliziert und werden Aufbau, Methode und Grenzen der Fragestellung werden. Im zweiten Kapitel werden verschiedene Formen des Umgangs mit Zukunft und unterschiedliche Methoden der Vorausschau beschrieben. Dabei liegt der Fokus auf den zeitlichen Voraussetzungen für individuelle und kollektive Entwicklung von Zukunftsvorstellungen und für die demokratische Gestaltung von Zukunft. Im dritten Kapitel werden auf Basis naturwissenschaftlicher, medizinischer und psychologischer Quellen die zeitlichen Strukturen und Bedürfnisse des Menschen erläutert. Es wird dargestellt, wie diese bewusst und unbewusst auf Zeitvorstellungen und den Umgang mit Zeit und Zukunft einwirken. Der Bogen wird gespannt von der Naturzeit bis zu einer von Menschen in unterschiedlicher Form wahrgenommenen und gestalteten Zeit. Herausgearbeitet werden die negativen Folgen und die positiven Möglichkeiten unterschiedlicher Formen des Umgangs mit Zeit. Zugleich wird verdeutlicht, wie die Gestaltung von Zeit das Denken über Zukunft beeinflussen, ermöglichen oder blockieren kann. Im vierten Kapitel wird gezeigt, wie sich die gesellschaftliche Zeitorganisation und das Zeitbewusstsein historisch verändert haben, während Zukunftsvorstellungen und Zukunftsentwürfe sich gleichzeitig wandelten. Die historische Spanne reicht dabei von den handlungsorientierten Zeitvorstellungen primitiver Gesellschaften, über zyklische, naturnahe Zeitvorstellungen der Agrargesellschaften, bis zur Entstehung linearer Zeitvorstellungen in der Religion und weiter über die entwickelten linearen Zeitvorstellungen der bürgerlichen Gesellschaft hin zur fragmentierten oder digitalisierten Zeit der Gegenwart. Diese Entwicklung verläuft parallel zur Entwicklung der Zukunftsvorstellungen von einer klaren Handlungsorientierung, über Paradieseskonzeptionen und große gesellschaftliche Utopien, zu einer zunehmend individualisierten und verkürzten Vorstellung von Zukunft. Im Mittelpunkt der Analyse steht die enge Verbindung zwischen diesen beiden Elementen. Es wird betrachtet, wie auf frühere Phasen der Geschichte, in denen Zukunft in einem diesseitigen Sinn kaum eine Rolle spielte, Phasen folgen, in denen Zukunft als langfristige Gestaltung der Welt und des eigenen Lebens das Denken der Menschen präge, während heute die kurzfristige Gestaltung des individuellen Lebens im Vordergrund steht. In einem kurzen Schlusskapitel werden zwei zentrale Ergebnisse formuliert: 1. Der Mensch ist in zeitlicher Sicht grundsätzlich abhängig von den Zeiten der Natur. Die Natur (die innere und die äußere) ist rhythmisch strukturiert und diese Rhythmen sind gekennzeichnet durch eine Vielfalt von Zeitformen und Bedürfnissen. Die Gesellschaft muss auf diese Vielfalt Rücksicht nehmen und sie in ihre Zeitorganisationsentscheidungen integrieren, um eine Balance von Stabilität und Flexibilität zu entwickeln. 2. Zeitvorstellungen und Zukunftsvorstellungen sind epochal unterschiedlich. Dabei prägt die jeweilige Zeitvorstellung zentral die Vorstellungen von Zukunft. Auch wenn heute immer mehrere Zeitvorstellungen nebeneinander existieren, die individuelle Wahl- und Orientierungsentscheidungen ermöglichen, gibt es doch dominante Vorstellungen von Zeit und eine gesellschaftliche Ordnung der Zeit, die diese Optionsvielfalt wesentlich verringern. Abschließend werden kurze Hinweise auf einen zukunftsfähigen Umgang mit Zeit und Zukunft unter den Stichworten Zukunftsgestaltung, Zeitbrachen, Chillout, individuelle Reflexion und Zukunftsoffenheit gegeben.
Die Begrenzung der Beteiligungen von Einlagenkreditinstituten an Unternehmen außerhalb des Finanzsektors nach § 12 Abs. 1 KWG ist mit der Einführung des Begriffs der qualifizierten Beteiligung (§ 1 Abs. 15 KWG) durch das Vierte Finanzmarktförderungsgesetz1 neu geregelt worden, nachdem § 12 KWG bereits zuvor im Rahmen der 6. KWG-Novelle2 gänzlich umgestaltet wurde3. Bislang knüpfte die bankaufsichtsrechtliche Reglementierung von Unternehmensbeteiligungen an den Begriff der bedeutenden Beteiligung im Sinne von § 1 Abs. 9 KWG an. Da dieser Begriff zugleich Anknüpfungspunkt für die Regeln über die Anteilseignerkontrolle gemäß § 2b KWG ist und beiden Regelungsbereichen ein unterschiedlicher Normzweck zugrunde liegt, hat es der Gesetzgeber aus Gründen der Rechtsklarheit für erforderlich gehalten, den Begriff der qualifizierten Beteiligung einzuführen, um nicht völlig unterschiedliche Sachverhalte mit dem gleichen juristischen Term zu besetzen 4. § 2b KWG dient dazu, die an Instituten tatsächlich bestehenden Machtverhältnisse offenzulegen, um es der Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin) zu ermöglichen, etwaige Gefahren für die Funktionsfähigkeit von Instituten rechtzeitig abzuwehren5. Demgegenüber sollen durch die Begrenzung von Beteiligungen nach § 12 Abs. 1 und 2 KWG in erster Linie Ansteckungsrisiken reduziert werden6. Beteiligungen können die Solidität des beteiligten Unternehmens in Gefahr bringen, wenn das Beteiligungsunternehmen in finanzielle Schwierigkeiten gerät oder sogar insolvent wird. Für Einlagenkreditinstitute ist die Gefahr einer beteiligungsbedingten Ansteckung besonders hoch, da sie ihre Aktiva durch die Hereinnahme von Einlagen überwiegend fremd finanzieren7. Die bankaufsichtsrechtliche Beteiligungsreglementierung verdient vor dem Hintergrund ihrer neuen Fassung eine nähere Überprüfung. Bei der Untersuchung wird insbesondere der für die Begrenzung von Beteiligungen zentrale Begriff der qualifizierten Beteiligung nach 1 Abs. 15 KWG analysiert (dazu III.). Darüber hinaus werden die sonstigen Tatbestandsmerkmale des § 12 Abs. 1 KWG (dazu II. und IV.) sowie die Folgen der Überschreitung vorgegebener Beteiligungsbegrenzungen erörtert (dazu V.). Eine Beurteilung der Regulierung von Unternehmensbeteiligungen nach § 12 Abs. 1 KWG rundet den Beitrag ab.