Refine
Year of publication
- 2005 (1223) (remove)
Document Type
- Article (539)
- Doctoral Thesis (186)
- Part of Periodical (123)
- Review (108)
- Book (68)
- Part of a Book (57)
- Report (32)
- Working Paper (29)
- Conference Proceeding (25)
- diplomthesis (14)
Language
- German (1223) (remove)
Keywords
- Rezension (21)
- Deutsch (20)
- Deutschland (20)
- Frankfurt <Main> / Universität (20)
- Johann Wolfgang von Goethe (20)
- Biographie (15)
- Literatur (15)
- Vormärz (15)
- Frankfurt <Main> (14)
- Frankfurt (12)
Institute
- Medizin (112)
- Extern (49)
- Rechtswissenschaft (43)
- Präsidium (38)
- Biochemie und Chemie (31)
- Biowissenschaften (27)
- Neuere Philologien (25)
- Physik (25)
- Erziehungswissenschaften (24)
- Geschichtswissenschaften (23)
Zur Aktualität von Wagenscheins Schulkritik heute : das Wirklichkeits-Defizit im schulischen Lernen
(2005)
Die im Industriezeitalter und im globalen Mittel beobachtete Erwärmung der unteren Atmosphäre zeigt ausgeprägte regional-jahreszeitliche Besonderheiten (IPCC 2001, SCHÖNWIESE 2003, 2004). Dies gilt in noch höherem Maß für den Niederschlag (vgl. Kap. 3.1.2 und 3.1.8). Die Vermutung, dass eine solche Erwärmung zu einer Intensivierung des hydrologischen Zyklus führt, was im Prinzip zunächst richtig ist (vgl. Kap. 3.1.2), erweist sich jedoch als viel zu simpel, wenn daraus einfach auf eine generelle Niederschlagszunahme geschlossen wird. Dies gilt sogar innerhalb einer so kleinen Region wie Deutschland. Denn obwohl Deutschland im Mittel überproportional an der »globalen« Erwärmung teilnimmt (SCHÖNWIESE 2003, 2004), zeigen die Langzeitänderungen des Niederschlages im Detail ganz unterschiedliche Charakteristika. Dabei kann die hier vorgestellte Beschreibung der in Deutschland beobachteten Niederschlagtrends subregional noch wesentlich verfeinert werden, vgl. z.B. Analyse für Sachsen (FRANKE et al. 2004), da der Niederschlag eine nur geringe räumliche Repräsentanz aufweist (SCHÖNWIESE & RAPP 1997). Zeitliche Änderungen von Klimaelementen lassen sich nun in ganz unterschiedlicher Weise betrachten. Am meisten verbreitet sind lineare Trendberechnungen, wie sie auch einem Teil der hier vorliegenden Studie zugrunde liegen. Es können aber auch Trends anderer statistischer Kenngrößen als des Mittelwertes von Interesse sein, z.B. der Varianz. Häufigkeitsverteilungen, die in normierter Form Wahrscheinlichkeitsdichtefunktionen heißen, erlauben die Bestimmung solcher Kenngrößen in Form der Verteilungsparameter. Wird unter Nutzung geeigneter Verteilungen (z.B. Normal- oder Gumbelverteilung, vgl. unten Abb. 3.1.6-4) eine statistische Modellierung der jeweils betrachteten klimatologischen Zeitreihe vorgenommen, werden Aussagen über die Unter- bzw. Überschreitungswahrscheinlichkeiten bestimmter Schwellenwerte möglich, in verallgemeinerter Form für beliebige Schwellen und Zeiten (TRÖMEL 2004). Da dieser extremwertorientierte Aspekt von großer Wichtigkeit ist, soll auch ihm hier nachgegangen werden (vgl. alternativ Kap. 3.1.7 und 3.1.10). Die im Folgenden verwendeten Daten sind jeweils Monatssummen des Niederschlages 1901–2000 an 132 Stationen in Deutschland (teilweise unter Einbezug einiger Stationen in den angrenzenden Ländern), einschließlich der daraus abgeleiteten Flächenmittelwerte (sog. Rasterdaten; Quelle: Deutscher Wetterdienst, siehe u.a. MÜLLER-WESTERMEIER 2002; vgl. weiterhin RAPP & SCHÖNWIESE 1996, dort auch Hinweise zur Homogenitätsprüfung, sowie RAPP 2000).
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Ein weiterer medialer Wechsel vollzieht sich im Beitrag von Annette Becker, der dem Fernsehen, genauer: dem Fernsehinterview gilt. Anhand verschiedener Fernsehinterviews zum gleichen politischen Anlass wird gezeigt, dass und wie verschiedene Lesarten solcher Interviews mit linguistischen Mitteln greif- und analysierbar gemacht werden können.
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Manuel Gujber widmet sich einem vordergründig "sprachlosen" Gegenstand: der Architektur. Sein Interesse gilt dabei dem Spannungsverhältnis zwischen architektonischer Konstruktion und Oberfläche – der "Haut" des Hauses. So bietet die architektonische Oberfläche nicht nur fortwährend neue Möglichkeiten der Gestaltung sondern auch der Interpretation – Lesarten, in denen sich das Verhältnis zwischen "Haut" und "Haus" sowie von deren Wahrnehmung spiegelt.
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Thomas Küpper nimmt in seinem Beitrag das Kriterium der Wiederholungslektüre, das als Qualitäts- und Differenzmerkmal ästhetisch anspruchsvoller Literatur gilt, zum Anlass, die Grenzziehung zwischen Kitsch und Kunst genauer zu überdenken. Nicht die Wiederholungslektüre an sich macht bereits den Unterschied, vielmehr muss eine Unterscheidung zwischen verschiedenen Formen der Wiederholungslektüre getroffen werden. In systemtheoretischer Perspektive lässt sich eine solche typologische Differenzierung anhand des je spezifischen Verhältnisses von Medium, d.h. hier: der Gattungen, und der Form, d.h. der Texte, präzise vornehmen. Trivialliteratur unterscheidet sich dann von der Kunst, insofern ihre Medien der eigentlichen Formrealisierung nur wenig Spielraum lassen: Nicht die Abweichung, sondern die Bestätigung der gegebenen Schemata wird honoriert. Auch der Kitsch bietet Variationen des Bekannten, doch – und hier nähert er sich der Kunst an – die vertrauten und wiederholten Muster werden als einmalige und besondere Formen von bleibendem Wert inszeniert. Am Beispiel des Kultfilms "Pretty Woman" spielt Thomas Küpper diese unterschiedlichen Lektüren durch und zeigt an diesem vermeintlich eindeutig trivialen Fall, dass sich die Faszination des Films den vielen Wiederholungen verdankt.
Im wohl spektakulärsten Wirtschaftsstrafverfahren der deutschen Nachkriegsgeschichte, dem "Mannesmann-Prozeß", ging und geht es neben Barabfindungen von Versorgungsleistungen vor allem um die Zulässigkeit von Anerkennungsprämien für ausscheidende und bereits ausgeschiedene Vorstandsmitglieder. Das Verfahren vor der Wirtschaftsstrafkammer des Landgerichts Düsseldorf war nicht nur in den Medien, sondern auch in der aktien- und strafrechtlichen Literatur mit lebhaftem Interesse verfolgt worden. Nach sechsmonatiger Hauptverhandlung endete es zwar mit Freisprüchen für alle Angeklagten, aber auch mit dem Vorwurf gewichtiger Verstöße gegen das Aktienrecht. Das Urteil der Strafkammer ist gleichfalls bereits mehrfach in der wissenschaftlichen Literatur unter verschiedenen Gesichtspunkten ausführlich gewürdigt worden. Ein Ende der Diskussion ist noch nicht abzusehen, da gegen das Urteil Revision beim Bundesgerichtshof eingelegt worden ist. Die folgenden Bemerkungen befassen sich mit einem aktienrechtlichen Teilaspekt, der Zulässigkeit nachträglicher, im ursprünglichen Anstellungsvertrag eines Vorstandsmitglieds nicht vorgesehener Anerkennungsprämien.
Die zu erwartende vorzeitige Auflösung des Bundestages wird wohl dazu führen, daß der derzeit dem Parlament vorliegende Entwurf eines Gesetzes über die Offenlegung der Vorstandsvergütungen nicht mehr verabschiedet wird. Das bietet die Gelegenheit, die diesem Entwurf und dem in den Bundestag eingebrachten Entwurf der FDP-Fraktion zugrundeliegende Grundkonzeption darzustellen und im Hinblick auf eine spätere Gesetzgebung zu prüfen, ob die Entwürfe ihren Zielen gerecht werden (dazu unter II.). Zu erwägen ist überdies grundsätzlich, ob eine detaillierte gesetzliche Regelung zur Offenlegung der Vorstandsvergütungen anzuraten, oder ob es, wie vielfach vorgeschlagen, beim bisherigen Rechtszustand verbleiben sollte, wonach die gesetzliche Pflicht zu den pauschalen Vergütungsangaben gemäß §§ 285 Nr. 9, 314 Abs. 1 Nr. 6 HGB ergänzt wird durch die Empfehlung des Deutschen Corporate Governance Kodex (Ziff. 4.2.4 DCGK), in börsennotierten Gesellschaften die Vorstandsvergütungen individuell auszuweisen (dazu unten III.).
An die Signalübertragung im ZNS werden in bestimmten Entwicklungsstadien sehr unterschiedliche Anforderungen gestellt. Im adulten Gehirn dient sie nicht nur der Nachrichtenübermittlung, sondern auch der aktivitätsbasierten Umgestaltung neuronaler Verbindungen bei Lernprozessen und der regenerativen Umgestaltung nach Verletzungen. Im sich entwickelnden Gehirn werden schon frühzeitig Nervenzellen elektrisch erregbar und spontan aktiv. Diese elektrische Aktivität und die dadurch verursachte Transmitterausschüttung spielen bei der selektiven Stabilisierung von Synapsen und damit bei der Ausgestaltung des neuronalen Netzwerks eine große Rolle. Im ZNS von Vertebraten beruht die Wirkung des Neurotransmitters und Neuromodulators Acetylcholin auf den nikotinischen und muskarinischen Acetylcholinrezeptoren. Muskarinische Acetylcholinrezeptoren (mAChRen) koppeln, abhängig von den fünf identifizierten Rezeptorsubtypen (M1- M5), an unterschiedliche intrazelluläre Signalketten an. Dabei interagieren für gewöhnlich die M1, M3 und M5 Rezeptoren mit einem G-Protein des Typs Gq/11, während M2 und M4 ein G-Protein des Typs Gi/o aktivieren. Der Colliculus inferior (IC) ist eine wichtige Verschaltungsstation im auditorischen Mittelhirn von Säugetieren. Inhibitorische und exzitatorische Eingänge werden dort während der Entwicklung mit großer Präzision angelegt und konvergieren auf einzelne ICNeurone. Die physiologische Bedeutung von mAChRen im IC ist weitgehend unerforscht und die Subtypen die im juvenilen IC eine Rolle spielen wurden noch nicht charakterisiert. Es war das Ziel der vorliegenden Arbeit mittels elektrophysiologischer Untersuchungen im IC der juvenilen Ratte (P5-P12) folgende Fragen zu klären: i) Gibt es im IC der jungen Ratte eine Modulation der GABAergen Transmission durch muskarinische Acetylcholinrezeptoren? ii) Welcher muskarinische Rezeptorsubtyp spielt dabei eine Rolle? iii) Welcher intrazelluläre Signalmechanismus ist der Aktivierung des muskarinischen Acetylcholinrezeptors nachgeschaltet? Unter Wirkung von Muskarin kam es bei 41,2% der untersuchten Neurone des Colliculus inferior zu einer Erhöhung der Frequenz der spontanen IPSCs. Die sIPSCs wurden durch Bicucullin blockiert, somit handelt es sich um GABAerge IPSCs. Die Wirkung von Muskarin nahm zu, wenn die Tiere älter als 9 Tage waren. Es wurde gezeigt, dass nAChRen keine Rolle spielen bei der Erhöhung der sIPSC-Frequenz, während eine selektive Blockade der M3-(M5-) mAChRen durch 4-DAMP die Muskarinwirkung blockierte. In der Regel sind die M3-Rezeptoren über folgende Signalkaskade aktiv: Phospholipase C, Kalzium-Calmodulin, NO-Synthase, Guanylatzyklase, die NO-Konzentration und cGMP. Alle Glieder dieser Kaskade wurden untersucht, sie hatten aber keinen Einfluss auf die Muskarinwirkung. Im Gegensatz dazu führte die Erhöhung des intrazellulären cAMP-Spiegels zu einer vergleichbaren Frequenzsteigerung der sIPSCs wie sie unter der Wirkung von Muskarin gemessen wurde. Weiterhin ließ sich die Erhöhung der sIPSC-Frequenz durch Muskarin vollständig aufheben, wenn die intrazelluläre Adenylatzyklase blockiert wurde. Es ist bekannt, dass der M3-(M5-) mAChR über verschiedenste Signalwege den intrazellulären cAMP-Spiegel verringern oder erhöhen kann und dass die Spezifizierung des Rezeptors vom Grad der Rezeptorexpression, dem Zelltyp und der Kombination der Effektormoleküle abhängig ist. Die Abweichung der juvenilen Kaskade vom im erwachsenen Tier üblichen Signalweg hat dabei den Vorteil, dass eine Aufgabentrennung zwischen Netzwerkbildung und Synapsenstabilisierung einerseits und Signalweiterleitung andererseits erfolgt. Beim juvenilen Tier steht die Netzwerkbildung im Vordergrund, beim erwachsenen Tier wird die Signalweiterleitung moduliert. Der sekundäre Botenstoff NO, der weit diffundieren kann, spielt beim juvenilen Signalweg keine Rolle und dies ermöglicht eine klare Trennung der aktivierten von den umgebenden Synapsen. Dadurch wird eine starke Selektion innerhalb der vorhandenen Synapsen ermöglicht und eine aktivitätsbasierte Netzwerkbildung vereinfacht. Die Etablierung funktioneller GABAerger Synapsen ist ausschlaggebend für die Entwicklung des neuronalen Netzwerks. Innerhalb der ersten postnatalen Wochen führt die Aktivierung von GABAA-Rezeptoren zur Depolarisierung der IC-Neurone und zu einer Erhöhung der intrazellulären Ca2+-Konzentration. Acetylcholin potenziert also letztlich den GABA-aktivierten Einstrom von Ca2+ und führt damit zur Erhöhung der intrazellulären Ca2+ Konzentration im postsynaptischen Neuron des IC. Diese modulatorische Wirkung von Acetylcholin könnten damit eine wichtige Rolle bei der Entwicklung und Stabilisierung von inhibitorischen Synapsen im sich entwickelnden IC der Ratte spielen.
Die Verbriefung des Cash Flows eines Unternehmens ist eine in Großbritannien bekannte und etablierte Form der Unternehmensfinanzierung. In Deutschland hat es bisher erst zwei Transaktionen dieser Art gegeben. Die Gründe hierfür liegen in den unterschiedlichen rechtlichen Systemen und den unterschiedlichen Möglichkeiten der Darlehensbesicherung. Dieser Aufsatz beschreibt die diesbezüglichen wesentlichen Unterschiede und stellt Strukturen vor, mit denen auch im deutschen Rechtskreis entsprechende Transaktionen umgesetzt werden können.
This paper makes an attempt to present the economics of credit securitization in a non-technical way, starting from the description and the analysis of a typical securitization transaction. The paper sketches a theoretical explanation for why tranching, or nonproportional risk sharing, which is at the heart of securitization transactions, may allow commercial banks to maximize their shareholder value. However, the analysis makes also clear that the conditions under which credit securitization enhances welfare, are fairly restrictive, and require not only an active role of the banking supervisiory authorities, but also a price tag on the implicit insurance currently provided by the lender of last resort. Klassifikation: D82, G21, D74. February 16, 2005.
Franz Th. Schuett hat ein umfangreiches und eigenstaendiges Werk geschaffen. Er kopierte keinen Kuenstler und blieb sich treu. Er war nicht innovativ, aber in seinem Rahmen war er wandlungsfaehig. Trotz aller positiver und kulturell stimulierenden Einfluessen und namhafter Lehrer in den Anfangsjahren, blieb bei ihm die Kreativitaet, sicherlich auch wegen Flucht und Vertreibung, auf der Strecke.Es gibt Anlehnungen im Fruehwerk an den veristischen Fluegel der Neuen Sachlichkeit. Motivisch war er nicht so praegnant wie seine Vorbilder Dix, Schlichter und Grosz. In der Strichfuehrung im Fruehwerk aehnelte er George Grosz. Er arbeitete zeitgemaess. In den Kriegsjahren bzw. bis 1947 erarbeitete er sich die Aquarelltechnik. Es entstanden stimmungsvolle Landschaftsbilder. Es stellte sich heraus, das unkontrollierbare der Technik lag ihm nicht, er war und blieb Zeichner. In den 50er Jahren probierte er verschiedene Zeichenmethoden. Ab 1954 bis 1959 versuchte er noch einmal einen Anlauf mit dem Kolorit und es entstanden stark farbige Temperablaetter, die neben realistischen Bildentwuerfen auch surreale Szenen beinhalteten. Erst in den 60er Jahren fand er wieder zu einer zeitgenössischen Ausdruckskraft. Er setzte nun seit den 30er Jahren erstmals wieder seine Motive in Oeltechnik um. Von 1938 bis 1960 musste er erneut einen zeitgenössischen Ausdruck entwickeln. Die allgemein vielfaeltigen realistischen Kunstrichtungen ab den 60er Jahren verhalfen seinem leicht sozialkritischen Realismus zum Durchbruch. Die nun beginnenden haeufigen Ausstellungen --ob Einzel- oder Beteiligungen – zeigten, dass er sich in der regionalen Kunstszene durchsetzte. Dieser Erfolg hielt bis zu seinem Lebensende 1990 an. In den 70er Jahren produzierte er weniger Bildwerke, aber in keinem Jahrzehnt nahm er an so vielen Ausstellungen teil. Es entstanden nun vermehrt Landschaften und er machte sich Gedanken zur Umweltproblematik. Er entwarf einiger Bilder zu dieser Thematik. Auch besann er sich auf fruehere Motive. Diese Rueckgriffe wurden aber weiter durchdacht. In den 80er Jahren entstanden weitflaechige, grosszuegige und von warmem Licht umhuellte Landschaften, die an Hopper erinnern können. Im Gegensatz zu frueheren Arbeiten hatte er endlich die kleinteiligen Strukturen und Dekors abgelegt und sich in diesem Jahrzehnt zum ersten Mal mit dem Licht und seinen Reflexen auseinandergesetzt. Er öffnete den Hintergrund in diesen Landschaften. In frueheren Perioden war selbst bei panorama-artigen Komposition der Landschaft der Bildhintergrund verriegelt. Die Arbeiten wirkten spröde, da er die Landschaft als Struktur oder Ornament sah. Die Bestaetigung seiner Arbeiten, die er in seinen letzten Jahren erfahren hatte, lenkte ihn zu solch harmonischen Oelbildern. Das Motiv der Dirnen -- seine frivolen Maedchen -- durchzieht sein gesamtes Werk. In der Art, wie er sie darstellte in seiner Formsprache, in ihrer Ueppigkeit und ihrer unbeschwerten Ausstrahlung, waren sie seine Bildschöpfung. Auch sie waren in den einzelnen Werkperioden einer Entwicklung unterlegen. Zu Anfang schienen sie unbeschwert und in den 60er und 70er Jahren stellte er sie dann dick, feist und mit bösem Gesichtsausdruck dar. In den 70ern reizte ihn das Motiv weniger, da er seine Damen nun aelter werden liess. Die Gesichter wurden verschlossener und abweisender abgebildet und Mitte der 70er Jahre wichen sie den Puppendarstellungen. Sein Realismus war keine beissende Anklage, keine vordergruendige, eher eine unterschwellige Kritik. Er kritisierte die Eitelkeit und Ruecksichtslosigkeit der Menschen. Er dachte und fuehlte mit den Schwaecheren unserer Gesellschaft. In vielen Arbeiten lag ein melancholischer Tenor, sodass er beim Betrachter Mitleid fuer die gezeigten Verhaeltnisse erweckte. So erweist sich Schuett als Nachfahre der Spaetexpressionisten, die ihre Kunst als ein aufklaerendes Medium verstanden. Schuett war zu Lebzeiten kein verschollener oder vergessener Kuenstler. Aber nachdem ein Grossteil seines Werkes in den Depots der Museen liegt, droht seinem Werk und damit ihm die Vergessenheit. Vielleicht kann diese Aufarbeitung des Werkes von Franz Th. Schuett den musealen Institutionen Anlass sein, ihm wieder -- vielleicht zu seinem 100. Geburtstag im Jahre 2008 -- eine Wuerdigung erfahren zu lassen.
Im Kapitel 1 "Einleitung" wird aufgezeigt, wie die rasante technologische Entwicklung der Mikroelektronik nicht nur die Mikroskopie vorantreibt, sondern auch anderen, neuen Verfahren, wie z. B. dem Laser Scanning Mikroskop, zum Durchbruch verhilft. Damit verbunden ist ein Bedarf an neuen, geeigneten Messverfahren. Dazu stellt diese Arbeit ein neues, im Rahmen einer linearen Näherung arbeitendes, dreidimensionales Messverfahren vor, und demonstriert es am Beispiel des Lichtmikroskops im Hellfelddurchlichtbetrieb, wobei hier die 3. Dimension durch die Aufnahme einer Fokusserie entsteht. Im Kapitel 2 "Modellbildung" wird zuerst ein detailliertes, physikalisches Modell des experimentellen Aufbaus gebildet, um darauf aufbauend ein dreidimensionales, system-theoretisches Modell anzufertigen, anhand dessen das neue Messverfahren erarbeitet werden kann. Dabei wird auch die Berechnung der dreidimensionalen Übertragungsfunktionen des Lichtmikroskops für die drei Fälle absorbierende Objekte, Phasenobjekte und transparente Selbstleuchter beschrieben. Innerhalb des Kapitels 3 "Messverfahren" werden im Kapitel 3.1 zunächst die bekannten Verfahren skizziert. Anschließend, dies ist der Kern der Arbeit, wird im Kapitel 3.2 das neue Messverfahren beschrieben. Es verwendet als Anregung zweidimensionales Rauschen, hier ein Rauschen um eine Ebene senkrecht zur optischen Achse. Das Verfahren wird zunächst für absorbierende Objekte, anschließend auch für Phasenobjekte ausgearbeitet, und dabei experimentell demonstriert. Von zentraler Beutung ist, dass das neue Messverfahren in der Lage ist, auch die Phase der dreidimensionalen Übertragungsfunktion aus den Bildern der Rauschanregung zu berechnen, falls die Übertragung durch die Aufnahmeeinheit gewisse, häufig bei einem vernachlässigbaren Fehler vorliegende, Symmetrieeigenschaften besitzt. Es werden verschiedene Fälle von Symmetrieeigenschaften berücksichtigt, um unterschiedliche experimentelle Gegebenheiten und die drei Fälle absorbierende Objekte, Phasenobjekte und transparente Selbstleuchter abzudecken. Das Kapitel 4 "Messungen" vergleicht die mit dem neuen Messverfahren, mit einem bekannten Messverfahren und durch Berechnung ermittelten Übertragungseigenschaften auch bei Modifikationen des Strahlengangs durch Einfügen von Zentralblenden in die Pupille des Objektivs und in die Pupille des Kondensors. Die auf unterschiedlichen Wegen ermittelten Übertragungseigenschaften werden miteinander verglichen. Der Vergleich veranschaulicht die Leistungsfähigkeit des neuen Messverfahrens. Das Kapitel 5 "Die Bildgewinnung" stellt verschiedene, mehr oder weniger bekannte Ansätze zur Nutzung des vorgestellten Messverfahrens zusammen, darunter vor allem auch die Wiener-Inversfilterung.
Vortrag gehalten am 12. Januar 2005 in Frankfurt am Main, am Physikalischen Verein, anläßlich der Verleihung des Philipp-Siedler-Wissenschaftspreises an Dipl.-Phys. Christine Meurer, als Anerkennung für ihre Diplomarbeit "Xi- und Xi+ Produktion in Pb+Pb Stößen bei 40 A GeV am CERN SPS" (urn:nbn:de:hebis:30-13740). Am CERN, dem Europäischen Kernforschungszentrum, werden Bleiatomkerne auf nahezu Lichtgeschwindigkeit beschleunigt und zur Kollision gebracht. Dabei wird die Materie in einer Art Feuerball extrem verdichtet und erhitzt. Unter diesen Bedingungen brechen die Bestandteile der Atomkerne, die Nukleonen, auf und der Blick auf die eigentlichen Bausteine der Materie, die Quarks, wird möglich. Nach der Kollision expandiert der Feuerball und viele neue Teilchen, darunter auch die sogenannten seltsamen Teilchen, entstehen. Ihre Besonderheiten werden im Vortrag diskutiert: Ergebnisse zur Produktion des seltsamen Xi- -Teilchens in Pb+Pb-Stößen bei einer Energie von 40 A GeV werden vorgestellt. Aus dem transversalen Massenspektrum bei mittlerer Rapidität erhält man einen inversen Steigungsparamenter von T Xi- = (210±11±21)MeV . Die Integration des Rapiditätsspektrums liefert eine totale Anzahl der s im gesamten Phasenraum von (2.41 ± 0.15 ± 0.24) Teilchen pro Kollision. Desweiteren wird die Anregungsfunktion des Xi- -Hyperons sowie seine Zentralitätsabhänigkeit bei 40 A GeV diskutiert.
„Bedeutende Finanzplätze“ oder Finanzzentren sind eng abgegrenzte Orte mit einer beträchtlichen Konzentration wichtiger professioneller Aktivitäten aus dem Finanzdienstleistungsbereich und der entsprechenden Institutionen. Allerdings: „Finance is a footloose industry“: Die Finanzbranche kann abwandern, ein Finanzzentrum kann sich verlagern, möglicherweise auch einfach auflösen. Die Möglichkeit der Auflösung und der Abwanderung stellt eine Bedrohung dar, die in der Zeit der Globalisierung und der rasanten Fortschritte der Transport- und der Informations- und Kommunikationstechnik ausgeprägter sein dürfte, als sie je war. Frankfurt ist zweifellos ein „bedeutender Finanzplatz“, und manchen gilt er auch als bedroht. Allein deshalb ist unser Thema wichtig; und auch wenn die Einschätzungen von Bedeutung und Bedrohtheit keineswegs neu sind, ist es doch aktuell. Der Aspekt der Bedrohtheit prägt, wie wir die Frage im Titel verstehen und diskutieren möchten. Was ist ein „bedeutender Finanzplatz“? Selbst wenn man das Attribut „bedeutend“ erst einmal beiseite lässt, ist die Frage keineswegs trivial. Sie zielt ja nicht nur auf eine Begriffsklärung, eine Sprachregelung ab. Hinter dem Begriff steht oft auch eine Vorstellung vom „Wesen“ dessen, was ein Begriff bezeichnet. Also: Was macht einen Finanzplatz aus? Und weiter: Warum gibt es überhaupt Finanzplätze als beträchtliche Konzentrationen von bestimmten wichtigen Aktivitäten und Institutionen? Welche Kräfte führen - oder zumindest führten - zu der räumlichen Konzentration der Aktivitäten und Institutionen, wie wirken diese Kräfte, und wie ändern sie sich gegebenenfalls? Diesen Fragen ist dieser Beitrag im Wesentlichen gewidmet, und sie prägen seinen Aufbau. Im Abschnitt II wird diskutiert, was ein „bedeutender Finanzplatz“ ist oder woran man ihn erkennt und „was er braucht“. Im Abschnitt III gehen wir zuerst auf die Frage nach der in letzter Zeit unter dem Stichwort „the end of geography“ heftig diskutierten Vorstellung einer Auflösung oder Virtualisierung der Finanzplätze ein – nicht weil dies die wichtigere Bedrohung wäre, sondern weil es die grundlegendere Frage darstellt. Dann diskutieren wir den Wettbewerb von Finanzplätzen in Europa. Den Abschluss bilden Überlegungen zu den Perspektiven des Finanzplatzes Frankfurt und der möglichen Förderung seiner Entwicklung.
Ein gentherapeutischer Ansatz für die Behandlung der HIV-Infektion ist die "intrazelluläre Immunisierung" von CD4+-Zellen die den Hauptangriffspunkt des HI-Virus darstellen. Potentiell therapeutische Gene zur Hemmung der HIV-Replikation sind in großer Zahl und für praktisch jeden schritt des Replikationszyklus des Virus publiziert. Ein Problem war allerdings bisher das Fehlen eines einheitlichen und reproduzierbaren Vergleichssystems zur Identifizierung erfolgversprechender Gene für Studien im Tiermodell und in der Klinik. In dieser Arbeit wurde ein solches auf die Gentherapie abgestimmtes Zellkultursystem entwickelt, das auf stabilem Transfer von HIV-inhibitorischen Genen durch retrovirale Transduktion von T-Zellen und Belastungsversuchen mit replikationsfähigen Viren beruht. Dazu wurden auf Basis der humanen T-Zellinie PM1 Zellinien etabliert, die das Markergen egfp sowie ein therapeutisches Gen stabil exprimieren. Für den Gentransfer wurden [MLV(GaLV)]-Vektoren verwendet, die sich für die Transduktion von hämatopoetischen Zellen besonders eignen. Mit Hilfe der etablierten HIV-inhibitorischen Gene RevM10 und STHM (membrangebundenes T20) wurden Methoden zur Generierung dieser stabilen Zellinien optimiert. Um eine höchstmögliche Vergleichbarkeit zu erreichen, müssen die Voraussetzungen für eine HIV-Replikation in allen Zellinien in gleicher Weise gegeben sein. Deshalb wurden Zellinien bei mit praktisch gleicher Zellteilungsrate und HIV-Rezeptorexpression etabliert. Die untrschiedliche Hemmwirkung der Kontrollgene konnte so in Belastungsexperimenten mit drei verschiedenen, repräsentativen HIV-1-Laborstämmen reproduzierbar gezeigt werden. Das erarbeitete Zellkultursystem wurde dann zur Evaluierung verschiedener Gene eingesetzt. Zunächst wurden zwei neue Ansätze für die HIV-Gentherapie getestet. Die hohe Wirksamkeit von APOBEC3Gagm gegen HIV-1, die zuvor in einem "single-round"-Infektionssystem gezeigt worden war, konnte bestätigt werden. Der Versuch, das als natürlicher HIV-Inhibitor in humanem Hämofiltrat gefundene Peptild VIRIP auf der Zelloberfläche zu exprimieren, bewirkte hingegen keine HIV-Hemmung. Zusätzlich wurden mehrere potentiell therapeutische Gene getestet, die von Kooperationspartnern im Rahmen eines HIV-Netzwerkes entwickelt worden waren. Für die humanisierte transdominant-negative Gag-Mutante TDsg Delta 2 konnte eine HIV-Hemmwirkung nachgewiesen werden, während weder die Wildtyp-Mutante TDwt Delta 2 noch das minimale GAG-Fragment L2GAL2-V3 eine signifikante Wirkung zeigten. Für die beiden HIV-1 p6-Konstrukte L4 und L6 war eine HIV-Hemmung ebensowenig wie für die gp41 c-tail-Konstrukte 9/1 und 9/2 feststellbar. In weiteren Versuchen konnte gezeigt werden, daß sich die Hemmwirkung der unterschiedlichen Gene gegen HIV-1-Primärisolate im wesentlichen der gegen die Laborstämme entspricht. Nach Infektion der Zellinien mit HIV-2 wurde wie erwartet die Virusreplikation nur durch STHM und TDsg Delta 2 gehemmt. Schließlich wurde getestet, ob sich die Hemmeffekte auch in primären humanen Lymphozyten nachvollziehen lassen. Obwohl aufgrund der in diesen Zellen niedrigen erreichbaren Transduktionseffizienzen und einer starken Donorabhängigkeit keine Standardisierung möglich war, konnte gezeigt werden, daß es prinzipiell möglich ist, Hemmeffekte sichtbar zu machen.
Der Beitrag greift zwei recht kontaktsensitive und dennoch wenig erforschte sprachlichkommunikative Sonderbereiche auf, und zwar die Verwendung von (a) Eigennamen und von (b) Schelt- bzw. Schimpfausdrücken sowie Flüchen. All diese Phänomene sind offenbar universale Komponenten von Sprachen (vgl. auch Haspelmath 2002: 277; Geier-Leisch 1998: 7 f.). An diesem empirischen Material will der Beitrag im Einzelnen ermitteln, wie Kontaktund Interaktionsphänomene in gemischtsprachigen Diskursen unter Bedingungen einer transkulturellen Mehrsprachigkeit auftreten, wobei ihre Realisationsstrukturen, -typen und -klassen erschlossen sowie ihr Funktionieren hinterfragt werden. Letzten Endes soll anhand der Auseinandersetzung mit einer vitalen und hochkomplexen Kontaktsituation von Sprachen bzw. Varietäten der sprachkommunikative Umgang mit Eigennamen und Sonderlexik aus der Perspektive der deutschen Sprache im Kräftefeld zwischen typologischer Tradition und sukzessiver Innovation beschrieben werden, um damit gleichzeitig relevante Bausteine zur Modellierung des Kontaktprozesses zu erarbeiten.