Refine
Year of publication
- 2005 (1223) (remove)
Document Type
- Article (539)
- Doctoral Thesis (186)
- Part of Periodical (123)
- Review (108)
- Book (68)
- Part of a Book (57)
- Report (32)
- Working Paper (29)
- Conference Proceeding (25)
- diplomthesis (14)
Language
- German (1223) (remove)
Keywords
- Rezension (21)
- Deutsch (20)
- Deutschland (20)
- Frankfurt <Main> / Universität (20)
- Johann Wolfgang von Goethe (20)
- Biographie (15)
- Literatur (15)
- Vormärz (15)
- Frankfurt <Main> (14)
- Frankfurt (12)
Institute
- Medizin (112)
- Extern (49)
- Rechtswissenschaft (43)
- Präsidium (38)
- Biochemie und Chemie (31)
- Biowissenschaften (27)
- Neuere Philologien (25)
- Physik (25)
- Erziehungswissenschaften (24)
- Geschichtswissenschaften (23)
Das Hormon Erythropoetin (EPO) ist ein hitzestabiles Glykoprotein, welches als wesentlicher Wachstumsfaktor an der Erythropoese beteiligt ist. EPO wird sauerstoffabhängig in Leber und Niere synthetisiert. Da EPO in Zellen nicht gespeichert wird, ist seine Sekretionsrate durch die Syntheserate bestimmt. Unter Hypoxie wird über einen hypoxieinduzierbaren Faktor (HIF-1) die Transkription des EPO-Gens angeregt. Mycophenolat Mofetil (MMF) wird erfolgreich bei transplantierten Patienten als Immunsuppressivum eingesetzt. MMF ist ein nichtkompetitiver, reversibler Hemmer der Inosinmonophosphatdehydrogenase (IMPDH), die essentiell für die de novo Purinsynthese in Lymphozyten ist. MMF soll selektiv antiproliferativ auf Lymphozyten wirken, ohne einen unspezifischen knochenmarkdepressiven Effekt zu haben. Trotzdem wurden bei bis zu 15% der nierentransplantierten und nahezu der Hälfte aller herztransplantierten Patienten unter immunsuppressiver Therapie mit MMF Anämien beschrieben. Die Genese dieser Anämien ist noch unklar und könnte durch eine reduzierte EPO-Produktion unter MMF bedingt sein. In dieser Untersuchung wird deshalb der Effekt von MMF auf die EPO-Freisetzung aus HepG2-Zellen in vitro analysiert. HepG2 und Hep3B Zellen sind ein etabliertes Zellkulturmodell zur Untersuchung der Regulierung hypoxieabhängiger EPO-Sekretion. MMF vermindert zeit- und konzentrationsabhängig die mittels ELISA gemessene EPO-Konzentration im Zellüberstand von HepG2-Zellen – im Mittel etwa auf die Hälfte des Ausgangswertes (p < 0, 001). Dieser Effekt ist signifikant ab einer Konzentration von 0,1 µM MMF und maximal bei 5 µM MMF. Eine signifikante Inhibition der EPO-Sekretion war erst nach 48stündiger Inkubation mit MMF nachweisbar. Unspezifische Effekte auf Proliferation und Proteinsynthese sowie zytotoxische Effekte wurden mittels verschiedener unabhängiger Methoden weitgehend ausgeschlossen. Der Effekt von MMF auf die EPO-Sekretion konnte durch Zugabe von Guanosin aufgehoben werden, was für eine kausale Rolle der IMPDH in diesem Zusammenhang spricht. Analog zu der sezernierten EPO-Menge verminderte sich auch die Menge der gebildeten EPO-mRNA unter MMF. Zudem ist die Aktivität von HIF-1 unter MMF gemindert. Im Gegensatz zu MMF zeigen andere Immunsuppressiva wie der Purinsynthesehemmer Azathioprin und die Calcineurininhibitoren Cyclosporin A und Tacrolimus keinen spezifischen Effekt auf die EPO-Freisetzung von HepG2-Zellen. Die Ergebnisse weisen darauf hin, daß die Minderung der EPO-Sekretion im Zellkulturmodell ein Erklärungsansatz für die beobachteten Anämien unter MMF sein könnte. Eine Therapie der Anämie mittels EPO-Substitution erscheint daher sinnvoll.
Die wissenschaftliche Praxis des Sachunterrichts ist von der Praxis des schulischen Sachunterrichts systematisch unterscheidbar. Der wissenschaftliche Sachunterricht und seine Didaktik besteht als ein eigenständiger Diskurs, der sich nicht aus einer Zusammensetzung der verschiedenen Fachwissenschaften und deren Didaktiken begründet. Er hat die Aufgabe den Bildungsauftrag des Sachunterrichts in Schule und Universität zu bestimmten. Der wissenschaftliche Diskurs des Sachunterrichts bewegt sich im Kontext der diskursiven Zusammenhänge über Kind, Sache und Welt. ...
In der vorliegenden Arbeit wird die Photodoppelionisation (PDI) von Helium (He) experimentell untersucht. Dazu wurde an der Synchrotronstrahlenquelle Advanced Light Source des Lawrence Berkeley National Laboratory (USA) der vollständig differentielle Wirkungsquerschnitt (FDCS) der PDI von He mit linear sowie mit links und rechts zirkular polarisiertem Licht bei den zwei Photon-Energien E_gamma = 179 eV und 529 eV gemessen. Dabei gelang erstmals eine Messung, bei der die Kontinuumsenergie der Fragmente wesentlich über der Bindungsenergie (79 eV) des Systems liegt. Aufgrund dieser hohen Energie lassen die gemessenen Winkel- und Energieverteilungen erstmals Rückschlüsse auf die Wechselwirkungsprozesse in der Ionisation zu. In allen bisherigen Messungen bei niedrigen Photon-Energien überdeckt der Einfluß der Elektron-Elektron-Wechselwirkung im Endzustand alle Spuren der seit langem theoretisch diskutierten Reaktionsmechanismen. Der FDCS der PDI von He wurde mit einer COLTRIMS (COLd Target Recoil Ion Momentum Spectroscopy)-Apparatur gemessen. Hierbei wird das Gastarget durch eine adiabatische Expansion gekühlt und dann mit dem Photon-Strahl zum Überlapp gebracht. Die bei einer Reaktion freigesetzten Elektronen, deren Summenenergie sich zu E_sum = E_1 + E_2 = E_gamma - 79 eV berechnet (die Summenenergie der beiden Elektronen ist gleich der Überschußenergie E_exc), werden mit einer Energie bis zu E_1,2 = 60 eV durch ein elektrisches und magnetisches Feld im vollen Raumwinkel von 4 pi auf einem großen ortssensitiven Detektor abgebildet. Das elektrische Feld projiziert die kalten Rückstoßionen auf einen zweiten ortssensitiven Detektor. Aus der Flugzeit und dem Auftreffort werden der Ladungszustand und der Impuls der Teilchen ermittelt. Ergebnisse: Die Energieaufteilung auf die beiden Elektronen erfolgt asymmetrisch. Diese Asymmetrie ist bei der PDI 450 eV über der Doppelionisationsschwelle (79 eV) stärker ausgeprägt als bei E_exc = 100 eV. Langsame Elektronen werden generell isotrop zur Polarisation emittiert (beta = 0), während die 100 eV-Elektronen einen Anisotropie-Parameter von beta = 1,7 und die sehr schnellen 450 eV-Elektronen sogar eine Dipolverteilung (beta = 2) bzgl. der Polarisationsachse aufweisen. Eine asymmetrische Energieaufteilung zusammen mit einem Anisotropie-Parameter von beta = 2 für die 450 eV-Elektronen zeigt, daß bei der PDI 450 eV über der Schwelle ein Zwei-Stufen-Prozeß vorliegt, in dem das erste Elektron die Energie und den Drehimpuls des Photons aufnimmt. Das zweite Elektron gelangt dann durch den Shake-off oder den Two-Step-One-Mechanismus ins Kontinuum. Sowohl die Häufigkeitsverteilung der Zwischenwinkel der Elektronen als auch der Verlauf der Quadrate der geraden und der ungeraden Amplituden bei der PDI 450 eV über der Schwelle zeigen, daß sehr langsame Elektronen (2 eV) hauptsächlich durch den Shake-off-Mechanismus ins Kontinuum gelangen, während etwas schnellere 30 eV-Elektronen ihre Energie über einen (e,2e)-Stoß (Two-Step-One-Mechanismus) erhalten. Für 100 eV über der Schwelle zeigt sich, daß der Relativimpulsvektor der beiden Elektronen parallel zum Polarisationsvektor steht. Das bedeutet, daß die PDI von He 100 eV über der Schwelle nicht mehr im Gültigkeitsbereich der Wannier-Näherung liegt. Aufgrund der großen Geschwindigkeitsdifferenzen kann die PDI von Helium parallel zum Polarisationsvektor erfolgen. Der gegen den Zwischenwinkel varphi_12 der Elektronen aufgetragene normierte Zirkulare Dichroismus CD_n ist bei E_exc = 100 eV wesentlich stärker ausgeprägt als bei E_exc = 450 eV. Der Wert des Extremums ist für alle Energieaufteilungen - außer der symmetrischen - gleich. Für beide Überschußenergien findet man eine Abhängigkeit der varphi_12-Position des Extremums von der Energieaufteilung. Die Extreme entfernen sich mit zunehmender asymmetrischer Energieaufteilung von varphi_12=180°. Die experimentell gewonnenen Ergebnisse zu den vollständig differentiellen Wirkungsquerschnitten der PDI von He sowohl mit linear als auch mit links und rechts zirkular polarisiertem Licht bei 100 eV und 450 eV über der Doppelionisationsschwelle zeigen insgesamt gute Übereinstimmungen mit den Ergebnissen der convergent-close-coupling-Rechnungen von A. Kheifets und I. Bray.
Die wissenschaftliche Recherche im Internet gestaltet sich als sehr schwierig, will man relevante Informationen schnell finden. Das Problem ist nicht der Mangel an Informationen sondern vielmehr das Übermaß davon. Außer der Quantität ist es für ein Mitglied einer Hochschule wichtig auf, von der Universität lizenzierte Webseiten zugreifen zu können. Aus einem Suchwerkzeug, wie zum Beispiel Google, kann ein Informationsanbieter nicht erkennen ob der dahinter stehende Benutzer berechtigt ist einen Artikel anzufordern. Ein anderer Aspekt worauf ein Wissenschaftler bei seiner Suche Wert legt, ist die Qualität eines Artikels. Am besten eignen sich hier wissenschaftliche Artikel aus renommierten und angesehenen Zeitschriften. Aus diesem Hintergrund heraus haben sich Informationsanbieter Gedanken gemacht wie man qualitativ hochwertige Artikel schnell in einer Recherche einbinden kann. Die Module, die Entwickelt wurden bilden die Basis für die Software die diese Entwicklungen zusammenfügt und miteinander harmonieren lässt. Für die Identifikation von elektronischen Dokumenten wurde unter anderem der DOI (Digital Object Identifier) entwickelt. Außerdem wichtig für unsere endgültige Software ist der OpenURL Standard. Damit werden die meisten Probleme die bei der mit einer herkömmlichen URL bestehen gelöst. Mit diesem Standard wird anhand von Metadaten eine eindeutige Identifikation eines Dokumentes vorgenommen die zu einem Dokument verlinkt, auch wenn sich seine eigentliche URL geändert hat. Die Diplomarbeit zeigt uns einen Überblick über diese Module. Dieser Lösungsweg führt uns zu einer Technologie die angewandt wird um unser Ausgangsproblem zu lösen. In dieser Software sind, anhand eindeutiger Identifikation, wissenschaftliche Dokumente und Artikel permanent abrufbar ohne der Gefahr einen Artikel durch Änderung seiner URL zu verlieren.
E-Learning soll im Rahmen der allgemeinmedizinischen Ausbildung von Medizinstudierenden erprobt werden. Ein zielgruppenspezifisches, multimodulares Online-Angebot begleitet Medizinstudenten des 10. Semesters während ihres dezentralen Praktikums in hausärztlichen Praxen. Folgende Lehrziele werden angestrebt: (1) Einführung in das E-Learning, (2) Klinische Allgemeinmedizin - Online-Modul, (3) Chronic Care Online-Modul, (4) Online-Bewerbung. Die systematische Evaluation zeigt, dass E-Learning die Kommunikation der Studierenden untereinander und mit der universitären Lehreinheit während des Praktikum fördert. Auf der Grundlage der in diesem Pilotversuch gewonnenen Erfahrungen erscheint die Kombination mit Präsenzunterricht (Blended Learning) eine vielversprechende Option für die allgemeinmedizinische Ausbildung zu sein.
Trotz ihrer hohen Zahl besetzen Jugendliche in westafrikanischen Staaten gesellschaftlich marginalisierte Positionen. Die Gründe für die Organisation der ländlichen Jugend in Jugendvereinen ergeben sich somit aus ihrer Lebenssituation. Formen sozialer Solidarität zur Verbesserung der Lebensmöglichkeiten wie die Aktivitäten der Jugendvereine stellen eine rationale Folge ihrer ökonomisch schlechten Situation dar (WEICKER 1992:550). Die im frankophonen Westafrika weit verbreiteten Jugendvereine, die im weiteren Verlauf auch als associations des jeunes bezeichnet werden, dienen Jugendlichen als Instrumente zur Gestaltung ihrer Lebenswelt. Als gemeinsames Betätigungsfeld bieten diese Vereine Einblicke in den Alltag der Jugendlichen (jeunes) (vgl. JENSEN 1996:61). Hier werden ihre Beziehungen untereinander sowie zu ihrer Umwelt erkennbar. Die Vereine sind Spiegel ihrer Interessen und Bedürfnisse. In diesem Kontext sind Jugendvereine als Instrumente zur Verfolgung ihrer spezifischen Interessen zu verstehen. Eine Betrachtung der Vereine macht deutlich, mit welchen unterschiedlichen Strategien die jeunes diese Interessen verfolgen. Über die Vereine engagieren sich die Mitglieder im Kollektiv für gemeinnützige Ziele, sie verstehen es aber auch, über ihre Mitgliedschaft individuelle Lebenskonzepte durchzusetzen. Dabei sind die jeunes keineswegs die einzigen Akteure, die über die Vereine ihre Umwelt zu gestalten versuchen. Die associations des jeunes stehen in einem besonderen Spannungsfeld. Sie stellen eine „Linse“ dar, welche die verschiedenen Interessen der Mitglieder bündelt. Die Vereine stellen nicht nur für die Jugend wichtige soziale Sprachorgane dar, sondern dienen auch der Artikulation allgemeiner gesellschaftlicher Bedürfnisse. Vereinsmässige Organisationsformen der Jugend (jeunesse) haben in dieser Funktion im frankophonen Westafrika vor und nach der völkerrechtlichen Unabhängigkeit von der französischen Kolonialmacht immer eine gesellschaftlich wichtige Rolle gespielt. So ist die Relevanz der jugendlichen Klientel der Partei RDA (Rassemblement Démocratique Africain) in ihrem Kampf um die völkerrechtliche Unabhängigkeit der französischen Kolonien Westafrikas im historischen Kontext ausschlaggebend für die heutige Verwendung des Begriffs jeunesse als übergreifende Bezeichnung für organisierte Jugendbewegungen (d’ALMEIDA-TOPOR 1992:16). Nach der Demokratisierung westafrikanischer Staaten ermöglichten jedoch Parteien der Bevölkerung die politische Beteiligung an gesellschaftlichen Entscheidungsprozessen. Gewerkschaften und Vereine verloren als Mittel zur Artikulation und Verfolgung gesellschaftlicher Bedürfnisse an Bedeutung. Im aktuellen Diskurs der Entwicklungszusammenarbeit und der staatlichen Entwicklungsagenda bieten sich den (ländlichen) Vereinen jedoch neue Möglichkeiten, auf die sozioökonomische Entwicklung ihrer Umwelt – und damit der Lebenswelt der Jugendlichen – Einfluss zu nehmen. Durch ihre Funktion als Selbsthilfegruppen dienen die Vereine als Transmissionsinstrumente für die Vorhaben lokal agierender NGOs (Non-Governmental Organisations) und erlangen dadurch für die lokale Bevölkerung sozioökonomische Relevanz. Aus diesem Grund stellen sie auch ein Zugriffsinstrument für politische Eliten dar, die sich die Reputation der Vereine nutzbar machen wollen, um über sie ihren Einfluss in der Bevölkerung zu vergrößern. So verstehen es vor allem die Vertreter der städtischen modernen Elite, die Vereine auch zur Verfolgung ihrer individuellen Ziele zu nutzen. Zurückgekehrte Migranten, aber auch durch Schulbildung qualifizierte, vor Ort lebende jeunes sind als potenzielle Initiatoren der Vereine zu sehen. Sie besitzen organisatorische Fähigkeiten, die sie zu Gründung, Leitung oder aktiven Mitgliedschaft in einer Vereinigung befähigen, die der Entwicklungszusammenarbeit dienen können. Die Zusammenarbeit der Vereine mit (staatlichen und nichtstaatlichen) Organisationen der Entwicklungszusammenarbeit eröffnet ihnen den Zugang zu ökonomischem und sozialem Kapital, das auch zur Verbesserung der eigenen Lebenssituation genutzt werden kann. Da sich die Berufs- und Studienabschlüsse der besser ausgebildeten jeunes nicht mehr zwangsläufig positiv auf ihre Lebenssituation auswirken, dienen ihnen die Vereine somit als ideales Instrument, entsprechende Ressourcen zu erschließen. Auf diese Weise hoffen die jeunes auch, sich zunehmend aus Abhängigkeiten befreien und ihren sozialen Status als Jugendliche hinter sich lassen zu können.
Die Altersvorsorge in Russland - Theoretische Analyse, aktuelle Rahmenbedingungen und ihre Umsetzung
(2005)
Das russische Rentenversicherungssystem befindet sich in der Krise. Wie in einer Vielzahl entwickelter Staaten auch, erodiert die Basis des umlagefinanzierten Rentensystems („Generationenvertrag“) auf Grund des demografischen Wandels. Dies wird verstärkt durch die mangelnde Wirtschaftskraft Russlands. Ausgangspunkt der Diskussion des russischen Rentenmodells in diesem Artikel ist die Darstellung der theoretischen Grundannahmen, die Analyse der aktuellen und zukünftigen Rahmenbedingungen sowie eine Prognose der natürlichen und räumlichen Bevölkerungsbewegung in Russland. Hierauf folgt die Präsentation der gegenwärtigen Situation einschließlich der bereits erfolgten ersten Schritte zu einer umfassenden Neuordnung des Rentenversicherungssystems sowie die Darstellung von „hot steps“ auf dem Weg zu einer nachhaltigen Alterssicherung.
Die Rho-Kinase gehört zur Familie der Serin/Threonin Kinasen und wird durch verschiedene vasoaktive Mediatoren, wie Katecholamine, UII, Thromboxan und Serotonin aktiviert. Sie spielt eine Schlüsselrolle in der Gefäßkontraktion des glatten Muskels. Die Rho-Kinase induzierte Kontraktion ist in allen Gefäßbetten der verschiedenen untersuchten Tierspezies (Ratte, Maus, Kaninchen, Schwein) induzierbar und durch selektive Rho-Kinase Inhibitoren konzentrationsabhängig hemmbar. Die Rho-Kinase Inhibitoren induzieren in vitro eine Gefäßrelaxation und führen in vivo zu einer Blutdrucksenkung. In akuten invasiven Blutdruckmessungen und chronischen telemetrischen Untersuchungen wurde für Rho-Kinase Inhibitoren eine Senkung des peripheren arteriellen Blutdrucks nachgewiesen. Der vasorelaxierende Effekt von Rho-Kinase Inhibitoren in vitro und in vivo ist gleichermaßen in normotensiven und hypertensiven Tiermodellen messbar und hängt nicht von der Endothelfunktion ab. Es wurden keine Unterschiede in der Sensitivität gegenüber Rho-Kinase Inhibitoren zwischen hypertensiven Tieren und normotensiven Tieren gemessen. In der Proteinexpressionsanalyse zeigte sich eine tendenziell, aber nicht signifikante Erhöhung der Rho-Kinase II-Expression im arteriellen glatten Gefäßmuskel der hypertensiven Tiere. Im Tiermodell der pulmonalen arteriellen Hypertonie wurde durch chronische Behandlung mit Rho-Kinase Inhibitoren die Progredienz der PAH verbessert. Rho-Kinase Inhibitoren normalisierten die Endothelfunktion und die Hyperkontraktilität der pulmonalen Gefäße. Zusätzlich konnten die Rechtsherzhypertrophie und rechtsventrikuläre Druck verbessert werden. In Untersuchungen am isoliert perfundierten Herzen nach Langendorff führte die Perfusion mit Rho-Kinase Inhibitoren zu einer verbesserten Durchblutung der Herzkranzgefäße. Die kardiale Kontraktilität und die Herzfrequenz wurden durch die akute Rho-Kinase Hemmung nicht beeinflusst. Zusätzlich zur Gefäßfunktion reguliert Rho-Kinase auch die Aktivierung und Aggregation von Thrombozyten. Vasoaktive Mediatoren können eine Rho-Kinase induzierte Aktivierung von Thrombozyten bewirken und so die Atherogenese begünstigen. Die Hemmung von Rho- Kinase bewirkt die Hemmung der Thrombozytenaggregation. Die Aktivierung von Rho- Kinase ist essentiell für zelluläre Transportvorgänge und die Zellmotilität. Dies wird durch Umstrukturierung des Zytoskeletts und mit Hilfe von Stressfaserformierungen realisiert. Rho- Kinase Hemmung verringert die Formierung von Stressfasern und kann somit Transporte von cholesterolsensitiven Transkriptionsfaktoren, z.B. SREBPs, zu ihren Bindungselementen reduzieren. Dadurch wird eine verstärkte Expression SRE-regulierter Gene, wie z.B. Cholesterolsyntheseenzymen, verhindert. Gleichzeitig führt eine Hemmung der Rho-Kinase Aktivität zu einer Senkung der Proliferationsrate von glatten Muskelzellen und Monozyten. Im LDLR defizienten Tiermodell der Atherosklerose wurde durch eine chronische Behandlung mit Rho-Kinase Inhibitoren eine signifikante Verbesserung der Endothelfunktion erreicht. Die Behandlung mit Rho-Kinase Inhibitoren zeigt allen untersuchten Modellen der Hypertonie blutdrucksenkende Effekte. In Modellen der Atherosklerose wurden durch Langzeitbehandlung mit Rho-Kinase Inhibitoren therapeutische Effekte auf die Endothelfunktion erzielt. Durch Reduktion der Risikofaktoren Bluthochdruck, Atherosklerose und endotheliale Dysfunktion senken Rho-Kinase Inhibitioren das kardiovaskuläre Risiko und bieten eine neue Therapiemöglichkeit zur Behandlung und Prophylaxe von Herz- Kreislauferkrankungen.
Unter Berücksichtigung der implementationsanalytischen und kausalen Analysen für die Einführungsphase der Vermittlungsgutscheine kommen die Autoren zu dem Schluss, dass die Erprobungsphase dieses arbeitsmarktpolitischen Instruments fortgesetzt werden sollte. Aus der Implementationsanalyse zeigt sich, dass der Verbreitungsgrad des Instruments auch nach 27 Monaten Erprobungsphase sehr gering ist. Die kausalen Analysen beziehen sich aufgrund begrenzter Datenverfügbarkeit lediglich auf zwei Ausgabemonate ein Jahr nach Einführung des Instruments (Mai und Juni 2003) und zeigen geringe positive Beschäftigungseffekte auf der Mikro-Ebene. Ob dadurch die Kosten der Vermittlungsgutscheine gerechtfertigt sind, lässt sich derzeit noch nicht abschließend beurteilen. Anzeichen für Mitnahmeeffekte und/oder Missbrauch existieren. Auch haben erfolgreiche Vermittlungen durch Gutscheine die Beschäftigungschancen in anderen Gruppen geschmälert. Deshalb werden verschiedene Vorschläge für eine kosteneffizientere Ausgestaltung der Vermittlungsgutscheine dargestellt und diskutiert. Insbesondere wird auf die Vorschläge des Bundeskabinetts vom 01.09.2004 eingegangen.
Holzkohlen aus archäologischen Grabungen im Sahel von Burkina Faso belegen die regionale Geschichte der Gehölzvegetation über die letzten 2000 Jahre. Der Bodenbau, den die sesshaft lebende Bevölkerung seit Beginn unserer Zeitrechnung intensiv betreibt, veränderte die Zusammensetzung der Gehölzvegetation vor allem auf den Dünen der Region. Im Vergleich mit der heutigen Vegetation lassen sich zudem klimatische Veränderungen nachweisen. Untersucht wurden über 9000 Fragmente aus sieben verschiedenen archäologischen Grabungen. Sechs Inventare stammen aus Siedlungshügeln. Bei einem Fundplatz handelt es sich um einen Hausgrundriss. Insgesamt wurden 37 Holzkohletypen erkannt und dokumentiert. Die untersuchten Inventare der Siedlungshügel zeigen, dass vor allem die Gehölzvegetation der Dünen und der Galeriewälder zur Brennholzentnahme genutzt wurde. Je nach Lage der Siedlung und dem Schwerpunkt der Wirtschaftsweise können verschiedene Taxa mit höheren Anteilen vertreten sein, möglicherweise zusätzlich verstärkt durch die anthropogene Auswahl von verfügbarem Brennholz. Im Vergleich der Holzkohleinventare lassen sich für die Eisenzeit regionale Entwicklungen erkennen. Die natürlichen Gehölzbestände auf den Dünen, unter anderem aus verschiedenen Akazienarten, wurden, zumindest in der Umgebung der Siedlungen, verdrängt. Stattdessen nahmen aufgrund der selektiven Förderung durch den Menschen die Anteile der Gehölze der Kulturbaumparks, Vitellaria paradoxa und Faidherbia albida zu. Die Landwechselwirtschaft förderte zudem Brachearten insbesondere aus der Familie der Combretaceae. In der späten Eisenzeit nahm Guiera senegalensis zu, die von starker Beweidung der Brachen profitiert. Der Unterwuchs der Galeriewälder an den mares und Wasserläufen wurde mit zunehmender Besiedlungsdauer in der Umgebung der einzelnen Fundplätze aufgelichtet, die Anteile von Combretum micranthum gehen in den Inventaren der einzelnen Siedlungsplätzen jeweils zurück. Klima und Vegetation waren während der Eisenzeit sudano-sahelisch. Auf feuchteres Klima verweisen Vitellaria paradoxa und Detarium microcarpum, die deutlich höhere Niederschläge benötigen, als sie die Region heute erhält. Der hohe Anteil von Taxa, die heute weiter südlich verbreitet sind, belegt zudem den sudanischen Aspekt der Gehölzvegetation. Der Vergleich der anthrakologischen mit den palynologischen und karpologischen Ergebnissen zeigt, dass die Gehölzvegetation sich unter zunehmend arideren Bedingungen in den letzen 2000 Jahren anthropozoogen stark verändert hat. Das Klima scheint aber während der Eisenzeit von 0-1500 AD vergleichsweise stabil gewesen zu sein. Erst danach haben die Niederschläge sich soweit verringert, dass in den letzten 500 Jahren einige sudanische Taxa aus der Region verschwanden, die noch während der Eisenzeit zur regionalen Flora gehört hatten, zum Beispiel Vitellaria paradoxa, Detarium microcarpum und Lannea sp. Der Vergleich der eisenzeitlichen Holzkohleflora mit der rezenten Dynamik der Vegetation und mit der Verbreitung einiger Arten um die Mitte des 20. Jahrhunderts zeigt, dass einige Taxa, wie Terminalia sp. möglicherweise erst in den letzten fünfzig Jahren aus der Region verschwunden sind.
In dieser Arbeit wurde die Produktion geladener Kaonen in C+C und Si+Si- Kollisionen bei Strahlenergien von 40A und 158A GeV untersucht, die verwendeten Daten stammen vom CERN Experiment NA49. Die Kaonen wurden über den mittleren Energieverlust in den TPCs identifiziert, was die Messung der Phasenraumverteilung in einem großen Bereich möglich machte. Die Analyse basiert auf der dE/dx Auswertung aller NA49 TPCs (globale Analyse). Es wurde herausgefunden, dass bei den C+C und Si+Si Datensätzen die MTPC dE/dx Information unvollständig auf den DSTs gespeichert wurde. Da die Auflösung bei der Bestimmung des mittleren Energieverlusts beschränkt ist, ist die Teilchenidentifikation nur über statistische Methoden möglich. Im Kapitel 4 wird diese von Marco van Leeuwen mitentwickelte Methode beschrieben. Für die endgültigen Werte der Phasenraumverteilung der Teilchen müssen die identifizierten Kaonen noch auf Effekte korrigiert werden, die durch den Aufbau des Detektors und die verwendete Analysesoftware hervorgerufen werden. Die Korrekturen werden im Kapitel 5.4 beschrieben und angewandt, dies sind unter anderem geometrische Korrekturen, Akzeptanz und Zerfallskorrekturen. Die Ergebnisse bei 158A GeV wurden mit C.Höhnes Ergebnissen verglichen und stimmen im Rahmen der Fehler überein. Zur Übersicht wurden die Daten mit den anderen NA49-Daten zusammengefasst. Dabei ist zu erkennen dass die Verhältnisse < K+ > / < NW >, < K+ > / < + >, < K > / < NW > und < K > / < > im Bereich zwischen p+p und Si+Si schnell ansteigen und im weiterem Verlauf bis Pb+Pb kaum weiter ansteigen. Im Rahmen des Statistical Model of the Early Stage sind dies Anzeichen für einen Übergang in das Quark-Gluon-Plasma bei 40A GeV in Si+Si Kollisionen. Für eine Bestätigung dieser Vermutung sind jedoch weitere Messungen bei unterschiedlichen Energien und Systemen notwendig.
Humanpharmaka stellen eine permanente Belastung von Gewässern dar. Im Rahmen der vorliegenden Arbeit wurde erstmals gemäß dem von der Europäischen Arzneimittelagentur EMEA entwickelten Konzept zur Durchführung von Umweltrisikobewertungen von Humanpharmaka mit mehreren ausgewählten Substanzen Umweltrisikobewertungen durchgeführt. Die hierfür ausgewählten Pharmaka sind das Antiepileptikum Carbamazepin (CBZ), das Antibiotikum Sulfamethoxazol (SMX) und das synthetische Östrogen 17a-Ethinylöstradiol (EE2). Als Vertreter der Inhaltsstoffe von Körperpflegeprodukten wurde der polyzyklische Moschusduftstoff Tonalid (AHTN) in die Untersuchungen mit einbezogen. Mit Hilfe von Literaturrecherchen wurde die Datengrundlage für Expositions- und Wirkungsabschätzungen bereitgestellt. Der vorhandene recherchierte Datensatz wurde mit entsprechenden Kurz- und Langzeitstudien ergänzt. Die mit den Ergebnissen der Expositions- und Wirkungsabschätzungen vorgenommenen Umweltrisikobewertungen ergaben im ersten Schritt basierend auf Kurzzeitstudien unter den ausgewählten Substanzen lediglich für den Moschusduftstoff AHTN ein erhöhtes Umweltrisiko für Oberflächengewässer. Basierend auf weiterführenden Langzeitstudien konnte das zunächst erkannte, durch AHTN indizierte Umweltrisiko entkräftet werden, jedoch ergaben die Risikocharakterisierungen für EE2 und SMX ein erhöhtes Risiko für das aquatische Kompartiment. Auf Grund der erhöhten Adsorptionspotenziale von CBZ, EE2 und AHTN wurden für diese Substanzen kompartimentspezifische Umweltrisikocharakterisierungen durchgeführt. Dabei wurde ein erhöhtes Umweltrisiko durch CBZ für das Kompartiment Sediment angezeigt. Basierend auf den Ergebnissen einer Sediment-Bioakkumulationsstudie mit dem endobenthischen Oligochaeten Lumbriculus variegatus, welche in einen unerwartet hohen Akkumulationsfaktor resultierte, und aus der Literatur verfügbaren Fisch-Biokonzentrationsfaktoren wurde anhand der Nahrungskette Wasser-Sediment-Wurm-Fisch die Möglichkeit des ‚secondary poisonings’ durch EE2 bei wurmfressenden Fischen unter natürlichen Bedingungen aufgezeigt. Zur Verwendung dieses Ergebnisses in einer Umweltrisikobewertung zum Zwecke der Zulassung von Pharmaka sollten weitergehende Untersuchungen zur Bestätigung durchgeführt werden. Bezugnehmend auf die Resultate der eigenen Studien und auf die besonderen Eigenschaften von Humanpharmaka wurde der EMEA-Richtlinienentwurf diskutiert und Verbesserungsvorschläge erarbeitet. Bis auf wenige Anpassungen geht das EMEA-Bewertungsschema nicht auf die Besonderheiten und spezifischen Eigenschaften von Humanpharmaka ein. Hauptkritikpunkte bezogen sich auf (1) die Anwendung eines konzentrationsabhängigen Schwellenwertes als Entscheidungsgrundlage zur Durchführung einer Risikocharakterisierung, (2) das stufenweise Vorgehen bei der Wirkungsabschätzung mit zuerst ausschließlich auf Kurzzeitstudien basierenden Effektdaten, und (3) unzureichende Angaben zu Vorgehensweisen in der höheren Stufe des Bewertungsschemas, vor allem bei Substanzen mit außergewöhnlichem ökotoxikologischen Potenzial. Trotz der zur Zeit intensiven internationalen Diskussion über mögliche Auswirkungen durch endokrine Disruptoren auf Mensch und Umwelt sieht der EMEA-Richtlinienentwurf nicht ausdrücklich vor, die Umweltgefährdung durch potenziell endokrin wirksame Substanzen mit spezifischen Testmethoden festzustellen und zu bewerten. Die Erkenntnis, dass spezifische Wirkmechanismen bei Chemikalien, speziell bei Arzneimitteln und Bioziden, auch in sehr niedrigen Konzentrationen zu Wirkungen in der Umwelt führen können, bleibt im EMEA-Richtlinienentwurf auf Grund der Einführung eines expositionsbezogenen Schwellenwertes und der Wirkungsabschätzung mittels Akutstudien nur unzureichend berücksichtigt. Zur Schließung dieser Lücke, die durch Untersuchungen zu endokrinen Wirkungen in der Umwelt offensichtlich wurde, müssen neue und bessere ökotoxikologische Instrumente entwickelt werden und das Umweltrisikobewertungsschema entsprechend erweitert und angepasst werden.
Eine große Herausforderung auf dem Forschungsgebiet der P2-Rezeptoren stellt die Entwicklung von potenten und selektiven Antagonisten für die einzelnen Rezeptorsubtypen dar, um die P2-Rezeptoren in nativen Geweben zu identifizieren und ihre physiologische und pathophysiologische Funktion aufzuklären. Ziel dieser Arbeit war zum einen die Entwicklung solcher P2-Antagonisten und zum anderen der Vergleich der pharmakologischen Befunde, die an nativen P2-Rezeptoren humaner Thrombozyten und isolierter Organe der Ratte sowie des Meerschweinchens ermittelt wurden, mit Ergebnissen an rekombinanten Rezeptoren, um somit Aussagen über P2-Rezeptoren verschiedener Spezies sowie nativer und rekombinanter P2-Rezeptoren treffen zu können. Mit Hilfe der P2Y1- und P2Y12-Standardantagonisten MRS2179, A3P5P und 2-meSAMP konnte gezeigt werden, dass für die ADP-induzierte Aggregation von in Puffer suspendierten Thrombozyten die gleichzeitige Aktivierung von P2Y1- und P2Y12-Rezeptoren zwingend erforderlich ist. Dagegen handelt es sich bei ADP- bzw. abmeATP-induziertem „shape change“ und Anstieg der intrazellulären Calciumkonzentration um rein P2Y1- bzw. P2X1-vermittelte Effekte humaner Thrombozyten, die zur Charakterisierung von Antagonisten an diesen Rezeptoren geeignet sind. Weiterhin wurden Untersuchungen am P2X1-Rezeptor des Ratten-Vas-deferens sowie am P2X3- und P2Y1-Rezeptor des Meerschweinchen-Ileum durchgeführt. Ausgehend von den Leitstrukturen Suramin und PPADS wurden Strukturmodifikationen vorgenommen mit dem Ziel, die Wirkstärke und die Selektivität zu erhöhen. Bei PPADS ist es durch Variation des Restes am Pyridoxalphosphat gelungen, sowohl P2X1- wie auch P2Y1-selektive Antagonisten zu entwickeln. Mit dem Ersatz des Phenylrestes durch einen Naphthylrestes beim PPNDS wurde die größte P2X1-versus P2Y1-Selektivität erreicht, wohingegen das Heterodimer SB9, bestehend aus Pyridoxalphosphat und einem Suraminmonomer, eine P2Y1-versus P2X1-Präferenz aufweist. Die einzelnen PPADS-Analoga unterscheiden sich hinsichtlich ihrer Kinetik und des antagonistischen Mechanismus. Bei einigen Substanzen wurde ein kompetitiver, bei anderen ein „pseudoirreversibler“ oder nichtkompetitiver Antagonismus beobachtet. Im Gegensatz zu den P2-Rezeptoren glattmuskulärer Organe zeigen alle untersuchten PPADS-Analoga an P2-Rezeptoren der Thrombozyten einen nichtkompetitiven Antagonismus. Weiterhin wurde beobachtet, dass die Strukturmodifikationen einen wesentlich geringeren Einfluss auf die Wirkstärke an P2-Rezeptoren der Thrombozyten haben als an den Rezeptoren glattmuskulärer Organe. Bei den Suraminanaloga ist es gelungen durch Strukturmodifikationen potente und selektive Antagonisten für humane P2X1-Rezeptoren zu entwickeln. Es zeigte sich, dass die tetravalenten Verbindungen NF449, NF110 und NF864 eine wesentlich höhere Affinität zum P2X1-Rezeptor humaner Thrombozyten aufweisen als ihre bivalenten Analoga. Die größte P2X1- versus P2Y1-Selektivität wurde bei NF110 erreicht, die größte Wirkstärke am P2X1-Rezeptor dagegen ist beim NF864 zu finden. Bei der Substanz NF864 handelt es sich um den derzeit potentesten P2X1-selektiven Antagonisten humaner Thrombozyten. Somit sollte sich NF864 zur Untersuchung der Beteiligung des P2X1-Rezeptors an der Hämostase als nützlich erweisen. Korrelationen der Ergebnisse des abmeATP-induzierten „shape change“ mit denen des abmeATP-induzierten Calciumeinstroms in Thrombozyten zeigten, dass beide Vorgänge allein durch den P2X1-Rezeptor vermittelt werden und wahrscheinlich über den gleichen Transduktionsweg ablaufen. Intrazellulärer Calciumanstieg und „shape change“, die durch ADP ausgelöst werden, sind ausschließlich P2Y1-vermittelt, verlaufen aber unter Umständen über unterschiedliche Transduktionswege. Vergleicht man die Ergebnisse, die an humanen Thrombozyten ermittelt wurden mit denen der isolierten Organe so ist weder bei der Wirkstärke noch beim antagonistischen Mechanismus eine völlige Übereinstimmung festzustellen. Auch der Vergleich der Ergebnisse, die an nativen P2X1-Rezeptoren ermittelt wurden, mit Daten an rekombinanten Rezeptoren ergaben weder bei den Thrombozyten, noch bei den isolierten Vasa deferentia der Ratte eine klare Korrelation. Struktur-Wirkungs-Beziehungen von P2X1-Antagonisten sind somit scheinbar nur innerhalb eines Modells möglich. Die Interpretation auf antagonistische Potenzen von Verbindungen zwischen nativen P2X1-Rezeptoren unterschiedlicher Spezies sowie zwischen nativen und rekombinanten P2X1-Rezeptoren einer Spezies müssen nach dem heutigen Stand der Wissenschaft mit Vorsicht betrachtet werden.
Johann Christian Ruhls Umrißradierungen zu Bürgers Ballade „Lenore“ (1773) stehen in der Tradition der klassizistischen linearen Illustrationskunst (Flaxman). Die 12 Blätter setzen die Schauerballade mit all ihrer Leidenschaft adäquat um. Diese Geschichte – sagt A. W. Schlegel über „Lenore“ – „welche die getäuschten Hoffnungen und die vergebliche Empörung eines menschlichen Herzens, die alle Schauer eines verzweiflungsvollen Todes in wenigen leichtfasslichen Zügen und lebendig vorüberfliehenden Bildern entfaltet, ist ohne conventionelles Beiwerk.“ Als Regieanweisung zur rechten Lektüre rät Bürger einem Freund: Wenn Sie die Ballade „vorlesen, so borgen Sie einen Todtenkopf von einem Mediciner, setzen solchen bei einer trüben Lampe, und dann lesen Sie“.
Erst ausgehend von ihrer Erfindung in der bildenden Kunst hielt die Landschaft Einzug in die Literatur; literarische Landschaftsdarstellungen im engeren Sinn finden sich gegenüber malerischen Landschaftsdarstellungen erst mit deutlicher Verzögerung, wenngleich sie auch literarische Vorläufer haben. Was man unter Landschaften in der Literatur alles verstehen sollte, mag umstritten sein. In jedem Fall liegt es nahe, literarische Landschafts-Texte mit bildkünstlerischen Darstellungen zu vergleichen.
Die vorliegende Arbeit beschäftigt sich mit der Bewältigung eines extremen Mangels an Rohstoffen in der Zeit von etwa 1800 v. Chr. bis 500 n. Chr., was nach herkömmlicher Periodisierung der Endsteinzeit und frühen Eisenzeit Nordost-Nigerias entspricht. Dieser Mangel bestand an Gesteinen zur Fertigung von verschiedenen Geräten. Im betrachteten Gebiet, dem Tschadbecken in Nordost-Nigeria, bedecken mächtige Beckenablagerungen anstehende Gesteine, sodass die Versorgung von außerhalb erfolgen musste. Was für die prähistorischen Siedler ein Nachteil war - vor allem in den prä-metallurgischen Abschnitten muss das Fehlen von Steinen ein ernstes Problem dargestellt haben - ist archäologisch ein Glücksfall mit selten klaren Ausgangsvoraussetzungen. Da jeder im archäologischen Kontext vorgefundene Stein von Menschen dorthin gebracht worden sein muss, ergeben sich neben der üblichen Betrachtung der Geräteformen vor allem Fragen nach Art und Herkunft des verwendeten Rohmaterials sowie nach deren eventueller Veränderung im Laufe der betrachteten Zeit. Von zentraler Bedeutung war dabei die Frage, ob und wie sich die in anderen Fundkategorien dokumentierten sozio-ökonomischen Umbrüche im ersten vorchristlichen Jahrtausend auch in der Versorgung mit lithischen Rohmaterialien widerspiegeln. Die Datengrundlage bilden rund 13000 Steinartefakte aus unterschiedlichen Fundkontexten (Ausgrabungen, Lesefunde, systematische Beprobungen). Sie stammen aus etwa 400 Fundstellen, die alle chronologischen Phasen abdecken und über den gesamten Betrachtungsraum verteilt sind. Durch diese breite Datengrundlage kann den Ergebnissen eine relativ hohe Repräsentanz zugerechnet werden. Sämtliche Artefakte wurden nach archäologischen und petrologischen Kriterien klassifiziert. Die auf diese Weise gebildeten Gesteinsgruppen wurden dann mit Proben potentieller Gesteinsquellen verglichen, um die Herkunft des im Fundkontext vorliegenden Materials zu erschließen. Die entsprechenden Gesteinsproben wurden bei geoarchäologischen Prospektionen in Nigeria, Kamerun und Tschad geborgen. Sämtliche potentielle Lagerstätten für die Versorgung des engeren archäologischen Betrachtungsgebietes in Nordost-Nigeria sind hierbei berücksichtigt. Das Geräte- wie Rohmaterialspektrum ist überschaubar. Ein Großteil (80%) besteht aus Mahlgeräten aus Granit und Sandstein, gefolgt von Beilklingen aus vulkanischen Gesteinen. Seltener vorkommende Geräteformen sind Pfeilspitzen oder Perlen, die meist aus Kieselgesteinen gefertigt sind, sowie Steinkugeln, Rillensteine oder Steinringe aus verschiedenen Gesteinsarten. Die Artefakte sind nur selten vollständig erhalten und zeigen in vielen Fällen Spuren von Überarbeitung und Mehrfachverwendung. Darin drückt sich besonders deutlich der Mangel und generell hohe Wert von Steinen aus. Von den klassifizierten Gesteinstypen wurde die Herkunft in drei Fällen genau lokalisiert. Andere Teile wurden zumindest regional eingegrenzt. Abbaustellen sind jedoch unbekannt. Beim chronologischen Vergleich der Rohmaterialspektren in den Inventaren der Fundstellen zeigten sich sodann markante Veränderungen, die in die Zeit sozio-ökonomischer Umbrüche in der Mitte des ersten vorchristlichen Jahrtausends fallen. Die Veränderungen betreffen eine völlige Umorganisation der Rohmaterialherkunft und –verteilung und sind Ausdruck einer verbesserten Versorgung und erweiterter oder sogar neuer Kontakte.
Im Rahmen des DFG-Forschungsprojektes Scha 237/12-1 (Betreuer Prof. Dr. Eike W. Schamp) in Kooperation mit der University of Jordan in Amman/Jordanien (Betreuer Prof. Dr. Nasim Barham) wird derzeit u.a. die Rolle deutscher Reiseveranstalter (RV) in der (globalen) Wertschöpfungskette (Global Commodity Chain, GCC) des Pauschaltourismus von Deutschland nach Jordanien untersucht. Das vorliegende Papier gibt vornehmlich einen ersten Zwischenstand im Rahmen der laufenden empirischen Erhebung unter klein- und mittelständischen RV in Deutschland wieder, welche Reisen nach Jordanien innerhalb ihres Programmportfolios konzipieren und an den Endkunden, den Tourist, verkaufen. Der Schwerpunkt des Papers liegt auf der Identifizierung von Mechanismen der Zusammenarbeit zwischen zwei verschiedenen Unternehmen einer touristischen GCC, der deutsche RV sowie die jordanische Zielgebietsagentur (ZA). Beide wirken als zentrale Akteure bei der Erstellung einer Pauschalreise, indem sie jeweils Leistungen von Fremdanbietern bündeln und somit als (verschieden mächtige) „Knoten“ im Prozess der Leistungserstellung wirken. Dieser Prozess findet über weite geographische Distanzen statt.
Hintergrund und Fragestellung: Im Zuge der Einführung eines generellen Neugeborenen-Hörscreenings sind durch ständige Verbesserung und Neuentwicklung von Screening-Geräten die technischen Voraussetzungen für das Screening zu schaffen und diese zu optimieren. Das Gerät muss eine hohe Sensitivität, Spezifität und eine gute Handhabbarkeit aufweisen sowie kostengünstig sein. Zudem wird eine Testauffälligenrate von unter 4 % im Primärscreening gefordert. Für ein effektives Screening muss das optimale Verfahren ausgewählt werden. Hier stehen reine OAE- und AABR-Verfahren kombinierte OAE/ABR-Verfahren zur Auswahl. Patienten und Methode: In zwei Geburtskliniken wurden an 360 Neugeborenen jeweils monaural zwei DPOAE-Messungen mit den Geräten ABaer® und Ero-Scan® sowie eine AABR-Messung mit dem ABaer® durchgeführt. Ergebnisse: Für das ABaer® lag die Testauffälligen-Rate in den DPOAE-Messungen bei 3,3 % mit einem einzigen Test, in den AABR-Messungen betrug sie 2,2 %. Das Ero-Scan® lag mit 13,6 % unter diesen Ergebnissen. Die Messzeiten betrugen beim ABaer® AABR 2:18 min, beim ABaer® DPOAE 1:38 min und beim Ero-Scan® 0:23 min. Für die Untersuchungszeiten ergaben sich Werte von 7 min für die AABR-Messung, 3:21 min für die DPOAE des ABaer® und 3 min für das Ero-Scan®. Die Sensitivität in dieser Studie betrug für das ABaer® für DPOAE und AABR 100 %. Die Studienspezifität für die AABR-Messung lag bei 92,5 %, für die DPOAE des ABaer® bei 94,5 % und für das Ero-Scan® bei 70,6 %. Die Verfahrensspezifitäten betrugen für die AABR-Messung 97,4 %, für die DPOAE-Messung des ABaer® und für das Ero-Scan® 83,8 %. Für ein beidohriges Screning ergaben sich Kosten für ein OAE/ABR-Kombi-nationsscreening mit dem ABaer® von 17,47 €, ein reines OAE-Screening berechnete sich mit 9,85 € und ein reines AABR-Screning mit 15,10 €. Aufgrund der Anzahl der notwendigen Wiederholungsmessungen ergaben sich für das Ero-Scan® Kosten von 11,28 €. Schlussfolgerung: Das ABaer® scheint sowohl für die AABR-Messung, als auch für die DPOAE-Messung für ein Screening geeignet. Es entspricht weitgehend den geforderten Qualitätskriterien. Das Ero-Scan® erwies zum durchgeführten Screening-Zeitpunkt erhebliche Mängel auf und erfüllte die Qualitätskriterien für ein Neugeborenen-Hörscreening nicht. Anwenderbedingte Gründe dafür können weitgehend ausgeschlossen werden.
In dieser Studie wurden stationsbezogene Messdaten der bodennahen Lufttemperatur, des Niederschlages und des Windes in Deutschland und zum Teil auch in Mitteleuropa für den Zeitraum 1901 bzw. 1951 bis 2000 im Hinblick auf Änderungen ihres Extremverhaltens untersucht. Hierfür wurde ein bimethodischer Ansatz gewählt. Die als Methode I bezeichnete "zeitlich gleitende Extremwertanalyse" definiert für den betrachteten (gleitenden) Zeitraum feste Schwellen. An die Zeitreihen der Schwellenüber- bzw. Unterschreitungen wurden sowohl empirische, als auch theoretische Häufigkeitsverteilungen angepasst, aus denen extremwert-theoretische Größen wie Wartezeitverteilung, Wiederkehrzeit und Risiko abgeleitet wurden. Die Methode II der "strukturorientierten Zeitreihenzerlegung" sucht, basierend auf einer zugrundegelegten theoretischen Verteilung, nach zeitabhängigen Parametern der zugehörigen Wahrscheinlichkeitsdichte. Hierdurch lassen sich zeitabhängige Wahrscheinlichkeiten für das Über- bzw. Unterschreiten von Schwellen angeben. Die gleitende Analyse zeigt bei Niederschlagsmonatsdaten in ganz Deutschland für untere Schranken einen Trend zu seltenerem Auftreten von Extremereignissen. Bei oberen Schranken ist hingegen im Osten einen Trend zu seltenerem, im Westen einen Trend zu häufigerem Auftreten von Extremereignissen zu erkennen. Im Osten ergibt sich also insgesamt ein Trend zu weniger extremen Monatsniederschlagssummen, im Westen ein Trend zu höheren onatsniederschlagssummen. Bei den Niederschlagstagesdaten, bei denen nur die Untersuchung oberer Schranken sinnvoll ist, sind die Ergebnistrends denen der Niederschlagsmonatsdaten in ihrer regionalen Verteilung ähnlich. Allerdings sind die Trends hier schrankenabhängig. Insbesondere in Norddeutschland ergibt sich dabei für relativ niedrige Schranken ein Trend zu kleineren Überschreitungshäufigkeiten, für hohe Schranken hingegen ein Trend zu größeren Überschreitungshäufigkeiten. Damit ergibt sich insgesamt ein Trend zu extremeren Tagesniederschlägen. Bei den Temperaturdaten zeigen die Ergebnisse der gleitenden Analyse der Monatsdaten mit wenigen Ausnahmen ein selteneres Unterschreiten unterer Schranken (also: Kälteereignis). Dieses Verhalten ist bei den Temperaturtagesdaten sogar flächendeckend zu beobachten. Für obere Schranken (also: Hitzeereignis) ergibt sich im allgemeinen ein Trend zu häufigerem Auftreten von Extremereignissen. Allerdings ist dieser Trend nicht flächendeckend zu beobachten. Vielmehr gibt es in allen Regionen Deutschlands einzelne Stationen, bei denen ein Trend zu seltenerem Überschreiten oberer Schranken festzustellen ist. Bei der "strukturorientierten Zeitreihenzerlegung" wurden folgende Ergebnisse erzielt: Die Wahrscheinlichkeitsdichten der monatlichen und saisonalen Temperatur-Daten weisen überwiegend positive Trends im Mittelwert auf, die Streuung hat sich hier nur in Ausnahmefällen verändert. Dies führte zu teilweise deutlich gestiegenen Wahrscheinlichkeiten für besonders warme Monats- und saisonale Mittel im 20. Jh. (Ausnahme: Herbst im Datensatz 1951 bis 2000). Entsprechend sanken in diesem Zeitraum verbreitet die Wahrscheinlichkeiten für extrem kalte Monats- und saisonale Mittel. Ebenso stiegen dieWahrscheinlichkeiten für Häufigkeiten von besonders warmen Tagen (über dem 10%-Perzentil) ab 1951 in allen Jahreszeiten, besonders im Winter für die Tagesmaximum-Temperaturen. Dies korrespondiert mit einer beschleunigten Häufigkeits-Abnahme von besonders kalten Tagen in allen Jahreszeiten, besonders in Süddeutschland. Beim Niederschlag dominieren ausgeprägt jahreszeitliche Unterschiede: Im Winter findet sich sowohl ein Trend zu höheren Monats- und saisonalen Summen, als auch eine erhöhte Variabilität, was verbreitet zu einer deutlichen Zunahme von extrem hohen Niederschlagssummen in dieser Jahreszeit führt. Im Sommer hingegen wurde ein Trend zu einer verringerten Variabilität gefunden, wodurch auch extrem hohe monatliche und saisonale Niederschlagssummen in weiten Teilen Mitteleuropas in dieser Jahreszeit seltener geworden sind. Entsprechend haben Tage mit hohen (über dem 10%-Perzentil) und auch extrem hohen (über dem 5%- und 2%-Perzentil) Niederschlagssummen im Sommer verbreitet abgenommen, in den anderen Jahreszeiten (vor allem im Winter und in Westdeutschland) jedoch zugenommen. Beim Wind sind die Ergebnisse recht uneinheitlich, so dass hier eine allgemeine Charakterisierung schwer fällt. Tendenziell nehmen die Häufigkeiten extremer täglicher Windmaxima im Winter zu und im Sommer ab. Dies gilt jedoch nicht für küstennahe Stationen, wo auch im Winter oft negative Trends extremer Tagesmaxima beobachtet wurden - In Süddeutschland hingegen finden sich auch im Sommer positive Trends in den Häufigkeiten extrem starker Tagesmaxima. Jedoch sind die untersuchten Daten (Windmaxima über Beaufort 8 und mittlere monatliche Windgeschwindigkeiten) wahrscheinlich mit großen Messfehlern behaftet und zudem für die hier durchgeführten Analysen nur bedingt geeignet. Es hat sich somit gezeigt, dass das Extremverhalten von Klimaelementen, wie Temperatur und Niederschlag, im 20. Jhr. sehr starken Änderungen unterworfen war. Diese Änderungen im Extremen wiederum sind sehr stark von Änderungen des "mittleren" Zustandes dieser Klimaelemente abhängig, welcher durch statistische Charakteristika wie Mittelwert und Standardabweichung (bzw. allgemeiner Lage und Streuung) beschrieben werden kann.
Vorwort zur 1. Auflage Klima ist vor allem deswegen nicht nur von wissenschaftlichem, sondern auch von öffentlichem Interesse, weil es veränderlich ist und weil solche Änderungen gravierende ökologische sowie sozioökonomische Folgen haben können. Im Detail weisen Klimaänderungen allerdings komplizierte zeitliche und räumliche Strukturen auf, deren Erfassung und Interpretation alles andere als einfach ist. Bei den zeitlichen Strukturen stehen mit Recht vor allem relativ langfristige Trends sowie Extremereignisse im Blickpunkt, erstere, weil sie den systematischen Klimawandel zum Ausdruck bringen und letztere wegen ihrer besonders brisanten Auswirkungen. Hier geht es um den erstgenannten Aspekt, zu dem nun noch die räumlichen Strukturen treten. Der relativ langfristige und somit systematische Klimawandel läuft nämlich regional sehr unterschiedlich ab, was am besten in Trendkarten zum Ausdruck kommt. Solche regionalen, zum Teil sehr kleinräumigen Besonderheiten sind insbesondere beim Niederschlag sehr ausgeprägt. Schließlich sind die räumlichen Trendstrukturen auch jahreszeitlich bzw. monatlich sehr unterschiedlich. In unserer Arbeitsgruppe hat sich Jörg Rapp im Rahmen seiner Diplom- und insbesondere Doktorarbeit intensiv mit diese Problem beschäftigt, was zur Publikation des „Atlas der Niederschlags- und Temperaturtrends in Deutschland 1891-1990“ (Rapp und Schönwiese, 2. Aufl. 1996) sowie des „Climate Trend Atlas of Europe – Based on Observations 1891-1990“ (Schönwiese und Rapp, 1997) geführt hat. Die große Beachtung, die insbesondere der Klimatrendatlas Deutschland gefunden hat, ließ es schon lange als notwendig erscheinen, eine Aktualisierung vorzunehmen. Dieser Aufgabe hat sich in Form eines Fortgeschrittenenpraktikums Herr Reinhard Janoschitz gewidmet und die Aktualisierung für die Zeit 1901-2000, einschließlich Subintervallen, vorgenommen. Zudem hat er für 1951-2000 noch das Klimaelement Sonnenscheindauer hinzugenommen. Zur Zeit ist er im Rahmen seiner Diplomarbeit mit einer Neubearbeitung des Europäischen Klimatrendatlas befasst. Mit der Publikation des hier vorliegenden „Klimatrend-Atlas Deutschland 1901-2000“ werden in insgesamt 178 Karten (davon 20 Karten auch in Farbdarstellung in den Text integriert) wieder umfangreiche Informationen zum Klimawandel in Deutschland vorgelegt, und zwar mit Hilfe einer linearen Trendanalyse hinsichtlich der boden-nahen Lufttemperatur, des Niederschlags und der Sonnenscheindauer für die Zeit 1901-2000 sowie für die Subintervalle 1931-1960, 1961-1990 und 1971-2000 – Sonnenscheindauer allerdings nur 1951-2000 und 1971-2000 –, jeweils aufgrund der jährlichen, jahreszeitlichen und monatlichen Beobachtungsdaten. Die Signifikanz der Trends ist im (schwarz/weiß wiedergegebenen) Kartenteil durch Rasterung markiert. Methodisch lehnt sich die Analyse somit eng an die oben zitierte Arbeit von Rapp und Schönwiese (1996) an, wo auch ausführliche textliche Erläuterungen zu finden sind (ebenso in Rapp, 2000); deswegen wurde hier der Textteil sehr knapp gehalten. Hingewiesen sei schließlich auf ebenfalls für Deutschland durchgeführte Analysen klimatologischer Extremereignisse, die ebenfalls in der Reihe unserer Instituts-mitteilungen publiziert sind (Jonas et al., 2005; Trömel, 2005). Frankfurt a.M., im Herbst 2005 Christian-D. Schönwiese Vorwort zur 2. Auflage Das erfreulich große Interesse hat eine 2. Auflage erforderlich gemacht, die neben kleineren redaktionellen Verbesserungen bzw. Aktualisierungen vor allem die Erweiterung der in Kap. 4 vorgestellten Zeitreihen und einen ergänzenden Tabellenanhang jeweils bis 2007 enthält. So erfüllt dieser Atlas hoffentlich auch weiterhin seinen Informations-zweck. Im übrigen ist der im Vorwort zur 1. Auflage erwähnte „Klima-Trendatlas Europa“ mittlerweile als Nr. 7 (2008) der Reihe unserer Institutsberichte erschienen. Frankfurt a.M., im Sommer 2008 Christian-D. Schönwiese
Die Blut-Hirn-Schranke (BHS) verhindert mit ihren engen Zell-Zellverbindungen, selektiven Transportern und einem effizienten Abwehrsystem das Eindringen vieler Stoffe in das Gehirn. Im Rahmen der vorliegenden Arbeit wurden Nanopartikel aus humanem Serumalbumin (HSA-NP) zum Arzneistofftransport in das Gehirn entwickelt. Als Ligand zur Überwindung der BHS wurde Apolipoprotein E (ApoE), ein Ligand des LDL-Rezeptors (LDL-R), der sich auf der Membranoberfläche von Hirnendothelzellen befindet, eingesetzt. Kurze ApoE wurde über Avidin/Biotin-Komplexe oder kovalent an die NP-Oberfläche gebunden. Bei der Avidin/Biotin-Methode wurde über einen heterobifunktionalen Crosslinker (Polyethylenglykol (PEG)-Spacer) die Avidinkomponente an die NP Oberfläche gebunden. Nach erfolgter Bindung der Avidinkomponente wurde die Funktionsfähigkeit des gebundenen NeutrAvidin® untersucht. Dabei wurde in der Suspension der NeutrAvidin®-modifizierten NP das Verhältnis von Biotinbindungsstellen zu Avidinkomponente bestimmt. Das ermittelte Verhältnis in der NeutrAvidin®-modifizierten NP?Suspension lag bei 2,6 : 1. Um ApoE an NeutrAvidin®-modifizierte NP zu binden, wurde das ApoE biotinyliert und anschließend an die NeutrAvidin®-NP gekoppelt. Dabei wurden ca. 3800 ApoE-Molekülen pro NP gebunden. Bei der kovalenten Bindung wurden verschiedene Apolipoproteine mittels PEG-Spacer direkt an HSA-NP gebunden. Hierbei wurden 19 µg ApoE/mg NP gebunden. In Untersuchungen am konfokalen Mikroskop (CLSM) zeigte sich eine moderate Anlagerung von ApoE-PEG-NP an LDL-R-exprimierende Hep G2- und ß.End3-Zellen, die auf eine Aufnahme der ApoE-PEG-NP über den LDL-R hindeuten könnte. Loperamid wurde als Modellwirkstoff in Tierversuchen verwendet. Loperamid bindet im Gehirn Opioidrezeptoren und wirkt analgetisch, überwindet jedoch nicht selbstständig die BHS. Der analgetische Effekt von Loperamid-beladenen ApoE-modifizierten NP (7 mg/kg bzw. 4 mg/kg Loperamid) wurde in Mäusen nach i.v.-Applikation mittels Tail-Flick-Test ermittelt. Loperamid-beladene ApoE-NP verursachten konzentrationsabhängig einen analgetischen Effekt bei den untersuchten Mäusen. Die Kontrollzubereitungen (Loperamid-beladene nicht-ApoE-modifizierte NP, Loperamid-Lösung, unbeladene ApoE-NP) zeigten keine analgetische Wirkung. Mit ApoE modifizierte NP die keine Bindung an den LDL-R zeigen, vermittelten keinen analgetischen Effekt im Tierversuch.
Das Ziel des Experiments war es, den Einfluss des Valenzelektrons im Kaliumatom auf die Kernabschirmung zu untersuchen. Es wurde mit Hilfe von Laserpulsen mit einer Dauer von 120 fs entfernt. Die Ionisation oder Anregung der K-Schale der Kaliumatome sowie der Kaliumionen wurde mit hochenergetischen Röntgenphotonen realisiert. Um die daraus entstandenen Auger-Elektronen ohne störenden Untergrund messen zu können, wurde ein 4π Flugzeitspektrometer nach dem Prinzip der magnetischen Flasche eingesetzt. Es wurde gezeigt, dass nach dem Entfernen des Valenzelektrons die Kernabschirmung des Kaliumatoms zunimmt, was eine Änderung der Energie der K-Schale zu Folge hat. Diese Änderung von 3 eV trat bei einem Vergleich der Ionisationskurven für Kaliumatome und Kaliumionen deutlich hervor. Die Höhe der Änderung lässt darauf schließen, dass sie im Zusammenhang mit der Ionisierungsenergie des entfernten 4s-Elektrons steht. Durch die Verwendung des Femtosekunden-Laserpulses in Verbindung mit den Röntgenstrahlen des Synchrotrons sollte der Auger-Prozess zeitaufgelöst dargestellt werden. Eine Messung des Verhältnisses der Elektronenraten in Abhängigkeit von der zeitlichen Verzögerung zwischen Laser- und Röntgenstrahlen ergab eine Länge des Röntgenpulses von 66 ps (± 5 ps), was für zeitaufgelöste Untersuchungen des in Femtosekunden ablaufenden Auger-Prozesses zu lang ist. Jedoch zeigt das Experiment, dass bei einer hinreichenden Verkürzung der Röntgenpulse zeitaufgelöste Untersuchungen im Bereich von Femtosekunden möglich sind. Für die Zukunft ist an der ALS eine weitere Beamline geplant, welche Röntgenpulse im fs-Bereich produzieren kann. Durch Verwenden dieser kurzen Röntgenpulse wären weitere Experimente zur zeitaufgelösten Darstellung des Auger-Prozesses denkbar. Bis zu diesem Zeitpunkt sollen weitere Experimente zur Untersuchung „langsamer“ dynamischer Vorgängen in Atomen und Molekülen, zum Beispiel die Dissoziation von Molekülen auf einer Pikosekunden Zeitskala, durchgeführt werden.
Wozu ein solcher Bibliotheksführer? Frankfurt am Main hat eine reiche und vielfältige Bibliothekslandschaft. Neben den großen und bekannten Bibliotheken gibt es zahlreiche Spezialbibliotheken. Sie sind häufig nur einem kleineren Nutzerkreis bekannt, obwohl sie oftmals Fragestellungen zu einer Fachrichtung eher beantworten als andere Bibliotheken und somit der Suchende sich dort schneller und besser informieren könnte. Um das Netz der Frankfurter Bibliotheken besser nutzbar zu machen, erscheint dieser Führer. Er soll kein Ersatz für bereits existierende Publikationen sein, die die Bibliotheken in ihrer Gesamtheit verzeichnen. Leitlinie bei der Erstellung war der Nutzen für den Leser. So wurden ausschließlich Bibliotheken aufgenommen, die öffentlich und uneingeschränkt zugänglich und regelmäßig geöffnet sind sowie über eine gewisse Bestandsgröße verfügen. Wie ist der Führer zu nutzen? Er besteht aus drei Teilen: • Der erste Teil beantwortet die Frage „Was finde ich wo?“. Häufig bieten mehrere Bibliotheken das Gesuchte. Über eine Suchnummer können in den nachfolgenden Teilen weitere Angaben zur jeweiligen Bibliothek nachgeschlagen werden. • Der zweite Teil gibt ausführlichere Informationen zu den größeren Bibliotheken. • Im dritten Teil folgen die Spezialbibliotheken mit Adresse, Telefonnummer und – soweit vorhanden – Homepage. Damit kann sich der Leser über Öffnungszeiten und Nutzungsmodalitäten informieren.
Das Hepatitis C Virus (HCV) ist Auslöser einer oftmals chronisch verlaufenden Leberentzündung mit einem erhöhten Risiko für die Entwicklung einer Leberzirrhose und deren Folgen. Die weltweite Prävalenz der Hepatitis C beträgt ca. 3%; allein in Deutschland treten jährlich mehr als 5000 Neuinfektionen auf. Das HCV lässt sich aufgrund phylogenetischer Untersuchungen in mindestens 6 Genotypen und jeweils mehrere Subtypen einteilen, wobei der HCV Subtyp 1b in Europa am häufigsten vorkommt. Die Hepatitis C Forschung wurde lange Zeit durch das Fehlen eines geeigneten Zellkulturmodells erschwert. Mit der Etablierung eines stabil replizierenden Zellkulturmodells in humanen Hepatomazellen 1999 durch Lohmann et al. wurden erstmals molekularbiologische Untersuchungen in grossem Umfang möglich. Die seither existierenden Zellkulturmodelle haben jedoch den Nachteil, dass nicht definiert ist, wie sich das Isolat, aus dem das Replikon geschaffen wurde, klinisch verhält. Unter einer Interferon-basierten Therapie sprechen manche Patienten mit einer dauerhaften Negativierung der HCV RNA Konzentration an (sustained responder, SR), während bei anderen sowohl während als auch nach Therapieende weiterhin HCV RNA im Blut nachweisbar ist (non-responder, NR), obwohl beide Patienten mit demselben Subtyp von HCV infiziert sind und dieselbe Therapie erhalten. Die Ursachen für dieses unterschiedliche Therapieansprechen sind basierend auf Mutationsstudien von HCV Isolaten von Patienten mit unterschiedlichem Therapieansprechen zumindest teilweise genomisch bedingt. Daher wurden in der vorliegenden Arbeit zwei Konsensusklone zur Einbringung in ein replikatives Zellkulturmodell aus HCV Subtyp 1b Isolaten geschaffen, deren klinisches Verhalten unter Therapie klar charakterisiert ist. Dazu wurde Serum von je einem Patienten herangezogen, der unter definierten Studienbedingungen als SR oder NR bekannt war. Aus den Sera wurde die Virus-RNA extrahiert und mit Hilfe eines eigens dafür entwickelten RT-PCR-Protokolls und anschließender Klonierung in E. coli vervielfältigt. Um zufällige Mutationen und seltene Quasispezies auszuschließen, wurde dann nach vollständiger Sequenzierung von jeweils vier Einzelklonen mittels gezielter Mutagenese und Umklonierung eine Konsensussequenz geschaffen, die einen Durchschnitt der am häufigsten vorkommenden Quasispezies darstellt. Diese Konsensusklone wurden in einen Vektor zur Herstellung von RNA Transkripten eingefügt, so dass die Transkripte direkt zur Einbringung als Replikons in Zellkulturen genutzt werden können. Mit diesen klinisch charakterisierten Isolaten kann nun erstmals nach Unterschieden geforscht werden, die ursächlich für Therapieerfolg oder –misserfolg sein könnten. So können eventuell neue Therapieformen gefunden oder bereits vor Beginn einer Therapie eine Aussage zur Prognose getroffen werden.
Diese Studie untersuchte die relevanten Eigenschaften von Location-based Services, welche von prospektiven Nutzern erwartet werden, um mit der Nutzung dieser neuen Dienste zu beginnen. Dabei modellieren wir die Einflußfaktoren nach der Theorie der Diffusion von Innovationen und überprüfen diese durch eine empirische Befragung. Die Ergebnisse sind im folgenden Text dargestellt. Die wesentlichen Ergebnisse waren: • Die individuelle Nützlichkeit eines Angebots ist der stärkste Einflußfaktor auf die Adoption. • Überzeugende Datenschutzkonzepte stehen an zweiter Stelle. • Benutzerergonomie bei der Dienstenutzung sowie die leichte Verständlichkeit und Kommunizierbarkeit der Dienste und ihrer Anwendung sind wesentlich. Eine Einführung in die Diffusionstheorie und weitere Details zur Studie finden Sie im Text.
Der "Schwangerschaftstumor", auch als Granuloma gravidarum bezeichnet, ist nicht neoplastischer, eher hyperplastischer Natur. Aufgrund seines schnellen Wachstums wird er häufig als malignes Geschehen mißgedeutet. Der Schwangerschaftstumor ist ein entzündliches Geschehen, welches durch lokale Reizfaktoren ausgelöst wird. Das Besondere hier ist, daß aufgrund der veränderten Hormonlage während der Schwangerschaft die Bereitschaft der Gingiva erhöht wird, auf die genannten Faktoren zu reagieren. Mit dieser Hyperplasie vergesellschaftet ist häufig eine Gingivitis in der Schwangerschaft. Aus dieser Erkenntnis leitet sich auch die Therapie des Schwangerschftstumors ab, welche primär darin besteht, die Reizfaktoren zu eliminieren und für eine gute Mundhygiene zu sorgen. Erreicht wird dies durch Zahnreinigungsmaßnahmen und Mundhygieneinstruktionen zur Optimierung der häuslichen Zahnpflege. Persistiert der "Tumor", kann auch chirurgisch interveniert werden. In einer eigenen Erhebung konnten 2 Verdachtsfälle eines Schwangerschaftstumors der Gingiva festgestellt werden.
Die Dissertation geht der Frage: Was ist Bildung? aus kulturtheoretischer Perspektive nach und diskutiert kritisch die vorherrschenden universalistischen Annahmen. Ausgangspunkt dieser auch empirisch angelegten Untersuchung waren zunächst unsystematische Beobachtungen über die Bedeutung von Bildung in Indien. Ein erster Fokus ist auf die Frage gerichtet, welche Sinnzuschreibungen mit dem Begriff Bildung korrespondieren und wie das konstitutiv reflexive Verhältnis von Sinn und Kontext bzw. Kultur zu fassen ist. Theoretisch wird von einem sinntheoretischen Modell ausgegangen - vor allem in den systemtheoretischen Neufassungen von Niklas Luhmann. Auch die Ausführungen über kompatible Kulturkonzepte orientieren sich an dem systemtheoretischen Paradigma. Das von Luhmann entwickelte Konzept der Semantik wird als Erklärungsansatz aufgenommen und im Anschluss daran die Frage spezifiziert, welche Verknüpfungen und funktionalen Zusammenhänge zwischen der mit dem Begriff education verbundenen „gepflegten Semantik“ und dem mit ihr strukturell gekoppelten Sozialsystem identifiziert und rekonstruiert werden können. Indien bietet sich wegen der traditionell exponierten gesellschaftlichen Rolle von Bildung für eine Analyse des engen Zusammenhangs von Semantik und Sozialstruktur in besonderer Weise an. Erinnert sei hier nur an die historisch signifikante Bedeutung der Brahmanenkaste. Die semantischen Konstrukte über Bildung, die sich in einem urbanen, indischen Mittelschichtkontext zeigen, so ein Ergebnis, weisen auf ein zunehmendes Misstrauen gegenüber den etablierten und traditionellen Erziehungs- und Sozialisationsformen hin, mit Folgen für die Selbst- und Fremdkonstruktion sowie auch für generelle Biographisierungsprozesse. In die Semantik sind Formen eingelagert, die die sozialen Inklusions- und Exklusionsprozesse entscheidend beeinflussen. Die Dignität dieser Semantik wird in Anlehnung an Jürgen Schriewer et. al. und allgemein an das Konzept der Externalisierung als ‚indischer Weg’ der Entwicklung interpretiert. Das Misstrauen gegenüber den traditionellen Erziehungs- und Bildungsmustern lässt sich strukturell abstrakter als Transformationsprozess von der Sanskritization zu einer Educationization beschreiben. Unter Sanskritization wird dabei in Anlehnung an Srinivas eine traditionelle Mobilitätsform von Gruppen im hierarchischen Kastensystem verstanden. Die Educationization impliziert ähnlich wie Sanskitization eine starke Differenzformel mit Orientierungswert unter anderem für soziale wie personale Beobachtungen, Wahrnehmungen und Beurteilungen. Sie ist jedoch ein Instrument, das besser an die Anforderungen einer modernen Gesellschaft angepasst zu sein scheint und gegenüber traditionelleren Formen wie Sanskritization neue und angemessenere Anschlussmöglichkeiten bietet. Die damit verbundenen Veränderungen der indischen Gesellschaft, die von den einen als Modernisierung gefeiert und von anderen als Erosion der bestehenden Kultur scharf kritisiert werden, hinterlassen aber Spuren, die in unterschiedliche Richtungen weisen.
Die Präsenz in den Hauptversammlungen der großen deutschen Aktiengesellschaften ist seit Jahren rückläufig. Die durchschnittliche Hauptversammlungspräsenz bei den 30 DAXnotierten Unternehmen lag 2005 nur noch bei 45,87 %, gegenüber immerhin 60,95 % im Jahr 1998. Im Zusammenhang mit den Initiativen institutioneller Anleger bei der Deutschen Börse AG im Sommer diesen Jahres hat die Besorgnis zugenommen, Minderheiten könnten die Abwesenheit von mehr als der Hälfte der Stimmberechtigten dazu nutzen, in den Hauptversammlungen verstärkt Einfluss auf weitreichende Unternehmensentscheidungen auszuüben, um Sondervorteile zu erzielen. Unabhängig davon ist jedenfalls zu berücksichtigen, dass bei geringer Hauptversammlungspräsenz unter Umständen eine kleine Kapitalminderheit Entscheidungen trifft, bei denen sie nicht von denjenigen, die diese Entscheidungen gleichfalls betrifft, kontrolliert und, falls erforderlich, korrigiert wird. Um dem Problem sinkender Hauptversammlungspräsenzen zu begegnen, werden auf nationaler wie internationaler Ebene verschiedene Maßnahmen erwogen. Im Zusammenhang mit der Vereinfachung der Vertretung der Aktionäre in der Hauptversammlung wird vorgeschlagen, über den in § 134 III S. 3 AktG bereits vorgesehenen Stimmrechtsvertreter der Gesellschaft (sog. Proxy-Stimmrecht) hinaus einen von der Gesellschaft unabhängigen Stimmrechtsvertreter gesetzlich vorzusehen. Im Übrigen gehen die Empfehlungen von der verstärkten Nutzung neuer technischer Kommunikationsmittel bei der Stimmabgabe (Stichwort „virtuelle Hauptversammlung“) bis zur verstärkten Einführung von Namensaktien, um die Kommunikation mit den Aktionären zu erleichtern. Als Antwort auf den zunehmenden Einfluss internationaler Investoren, die derzeit aus Zeit- und Kostengründen, wegen sprachlicher Probleme, zu knapp bemessener Einladungsfristen oder Störungen des Informationsflusses zwischen ihnen und der Gesellschaft regelmäßig nicht an den Hauptversammlungen europäischer Aktiengesellschaften teilnehmen, arbeitet die Europäische Kommission zudem an einem Richtlinienentwurf, der die grenzüberschreitende Stimmrechtsausübung fördern soll. Im Zusammenhang hiermit sind auch auf die Bemühungen der Europäischen Kommission zu sehen, mittelfristig eine verstärkte Offenlegung der Anlage- und Abstimmungsstrategien institutioneller Investoren zu erreichen. Hierdurch soll eine intensivere Mitwirkung dieser Aktionärsgruppe in den Angelegenheiten der Gesellschaft gewährleistet werden. Die verstärkte Teilnahme bzw. die Offenlegung des Abstimmungsverhaltens von Investmentfonds, Versicherungen und Pensionskassen ist auch Inhalt von Empfehlungen nationaler sowie internationaler Organisationen. Bereits in der letzten Legislaturperiode hat die Arbeitsgruppe Finanzmarktgesetzgebung des Justiz- und Finanzministeriums den Vorschlag eines sog. Dividendenbonus für diejenigen Aktionäre erwogen, die ihr Stimmrecht in der Hauptversammlung ausüben. Im Anschluss daran entwickelte sich eine lebhafte Diskussion, in der sich sowohl Stimmen in der Literatur als auch Interessenverbände für die Einführung eines finanziellen Anreizsystems für Aktionäre in Form eines Dividendenbonus aussprachen. Vorbildfunktion für eine entsprechende Regelung in Deutschland wird dabei der spanischen Hauptversammlungspraxis zugesprochen. Dort geben die meisten großen Unternehmen des spanischen Standardwerteindex Ibex 35 einen finanziellen Anreiz für die Hauptversammlungspräsenz. Die Zahlungen liegen zwischen zwei und zehn Cent pro Aktie. Hierdurch konnte das Interesse am Besuch der Hauptversammlung generell gesteigert werden. Der Energiekonzern Endesa schaffte es mit einem Bonus von zwei Cent, die Präsenz von 37 % auf 66 % nahezu zu verdoppeln. Diese Erfolge in Spanien sind darauf zurückzuführen, dass die dortigen Depotbanken durch die Auszahlung der sog. prima de asistencia dazu veranlasst wurden, sich im Dienste einer bestmöglichen Wahrnehmung der Interessen ihrer Kunden auch ohne ausdrückliche Aufforderung um eine entsprechende Stimmrechtsvollmacht zu bemühen. Im Folgenden wird versucht darzulegen, wie die Regelung eines finanziellen Anreizes zur Stärkung der Hauptversammlungspräsenzen sinnvoll gestaltet werden könnte und welche gesetzgeberischen Schritte notwendig sind, um die Zahlung eines Bonus für die Präsenz in der Hauptversammlung zu ermöglichen.
Die Auswertung der Stratigraphien und Keramikinventare des Final Stone Age aus dem südwestlichen Tschadbecken führte zu einer zeitlichen Gliederung der Inventare. Durch die vorgestellten Analysen zu Merkmalen der Keramikform, -technik und -verzierung wurden zwei Stilgruppen - der ältere und der jüngere Gajigannastil - definiert und beschrieben. Für die jüngere Gajiganna Stilphase war eine weitere Unterteilung in drei Stufen möglich, die die keramische Entwicklung zwischen 1.500 BC bis ca. 800 BC gliedern. Das gelang bisher noch nicht mit Keramik der älteren Stilphase. Die Analyse der Grabungsprofile brachte Hinweise zu Speichergruben, ermöglicht Spekulationen über Lehmbauten in Fundplätzen der jüngeren Gajigannaphase und läßt Rückschlüsse auf eine stärkere Geländeprofilierung als die heute anzutreffende zu. Die Einordnung der begangenen Plätze in die Stilgruppen zeigte keine wesentlichen Unterschiede bei der Wahl der Siedlungsplätze. Die Randlage zu den vermutlich nicht nur saisonal gefluteten Tonebenen ist für beide bezeichnend. Die Siedlungsplätze boten in dieser Lage einige Vorteile. Die Sandgebiete dienten als Weiden für Rinder. Fischfang konnte an den Ufern der überschwemmten Gebiete betrieben werden, die ebenfalls ein reiches Reservoir an Wildpflanzen boten, die das Nahrungsangebot ergänzten. Ein Vergleich der Inventare mit anderen westafrikanischen Fundplätzen zeigt, daß die ältere Keramikphase der Gajiganna-Gruppe in einen überregionalen Verzierungstil eingebettet ist, der durch Winkelbänder und dreieckige Einstiche charakterisiert wird und sich über ein weites Gebiet zwischen Sudan im Osten und Niger im Westen spannt. Die hier vorgestellte Keramik der Phase I ist der südlichste Vertreter dieses Verzierungshorizontes. Die jüngere Stilphase konnte bisher nur kleinräumig nachgewiesen werden. Ihr Verbreitungsgebiet scheint auf das Tschadbecken beschränkt zu sein. Das mag entweder im gegenwärtigen Forschungsstand oder in einer um die Mitte des zweiten Jahrtausends beginnenden Regionalisierung der Keramikstile begründet sein. Die einzelnen Ergebnisse flossen in eine modellhafte Abhandlung zur Besiedlungsgeschichte des südwestlichen Tschadbeckens ein. Diese wäre unvollständig gewesen ohne die Ergebnisse der Archäobotanik und der Archäozoologie. Der Nachweis von domestizierter Hirse in den Fundplätzen der jüngeren Gajiganna-Gruppe ab der Stufe 2b ist ein wichtiges Ergebnis, das dazu beiträgt, die Veränderungen zu erfassen, die sich hinter dem Stilwechsel in den Keramikinventaren verbergen. Es scheint so, als hätte sich eine Verschiebung in der Gewichtung von Viehzucht zu Ackerbau vollzogen. Eine Veränderung des Siedlungsverhaltens mit engerer Bindung an die genutzte Fläche könnte eher die Vorbedingung als die Folge gewesen sein. Größere Platzkontinuität ist bereits in Phase 2a zu vermuten, sichtbar gemacht durch die hier erstmalig auftretenden komplexen Stratigraphien und wahrscheinlich begründet durch die verstärkte Nutzung von Wildgetreide. In Phase 2b wird domestiziertes Pennisetum bei einer weitgehend seßhaften Bevölkerung eingeführt. Kein radikaler Wechsel ist in den Strategien der Subsistenzwirtschaft zu beobachten. Stattdessen führt ein allmählicher Prozeß über einige hundert Jahre vom Viehzüchter zum Ackerbauern. Die Beziehungen zwischen den Fundstellen nördlich der Mandaraberge und denen im Gebiet um Zilum einerseits und den hier vorgestellten Fundstellen andererseits deuten auf eine regional in randliche Siedlungsgebiete verschobene Weiterentwicklung bis in die Eisenzeit, während die ehemaligen Kerngebiete wahrscheinlich von anderen Siedlern aus den Firki-Ebenen heraus besiedelt wurden. Offen bleiben müssen Fragen zu Hausbau, Siedlungsstruktur und Größe der Nutzflächen, die jeweils zu einer Siedlung gehörten. Auch fehlen noch hinreichende Daten, um die Beziehungen der Siedlungen untereinander zu erfassen und eventuell vorhandene Netzwerkstrukturen auszuarbeiten. Hier ergeben sich weitere Forschungsfelder, die zu neuen Erkenntnissen zur Stellung des Gajigannakomplexes im Kontext der westafrikanischen Prähistorie führen werden.
Die Inhibition des Natrium-Protonen-Austauschproteins, Subtyp-1 (NHE-1), stellt möglicherweise ein wichtiges Prinzip zur Behandlung der Herzhypertrophie und damit der frühen Herzinsuffizienz dar. Als Ausgangspunkt dieser Arbeit konnte gezeigt werden, dass der oral bioverfügbare und selektive NHE-1-Inhibitor Cariporide dabei u.a. in einem transgenen Tiermodell wirkt, bei dem die Hypertrophie nicht durch Myokardinfarkt, sondern mittels transgener Überexpression des beta-1-adrenergen Rezeptors erzeugt wurde, die Hypertrophie-Entwicklung verhinderte. Um die Wirkung und vor allem den Wirkmechanismus von NHE-1-Inhibitoren näher zu untersuchen, wurde in der vorliegenden Arbeit ein zelluläres Modell der alpha-1-adrenergen Hypertrophie-Induktion in adulten Kardiomyozyten aus Rattenherzen aufgebaut und mittels gängiger Parameter wie Zellvolumen, Protein und RNA-Neusynthese validiert. Dabei konnte ein klassenspezifischer Hemmeffekt aller eingesetzten NHE-1-Inhibitoren auf die untersuchten Hypertrophie-Parameter gezeigt werden. Interessante molekulare Mechanismen der Hypertrophie-Inhibition durch spezifische NHE-1- Inhibitoren konnten in der vorliegenden Arbeit aufgedeckt werden. Nach alpha-1-adrenerger Stimulation und gleichzeitiger NHE-1-Inhibition waren nur wenige Gene in ihrer Expression deutlich differentiell reguliert, darunter der Angiotensin-II AT-1 Rezeptor und die sogenannte Rho-kinase (ROCK). Aus dieser Erkenntnis heraus ergeben sich neue mögliche Ansatzpunkte zum Wirkmechanismus von NHE-1-Inhibitoren. Im Gegensatz zu Befunden bei Herzischämie scheint es bei der Herzhypertrophie im vorliegenden Modell keine Kopplung zwischen dem NHE-1 und einem weiteren Austauschprotein, dem Natrium-Calcium-Austauscher, zu geben. Die Hypertrophie der adulten Kardiomyozyten ließ sich nicht durch einen selektiven Hemmstoff dieses Austauschers, SEA0400, hemmen. Bei näherer Untersuchung auf Translationsebene zeigten sich überraschende Ergebnisse, die für eine Hemmung der Hypertrophie-Entwicklung in Anwesenheit eines NHE-1-Inhibitors verantwortlich gemacht werden könnten. So war auf der einen Seite die Translokation von in adulten Kardiomyozyten exprimierten PKC-Subtypen (delta und eta) vom Zytosol an die Plasmamembran durch die NHE-1-Inhibition signifikant beeinflusst. Auf der anderen Seite war die Phosphorylierung bestimmter NHE-1-aktivierender Kinasen über den gesamten betrachteten Zeitraum verstärkt vorhanden. Diese Ergebnisse legen nahe, dass neben möglichen Autoregulationseffekten in der Zelle, ausgelöst durch eine NHE-1-Inhibition, eine weitere Wirkkomponente eine Rolle bei der Beeinflussung intrazelluläre membranabhängiger Translokation spielen könnten.
Die vorliegende Arbeit befasste sich mit der Entwicklung und der Aufbau einer neuartigen Fingerdriftröhren-Struktur als Teil des neuen Vorbeschleunigers COSY-SCL am Kernforschungszentrum in Jülich. In dieser Arbeit wird die Entwicklung der Spiralresonatoren beschrieben, die als Nachbeschleuniger direkt hinter den RFQs zum Einsatz kommen sollen. Als mögliche Option zur Verbesserung der Strahlqualität wurden Fingerdriftröhren vorgeschlagen. Mit Hilfe dieser Struktur ist es möglich, mit geringer zusätzlicher Leistung eine Fokussierung des Ionenstrahls in der beschleunigenden Struktur zu erreichen. Dies war bisher nur bei niedrigen Energien mit der RFQ-Struktur möglich. Bei höheren Energien ist man stets auf magnetische Quadrupollinsen angewiesen. Dies führt jedoch gerade in einem Geschwindigkeitsbereich bis ca. 10 % der Lichtgeschwindigkeit zu Problemen, da die zur Verfügung stehenden Abmessungen zu gering sind. Nachdem zunächst das COSY-SCL Projekt vorgestellt wurde und die grundlegende Theorie für RFQ und Driftröhrenbeschleuniger behandelt wurde, wurden in Kapitel 5 Rechnungen zur Strahldynamik mit dem Programm RFQSIM vorgestellt. Aufgrund der hohen benötigten Gesamtspannung fiel die Entscheidung, einen Vierspaltresonator mit einer geerdeten Mitteldriftröhre aufzubauen. Durch diese Veränderung wurde es möglich, die Feldstärken in den einzelnen Spalten gleichmäßiger zu verteilen und niedriger zu halten, und die benötigte Verlustleistung zu minimieren. Die Teilchendynamik in einem Beschleunigungsspalt mit Fingerelektroden wurde mit einem neuen Transportmodul in RFQSIM untersucht, das den Transport geladener Teilchen durch beliebige dreidimensionale Elektrodenkonfiguration ermöglicht. Mit Hilfe der Fingerdriftröhren ist es möglich, die transversale Ausdehnung des Strahls am Ausgang des Nachbeschleunigers zu verringern und die Anpassung an einen folgenden Beschleuniger zu vereinfachen, ohne das große Einbußen bezüglich der Effektivität der Beschleunigung in Kauf genommen werden müssen. Um die HF Eigenschaften der beiden Beschleunigerstrukturen zu vergleichen, wurden sie mit dem MWS Programm numerisch berechnet. Um genauere Aussagen über die Eigenschaften des elektrischen Feldes zu machen, wurde eine Multipolanalyse der Felder durchgeführt. Damit lässt sich eine Aussage über die Stärke der Fokussierung und mögliche Feldfehler machen. Dabei zeigte sich, dass die auftretenden Feldfehler vernachlässigbar klein sind und sogar störende Effekte unterdrückt werden. Abschließend wurde der Aufbau des Resonators und den daran durchgeführten Messungen auf Meßsenderniveau behandelt. Resultat dieser Untersuchungen ist eine Struktur, die sehr gut und effektiv als Nachbeschleuniger hinter dem RFQ für COSY-SCL eingesetzt werden kann. Durch den Einsatz der Fingerdriftröhren kann mit einer einzelnen Struktur sowohl die Aufgabe der Beschleunigung als auch der Fokussierung bei mittleren Teilchenenergien bewältigt werden. Der neue fokussierende Spiralresonator entspricht in seinen Eigenschaften einer RFQ-Struktur für höhere Teilchengeschwindigkeiten. Die Ergebnisse dieser Arbeit zeigen, wie attraktiv eine solche Lösung mit Fingerdriftröhren ist. Deshalb ist geplant, in einem nächsten Schritt Strahltests durchzuführen, da die beschriebene Driftröhrenstruktur mit ihren Eigenschaften sehr gut für die Beschleunigung von Ionen in dem Geschwindigkeitsbereich zwischen RFQ- und IH Struktur geeignet ist und ein Einsatz z.B. in dem FLAIR Projekt möglich wäre.
In der vorliegenden Arbeit wird das Auslesekonzept der Driftkammern untersucht und seine Integration in das HADES Datenaufnahmesystem beschrieben. Bedingt durch das mehrstufige Triggersystem und die hohen Anforderungen an die Geschwindigkeit des Systems wurden Methoden zur Datenreduktion entwickelt. Dadurch ist es möglich, die Daten von allen 27 000 Kanälen innerhalb von 10 µs nach dem Trigger auszulesen. Die Daten werden innerhalb von ungefähr 40 ns nach dem Signal der zweiten Triggerstufe weitertransportiert. Im Rahmen der Untersuchungen zur Überwachung der Driftkammerdaten, die im zweiten Teil der Arbeit beschrieben werden, wurde mit der verwendeten Methode zur Bestimmung der intrinsischen Auflösung eine deutliche Verschlechterung Auflösung der Kammern festgestellt, von 120 µm im November 2001 auf über 200 µm im September 2003. Als Ursache hierfür wurde zum einen die geänderte Kalibrationsmethode ausgemacht, die die Laufzeiten der Signale nicht mehr berücksichtigt, zum anderen eine Änderung der Driftgeschwindigkeit aufgrund einer nicht optimalen Hochspannung. Die Methode zur Bestimmung des physikalischen Zentrums der Kammern erlaubt eine Aussage über die Position der Kammern relativ zur Sollposition. Die dabei gefundenen Verschiebungen entlang der z - Achse stimmen für einen Teil der Sektoren mit den im Rahmen des Alignments ermittelten Werten für die Verschiebung des Targets überein. Für die anderen Sektoren ergeben sich zusätzlicher Verschiebungen um 2 bis 6 cm. Das Di - Leptonen - Spektrometer HADES (High Acceptance Di -Elektron-Spektrometer) am Schwerionensynchrotron der Gesellschaft für Schwerionenforschung (Darmstadt) beginnt nun mit detaillierten Studien leptonischer Zerfälle von Vektormesonen in Kern - Kern - Stößen mit Projektilenergien von 1 bis 2 GeV / Nukleon. Dabei liegt der Schwerpunkt auf der Untersuchung von Zerfällen, die in der Phase hoher Dichte (ungefähr 3 · p..0) und hoher Temperatur stattfinden. Es wird erwartet, daß sich aus der dabei zu beobachtenden Massenverteilung der unterhalb der Schwelle produzierten leichten Vektormesonen r, o und ph ein Hinweis auf die partielle Wiederherstellung der im Vakuum gebrochenen chiralen Symmetrie ergibt.
Band 1 beinhaltet die alphabetische Gliederung und Band 2 die Gliederung nach der ehemaligen Aufstellung des Kataloges der Bibliothek der deutschen Kolonialgesellschaft. Diese Bibliothek bildet heute die größte und wichtigste geschlossene Gruppe der Sammlung ist die Deutsche Kolonialbibliothek. Sie war im 2. Weltkrieg in einem Thüringer Bergwerk ausgelagert, und wurde nach dem Krieg mit nur relativ wenig Verlusten dem Haus übergeben. Das unschätzbare Grundmaterial der Kolonialbibliothek gab 1964 der Deutschen Forschungsgemeinschaft Anlaß, die Sondersammelgebiete "Afrika südlich der Sahara", "Ozeanien" und teilweise auch die "Allgemeine und vergleichende Völkerkunde" auf die Bibliothek zu übertragen. Dadurch wurde die zeitgerechte Basis zur ständigen Ausweitung der Bestände geschaffen. In der 2. Hälfte des 19. Jahrhunderts entstanden zahlreiche Vereine, die sich um die Betreuung deutscher Auswanderer sowie die Verbreitung kolonialer Ideen bemühten. 1887 verschmolzen die beiden wichtigsten konkurrierenden Vereinigungen, der Deutsche Kolonialverein und die Gesellschaft für Deutsche Kolonisation zur "Deutschen Kolonialgesellschaft" (DKG). Die Mitgliederzahl stieg von 14.800 am Anfang auf 42.600 im Jahre 1914. In den dreißiger Jahren schließlich wurden alle Institutionen der deutschen Kolonialbewegung unter dem Namen Reichskolonialbund zusammengefaßt. 1943 wurde der RKB wegen kriegsunwichtiger Tätigkeit aufgelöst. Die Deutsche Kolonialbibliotbek besteht aus den Bibliotheken mehrerer Kolonialverbände; den größten Bestand brachte die Bibliothek der Deutschen Kolonialgesellschaft ein. Die Kolonialbibliothek enthält etwa 18.000 Monographien zum Kolonialwesen sowie zahlreiche Zeitschriften, die in den allgemeinen Zeitschriftenbestand der StuUB überführt wurden. Der Originalkatalog der Bibliothek existiert noch in seiner alten Form; eine Konkordanz zwischen den Originalsignaturen und den Signaturen der Stadt- und Universitätsbibliothek ist vorhanden. Inhaltlich gliedert sich die Kolonialbibliothek in zwei Bereiche: Literatur zum allgemeinen Kolonialwesen (einschließlich Wirtschaft, Bergbau und Mission) und zu einzelnen Regionen (davon befassen sich ca. 40 Prozent mit Asien, der Südsee und Amerika und ca. 60 Prozent mit Afrika, davon wiederum etwa die Hälfte mit "Deutsch-Afrika"). Es handelt sich bei dem Material um amtliches Schrifttum der europäischen Kolonialmächte sowie um Amtsdrucksachen der Kolonien selbst. Zum anderen enthält die Bibliothek eine Literatursammlung zu allen Fachbereichen, bezogen auf das jeweilige kolonisierte Land: von der Geographie und Wirtschaft bis zur Völkerkunde, einschließlich Vokabelsammlungen und Texten in einheimischen Sprachen, sowie Trivialliteratur, sogenannte Kolonialromane. Die deutsche Kolonialzeit sowie die deutschen Kolonien sind hier in einer Vollständigkeit vertreten wie wohl kaum in einer anderen Bibliothek. Die anderen Kolonialmächte dürften nur jeweils im eigenen Land besser dokumentiert sein. Das Bildarchiv, das zusammen mit. der Bibliothek übergeben wurde, ist digitalisiert und über das Internet ansehbar. Da in der Bibliothek das Portugiesische Kolonialreich praktisch nicht berücksichtigt war, wurde 1973 eine ca. 4200 Titel zählende Sammlung zur portugiesischen Kolonisation in Afrika erworben. Das Bildarchiv ist im Internet verfügbar unter http://www.ub.bildarchiv-dkg.uni-frankfurt.de .
Aufgebautes Zwei-Farben Lasersystem: Das für diese Arbeit aufgebaute Zwei-Farben Lasersystem erfüllt im Hinblick auf Abstimmbarkeit wie auch auf die erreichbare Ausgangsleistung die für diese Arbeit gesetzten Ziele. Für weiterführende Experimente muss allerdings berücksichtigt werden, dass für eine Steigerung der Ausgangsleistung, wie auch eine weiterführende Stabilisierung weitere Untersuchungen nötig sind, bei denen aber das jetzige System als Grundlage dienen kann und die mit ihm gewonnenen Erkenntnisse berücksichtigt werden müssen. Auch die verwendete Nahfeld-Beleuchtung erfüllt vor allem mit der automatischen Steuerung verknüpft wertvolle Dienst bei der Charakterisierung der untersuchen LT-GaAs Photomischer. Dieses System ist allerdings nicht geeignet, als direkter Entwurf für das endgültige System des SOFIA- oder ALMA-Projektes anzusehen, was auch nie seine Aufgabe war. Numerische Simulation: Die in dieser Arbeit vorgestellte numerische Simulation des DC-Stromverhaltens stellt einen guten Ansatz dar, die Effekte, die durch eine inhomogene Beleuchtung der Photomischer bedingt durch die verwendete Glasfaser entstehen, quantitativ und qualitativ zu erfassen und sie mit realen Photomischern und den durchgeführten Messungen in Verbindung zu bringen. Durchgeführte Nahfeld-Messungen: Die in dieser Arbeit vorgestellten automatischen Nahfeld-Messungen über einen 1D- und 2D-Bereich ermöglichen mit Hilfe des aufgebauten Lasersystems die in dieser Arbeit untersuchten LT-GaAs Photomischer in ihrem Verhalten zu untersuchen, wie es auch möglich ist, ein vollständiges Kennlinien-Feld aufzunehmen.
1. Das Gemeinschaftsrecht garantiert durch Art. 108 EGV umfassend die Weisungsfreiheit der Europäischen Zentralbank und der nationalen Zentralbanken als Institution. Diese Garantie erfasst auch die natürlichen Personen, die Mitglieder der Entscheidungsgremien sind. 2. Hinzu treten weiter Regelungen des Gemeinschaftsvertrages und der Satzung von ESZB und EZB, welche diese Garantie zu einer allgemeinen Unabhängigkeitsgarantie ausbauen und verstärken. 3. Garantiert ist vor allem auch die persönlicher Unabhängigkeit der Mitglieder in den Entscheidungsgremien. 4. Von wenigen Ausnahmen abgesehen, sind diese Regelungen für das sekundäre Gemeinschaftsrecht unantastbar. Als Teil des primären Gemeinschaftsrechts können sie prinzipiell nur durch Vertragsänderung, also einstimmig verändert werden. 5. Diese europarechtlichen Garantien werden über Art. 88 Satz 2 GG für die Bundesbank als integrales Bestandteil des ESZB in das deutsche Verfassungsrecht transponiert. Daraus ergibt sich eine „gemeinschaftsrechtlich vermittelte verfassungsrechtliche Unabhängigkeitsgarantie“ für die Bundesbank. 6. Die Regelung ist mit dem Demokratieprinzip vereinbar. 7. Änderungen der umfassenden Garantie können die verfassungsrechtlichen Voraussetzungen für die Übertragung der währungs- und notenbankpolitischen Befugnisse auf das ESZB entfallen lassen. 8. Der Entwurf einer Verfassung für Europa enthält keine verfassungsrechtlich relevanten Relativierungen der Unabhängigkeitsgarantie. 9. Das Ziel der Preisstabilität hat den ihm gebührenden Rang behalten. Bei genauer Analyse zeigt sich auch, dass sein besonderer Rang für die Tätigkeit des ESZB nicht beeinträchtigt ist. 10. Ein Vergleich der verschiedenen sprachlichen Fassungen des Verfassungsvertrages zeigt auch, dass – entgegen dem deutschen Text – die EZB nicht als – möglicherweise weniger unabhängiges - Organ der EU, sondern als sonstige Einrichtung eingestuft worden ist.
Im Jahr 2003 innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Sabine Nessel eröffnete die Vortragsreihe mit Beobachtungen zum Lektürebegriff hinsichtlich des Phänomens Film: am Beispiel von Otto Premingers "Bonjour Tristesse" zeigt sie, wie die seit den späten 1960er Jahren übliche Übertragung des Textparadigmas auf den Film im Folgenden eine Erfassung des „Erlebnis Kino“ als Ereignis verstellte. Im Durchgang durch verschiedene Filmtheorien zeigt sie auf, dass Filme zwar "gelesen" aber auch auf einer Ebene jenseits des Kino-Texts somatisch rezipiert – "genossen" – werden, dass also die Begriffe Film, Text und Lesen auf die Bereiche Kino, Ereignis und Erleben hin zu erweitern sind.
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Irene Pieper beschäftigt sich aus literaturdidaktischer und lesesoziologischer Perspektive mit der kulturellen Praxis des Lesens. Ihr Beitrag entwickelt systematisch, worin die "Kunst" des literarischen Lesens im Einzelnen besteht und wie diese Kompetenz methodisch in der Auseinandersetzung mit dem Gegenstand Literatur zu erwerben bzw. zu vermitteln ist. Ein kompetenter Leser zu werden heißt, ein breites Spektrum von Fähigkeiten zu erwerben, das vom Realisieren der poetischen Funktion der Literatur über die Empathiefähigkeit bis hin zur Lust am Text reicht. Der Beitrag lotet aus, in welcher Weise vor allem die Schule, die außerhalb der Familie Begegnungen mit und Kommunikationen über Literatur herbeiführt und anregt, an der Bildung solcher Leser und Leserinnen mitwirken kann.
Protected Mode
(2005)
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Gegenstand von Harald Hillgärtners Untersuchung ist die Frage nach der Lesbarkeit des Computers, vielmehr seiner System- und Programmcodes. Gilt der Computer einerseits als "Textmaschine", die endlose Schreib- und Leseakte prozessiert, so finden jene Programmabläufe doch zumeist jenseits der für alle zugänglichen Benutzeroberflächen statt, die ihrerseits in immer stärkerem Maß mit Icons – Bildern – arbeiten. Und selbst im Falle von frei zugänglichen Software-Codes ist zu fragen, um welche Art Text es sich hier handelt – ob in diesen Fällen gar von Literatur die Rede sein kann. Insofern ist die Frage nach der Lesbarkeit des Computers nicht nur eine Frage nach der Zukunft des Lesens (geht es um Sinn oder um Information?) sondern vielmehr nach dem (Zu-)Stand unserer Schriftkultur selbst.
Am 8 Juni 2004 innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Auch Musik wird "gelesen", nämlich immer dann, wenn es um theoretische Deutungen musikalischer Werke geht. Diese untersucht Ferdinand Zehentreiter, und zwar hinsichtlich der zwei gegensätzlichen Betrachtungsweisen, die sich traditionell in der Interpretation von Musik herausgebildet haben. Geht es einerseits um eine formale Zergliederung der Werke, so werden andererseits außermusikalische Inhalte zur philologischen Erforschung herangezogen. Demgegenüber steht die Beobachtung, dass Kompositionen immanent als Ausdrucks- oder Sinngebilde sui generis nur in Ausnahmefällen entschlüsselt werden, etwa bei E.T.A. Hoffmann, Roland Barthes oder Th. W. Adorno. Der Beitrag geht der Frage nach, ob und wie diese grundlegende Problemkonstellation der Musikwissenschaft heute überwunden werden kann.
Die rechtliche Beurteilung der Verwendung des Gewinns von Zentralbanken bewegt sich im Überschneidungsbereich von: 1) Währungsrecht 2) Finanzverfassungsrecht und 3) Finanzpolitik. Rechtliche Bedenken ergeben sich im Wesentlichen aus den verfassungsrechtlichen Vorgaben für die Staatsfinanzierung sowie aus der Garantie der Unabhängigkeit der Europäischen Zentralbank und der Bundesbank. Maßgebende Rechtsquellen sind sowohl das Recht der Europäischen Union als auch das deutsche Finanzverfassungsrecht, angereichert um das einfache Haushaltsrecht des Bundes.
Der vorliegende Beitrag - die stark überarbeitete Fassung des Vortrages "Lektüren des Unausdeutbaren ", den der Verfasser im Januar 2004 im Rahmen der kulturwissenschaftlichen Vortragsreihe GrenzBereiche des Lesens hielt - ist auch erschienen in: literatur für leser 27 (2004), Heft 4, S. 181-199. Ein Beispiel für die Schwierigkeit der literarischen Lektüre gibt Friedrich Schmidt. Er untersucht Lektüremöglichkeiten für das formale wie semantische "Abgebrochensein" des literarischen Kunstwerks der Moderne, wie es in den Fragmenten Kafkas seinen exponierten Ausdruck findet. In diesen Texten tritt zur äußeren Unabgeschlossenheit des Textkorpus ein brüchiges Sinngefüge: die Endlosigkeit der Reflexionen und Handlungszüge, die Heterogenität der Erzählfiguren, die Inkonsistenz jeder Bedeutungskonstruktion von Seiten des Lesers. Indem überdies der Abbruch, als verlorene Schrift oder verschwiegene Botschaft, in Kafkas Fragmenten explizit zum Thema wird, erhebt sich der Text gleichzeitig zum metareflexiven Kommentar: er vollzieht selbst, wovon er spricht. Insofern handelt er – sprachskeptisch – vom Defizit seines eigenen Ausdrucks, das letztlich auch von Lektüren nie vollständig eingeholt werden kann.
Am 3 Februar 2004 innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Die potentielle Unabschließbarkeit literarischer Lektüren ist oft mit der Metapher vom Text als Gewebe umschrieben worden. Uwe Wirth widmet sich ihr mit Blick auf den Grenzbereich eines anderen Mediums: des Computers. Findet sich im Hypertext die digitale Einlösung der Metapher vom Textgewebe, so stellt sich aufs Neue die Frage nach den Rollen von Autor und Leser: Der Hypertextleser wird zum editorialen "Spinner" eines Netzes aus semantischem und medialem Gewebe.
Zur Aktualität von Wagenscheins Schulkritik heute : das Wirklichkeits-Defizit im schulischen Lernen
(2005)
Die im Industriezeitalter und im globalen Mittel beobachtete Erwärmung der unteren Atmosphäre zeigt ausgeprägte regional-jahreszeitliche Besonderheiten (IPCC 2001, SCHÖNWIESE 2003, 2004). Dies gilt in noch höherem Maß für den Niederschlag (vgl. Kap. 3.1.2 und 3.1.8). Die Vermutung, dass eine solche Erwärmung zu einer Intensivierung des hydrologischen Zyklus führt, was im Prinzip zunächst richtig ist (vgl. Kap. 3.1.2), erweist sich jedoch als viel zu simpel, wenn daraus einfach auf eine generelle Niederschlagszunahme geschlossen wird. Dies gilt sogar innerhalb einer so kleinen Region wie Deutschland. Denn obwohl Deutschland im Mittel überproportional an der »globalen« Erwärmung teilnimmt (SCHÖNWIESE 2003, 2004), zeigen die Langzeitänderungen des Niederschlages im Detail ganz unterschiedliche Charakteristika. Dabei kann die hier vorgestellte Beschreibung der in Deutschland beobachteten Niederschlagtrends subregional noch wesentlich verfeinert werden, vgl. z.B. Analyse für Sachsen (FRANKE et al. 2004), da der Niederschlag eine nur geringe räumliche Repräsentanz aufweist (SCHÖNWIESE & RAPP 1997). Zeitliche Änderungen von Klimaelementen lassen sich nun in ganz unterschiedlicher Weise betrachten. Am meisten verbreitet sind lineare Trendberechnungen, wie sie auch einem Teil der hier vorliegenden Studie zugrunde liegen. Es können aber auch Trends anderer statistischer Kenngrößen als des Mittelwertes von Interesse sein, z.B. der Varianz. Häufigkeitsverteilungen, die in normierter Form Wahrscheinlichkeitsdichtefunktionen heißen, erlauben die Bestimmung solcher Kenngrößen in Form der Verteilungsparameter. Wird unter Nutzung geeigneter Verteilungen (z.B. Normal- oder Gumbelverteilung, vgl. unten Abb. 3.1.6-4) eine statistische Modellierung der jeweils betrachteten klimatologischen Zeitreihe vorgenommen, werden Aussagen über die Unter- bzw. Überschreitungswahrscheinlichkeiten bestimmter Schwellenwerte möglich, in verallgemeinerter Form für beliebige Schwellen und Zeiten (TRÖMEL 2004). Da dieser extremwertorientierte Aspekt von großer Wichtigkeit ist, soll auch ihm hier nachgegangen werden (vgl. alternativ Kap. 3.1.7 und 3.1.10). Die im Folgenden verwendeten Daten sind jeweils Monatssummen des Niederschlages 1901–2000 an 132 Stationen in Deutschland (teilweise unter Einbezug einiger Stationen in den angrenzenden Ländern), einschließlich der daraus abgeleiteten Flächenmittelwerte (sog. Rasterdaten; Quelle: Deutscher Wetterdienst, siehe u.a. MÜLLER-WESTERMEIER 2002; vgl. weiterhin RAPP & SCHÖNWIESE 1996, dort auch Hinweise zur Homogenitätsprüfung, sowie RAPP 2000).
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Ein weiterer medialer Wechsel vollzieht sich im Beitrag von Annette Becker, der dem Fernsehen, genauer: dem Fernsehinterview gilt. Anhand verschiedener Fernsehinterviews zum gleichen politischen Anlass wird gezeigt, dass und wie verschiedene Lesarten solcher Interviews mit linguistischen Mitteln greif- und analysierbar gemacht werden können.
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Manuel Gujber widmet sich einem vordergründig "sprachlosen" Gegenstand: der Architektur. Sein Interesse gilt dabei dem Spannungsverhältnis zwischen architektonischer Konstruktion und Oberfläche – der "Haut" des Hauses. So bietet die architektonische Oberfläche nicht nur fortwährend neue Möglichkeiten der Gestaltung sondern auch der Interpretation – Lesarten, in denen sich das Verhältnis zwischen "Haut" und "Haus" sowie von deren Wahrnehmung spiegelt.
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Thomas Küpper nimmt in seinem Beitrag das Kriterium der Wiederholungslektüre, das als Qualitäts- und Differenzmerkmal ästhetisch anspruchsvoller Literatur gilt, zum Anlass, die Grenzziehung zwischen Kitsch und Kunst genauer zu überdenken. Nicht die Wiederholungslektüre an sich macht bereits den Unterschied, vielmehr muss eine Unterscheidung zwischen verschiedenen Formen der Wiederholungslektüre getroffen werden. In systemtheoretischer Perspektive lässt sich eine solche typologische Differenzierung anhand des je spezifischen Verhältnisses von Medium, d.h. hier: der Gattungen, und der Form, d.h. der Texte, präzise vornehmen. Trivialliteratur unterscheidet sich dann von der Kunst, insofern ihre Medien der eigentlichen Formrealisierung nur wenig Spielraum lassen: Nicht die Abweichung, sondern die Bestätigung der gegebenen Schemata wird honoriert. Auch der Kitsch bietet Variationen des Bekannten, doch – und hier nähert er sich der Kunst an – die vertrauten und wiederholten Muster werden als einmalige und besondere Formen von bleibendem Wert inszeniert. Am Beispiel des Kultfilms "Pretty Woman" spielt Thomas Küpper diese unterschiedlichen Lektüren durch und zeigt an diesem vermeintlich eindeutig trivialen Fall, dass sich die Faszination des Films den vielen Wiederholungen verdankt.
Im wohl spektakulärsten Wirtschaftsstrafverfahren der deutschen Nachkriegsgeschichte, dem "Mannesmann-Prozeß", ging und geht es neben Barabfindungen von Versorgungsleistungen vor allem um die Zulässigkeit von Anerkennungsprämien für ausscheidende und bereits ausgeschiedene Vorstandsmitglieder. Das Verfahren vor der Wirtschaftsstrafkammer des Landgerichts Düsseldorf war nicht nur in den Medien, sondern auch in der aktien- und strafrechtlichen Literatur mit lebhaftem Interesse verfolgt worden. Nach sechsmonatiger Hauptverhandlung endete es zwar mit Freisprüchen für alle Angeklagten, aber auch mit dem Vorwurf gewichtiger Verstöße gegen das Aktienrecht. Das Urteil der Strafkammer ist gleichfalls bereits mehrfach in der wissenschaftlichen Literatur unter verschiedenen Gesichtspunkten ausführlich gewürdigt worden. Ein Ende der Diskussion ist noch nicht abzusehen, da gegen das Urteil Revision beim Bundesgerichtshof eingelegt worden ist. Die folgenden Bemerkungen befassen sich mit einem aktienrechtlichen Teilaspekt, der Zulässigkeit nachträglicher, im ursprünglichen Anstellungsvertrag eines Vorstandsmitglieds nicht vorgesehener Anerkennungsprämien.
Die zu erwartende vorzeitige Auflösung des Bundestages wird wohl dazu führen, daß der derzeit dem Parlament vorliegende Entwurf eines Gesetzes über die Offenlegung der Vorstandsvergütungen nicht mehr verabschiedet wird. Das bietet die Gelegenheit, die diesem Entwurf und dem in den Bundestag eingebrachten Entwurf der FDP-Fraktion zugrundeliegende Grundkonzeption darzustellen und im Hinblick auf eine spätere Gesetzgebung zu prüfen, ob die Entwürfe ihren Zielen gerecht werden (dazu unter II.). Zu erwägen ist überdies grundsätzlich, ob eine detaillierte gesetzliche Regelung zur Offenlegung der Vorstandsvergütungen anzuraten, oder ob es, wie vielfach vorgeschlagen, beim bisherigen Rechtszustand verbleiben sollte, wonach die gesetzliche Pflicht zu den pauschalen Vergütungsangaben gemäß §§ 285 Nr. 9, 314 Abs. 1 Nr. 6 HGB ergänzt wird durch die Empfehlung des Deutschen Corporate Governance Kodex (Ziff. 4.2.4 DCGK), in börsennotierten Gesellschaften die Vorstandsvergütungen individuell auszuweisen (dazu unten III.).
An die Signalübertragung im ZNS werden in bestimmten Entwicklungsstadien sehr unterschiedliche Anforderungen gestellt. Im adulten Gehirn dient sie nicht nur der Nachrichtenübermittlung, sondern auch der aktivitätsbasierten Umgestaltung neuronaler Verbindungen bei Lernprozessen und der regenerativen Umgestaltung nach Verletzungen. Im sich entwickelnden Gehirn werden schon frühzeitig Nervenzellen elektrisch erregbar und spontan aktiv. Diese elektrische Aktivität und die dadurch verursachte Transmitterausschüttung spielen bei der selektiven Stabilisierung von Synapsen und damit bei der Ausgestaltung des neuronalen Netzwerks eine große Rolle. Im ZNS von Vertebraten beruht die Wirkung des Neurotransmitters und Neuromodulators Acetylcholin auf den nikotinischen und muskarinischen Acetylcholinrezeptoren. Muskarinische Acetylcholinrezeptoren (mAChRen) koppeln, abhängig von den fünf identifizierten Rezeptorsubtypen (M1- M5), an unterschiedliche intrazelluläre Signalketten an. Dabei interagieren für gewöhnlich die M1, M3 und M5 Rezeptoren mit einem G-Protein des Typs Gq/11, während M2 und M4 ein G-Protein des Typs Gi/o aktivieren. Der Colliculus inferior (IC) ist eine wichtige Verschaltungsstation im auditorischen Mittelhirn von Säugetieren. Inhibitorische und exzitatorische Eingänge werden dort während der Entwicklung mit großer Präzision angelegt und konvergieren auf einzelne ICNeurone. Die physiologische Bedeutung von mAChRen im IC ist weitgehend unerforscht und die Subtypen die im juvenilen IC eine Rolle spielen wurden noch nicht charakterisiert. Es war das Ziel der vorliegenden Arbeit mittels elektrophysiologischer Untersuchungen im IC der juvenilen Ratte (P5-P12) folgende Fragen zu klären: i) Gibt es im IC der jungen Ratte eine Modulation der GABAergen Transmission durch muskarinische Acetylcholinrezeptoren? ii) Welcher muskarinische Rezeptorsubtyp spielt dabei eine Rolle? iii) Welcher intrazelluläre Signalmechanismus ist der Aktivierung des muskarinischen Acetylcholinrezeptors nachgeschaltet? Unter Wirkung von Muskarin kam es bei 41,2% der untersuchten Neurone des Colliculus inferior zu einer Erhöhung der Frequenz der spontanen IPSCs. Die sIPSCs wurden durch Bicucullin blockiert, somit handelt es sich um GABAerge IPSCs. Die Wirkung von Muskarin nahm zu, wenn die Tiere älter als 9 Tage waren. Es wurde gezeigt, dass nAChRen keine Rolle spielen bei der Erhöhung der sIPSC-Frequenz, während eine selektive Blockade der M3-(M5-) mAChRen durch 4-DAMP die Muskarinwirkung blockierte. In der Regel sind die M3-Rezeptoren über folgende Signalkaskade aktiv: Phospholipase C, Kalzium-Calmodulin, NO-Synthase, Guanylatzyklase, die NO-Konzentration und cGMP. Alle Glieder dieser Kaskade wurden untersucht, sie hatten aber keinen Einfluss auf die Muskarinwirkung. Im Gegensatz dazu führte die Erhöhung des intrazellulären cAMP-Spiegels zu einer vergleichbaren Frequenzsteigerung der sIPSCs wie sie unter der Wirkung von Muskarin gemessen wurde. Weiterhin ließ sich die Erhöhung der sIPSC-Frequenz durch Muskarin vollständig aufheben, wenn die intrazelluläre Adenylatzyklase blockiert wurde. Es ist bekannt, dass der M3-(M5-) mAChR über verschiedenste Signalwege den intrazellulären cAMP-Spiegel verringern oder erhöhen kann und dass die Spezifizierung des Rezeptors vom Grad der Rezeptorexpression, dem Zelltyp und der Kombination der Effektormoleküle abhängig ist. Die Abweichung der juvenilen Kaskade vom im erwachsenen Tier üblichen Signalweg hat dabei den Vorteil, dass eine Aufgabentrennung zwischen Netzwerkbildung und Synapsenstabilisierung einerseits und Signalweiterleitung andererseits erfolgt. Beim juvenilen Tier steht die Netzwerkbildung im Vordergrund, beim erwachsenen Tier wird die Signalweiterleitung moduliert. Der sekundäre Botenstoff NO, der weit diffundieren kann, spielt beim juvenilen Signalweg keine Rolle und dies ermöglicht eine klare Trennung der aktivierten von den umgebenden Synapsen. Dadurch wird eine starke Selektion innerhalb der vorhandenen Synapsen ermöglicht und eine aktivitätsbasierte Netzwerkbildung vereinfacht. Die Etablierung funktioneller GABAerger Synapsen ist ausschlaggebend für die Entwicklung des neuronalen Netzwerks. Innerhalb der ersten postnatalen Wochen führt die Aktivierung von GABAA-Rezeptoren zur Depolarisierung der IC-Neurone und zu einer Erhöhung der intrazellulären Ca2+-Konzentration. Acetylcholin potenziert also letztlich den GABA-aktivierten Einstrom von Ca2+ und führt damit zur Erhöhung der intrazellulären Ca2+ Konzentration im postsynaptischen Neuron des IC. Diese modulatorische Wirkung von Acetylcholin könnten damit eine wichtige Rolle bei der Entwicklung und Stabilisierung von inhibitorischen Synapsen im sich entwickelnden IC der Ratte spielen.
Die Verbriefung des Cash Flows eines Unternehmens ist eine in Großbritannien bekannte und etablierte Form der Unternehmensfinanzierung. In Deutschland hat es bisher erst zwei Transaktionen dieser Art gegeben. Die Gründe hierfür liegen in den unterschiedlichen rechtlichen Systemen und den unterschiedlichen Möglichkeiten der Darlehensbesicherung. Dieser Aufsatz beschreibt die diesbezüglichen wesentlichen Unterschiede und stellt Strukturen vor, mit denen auch im deutschen Rechtskreis entsprechende Transaktionen umgesetzt werden können.
This paper makes an attempt to present the economics of credit securitization in a non-technical way, starting from the description and the analysis of a typical securitization transaction. The paper sketches a theoretical explanation for why tranching, or nonproportional risk sharing, which is at the heart of securitization transactions, may allow commercial banks to maximize their shareholder value. However, the analysis makes also clear that the conditions under which credit securitization enhances welfare, are fairly restrictive, and require not only an active role of the banking supervisiory authorities, but also a price tag on the implicit insurance currently provided by the lender of last resort. Klassifikation: D82, G21, D74. February 16, 2005.
Franz Th. Schuett hat ein umfangreiches und eigenstaendiges Werk geschaffen. Er kopierte keinen Kuenstler und blieb sich treu. Er war nicht innovativ, aber in seinem Rahmen war er wandlungsfaehig. Trotz aller positiver und kulturell stimulierenden Einfluessen und namhafter Lehrer in den Anfangsjahren, blieb bei ihm die Kreativitaet, sicherlich auch wegen Flucht und Vertreibung, auf der Strecke.Es gibt Anlehnungen im Fruehwerk an den veristischen Fluegel der Neuen Sachlichkeit. Motivisch war er nicht so praegnant wie seine Vorbilder Dix, Schlichter und Grosz. In der Strichfuehrung im Fruehwerk aehnelte er George Grosz. Er arbeitete zeitgemaess. In den Kriegsjahren bzw. bis 1947 erarbeitete er sich die Aquarelltechnik. Es entstanden stimmungsvolle Landschaftsbilder. Es stellte sich heraus, das unkontrollierbare der Technik lag ihm nicht, er war und blieb Zeichner. In den 50er Jahren probierte er verschiedene Zeichenmethoden. Ab 1954 bis 1959 versuchte er noch einmal einen Anlauf mit dem Kolorit und es entstanden stark farbige Temperablaetter, die neben realistischen Bildentwuerfen auch surreale Szenen beinhalteten. Erst in den 60er Jahren fand er wieder zu einer zeitgenössischen Ausdruckskraft. Er setzte nun seit den 30er Jahren erstmals wieder seine Motive in Oeltechnik um. Von 1938 bis 1960 musste er erneut einen zeitgenössischen Ausdruck entwickeln. Die allgemein vielfaeltigen realistischen Kunstrichtungen ab den 60er Jahren verhalfen seinem leicht sozialkritischen Realismus zum Durchbruch. Die nun beginnenden haeufigen Ausstellungen --ob Einzel- oder Beteiligungen – zeigten, dass er sich in der regionalen Kunstszene durchsetzte. Dieser Erfolg hielt bis zu seinem Lebensende 1990 an. In den 70er Jahren produzierte er weniger Bildwerke, aber in keinem Jahrzehnt nahm er an so vielen Ausstellungen teil. Es entstanden nun vermehrt Landschaften und er machte sich Gedanken zur Umweltproblematik. Er entwarf einiger Bilder zu dieser Thematik. Auch besann er sich auf fruehere Motive. Diese Rueckgriffe wurden aber weiter durchdacht. In den 80er Jahren entstanden weitflaechige, grosszuegige und von warmem Licht umhuellte Landschaften, die an Hopper erinnern können. Im Gegensatz zu frueheren Arbeiten hatte er endlich die kleinteiligen Strukturen und Dekors abgelegt und sich in diesem Jahrzehnt zum ersten Mal mit dem Licht und seinen Reflexen auseinandergesetzt. Er öffnete den Hintergrund in diesen Landschaften. In frueheren Perioden war selbst bei panorama-artigen Komposition der Landschaft der Bildhintergrund verriegelt. Die Arbeiten wirkten spröde, da er die Landschaft als Struktur oder Ornament sah. Die Bestaetigung seiner Arbeiten, die er in seinen letzten Jahren erfahren hatte, lenkte ihn zu solch harmonischen Oelbildern. Das Motiv der Dirnen -- seine frivolen Maedchen -- durchzieht sein gesamtes Werk. In der Art, wie er sie darstellte in seiner Formsprache, in ihrer Ueppigkeit und ihrer unbeschwerten Ausstrahlung, waren sie seine Bildschöpfung. Auch sie waren in den einzelnen Werkperioden einer Entwicklung unterlegen. Zu Anfang schienen sie unbeschwert und in den 60er und 70er Jahren stellte er sie dann dick, feist und mit bösem Gesichtsausdruck dar. In den 70ern reizte ihn das Motiv weniger, da er seine Damen nun aelter werden liess. Die Gesichter wurden verschlossener und abweisender abgebildet und Mitte der 70er Jahre wichen sie den Puppendarstellungen. Sein Realismus war keine beissende Anklage, keine vordergruendige, eher eine unterschwellige Kritik. Er kritisierte die Eitelkeit und Ruecksichtslosigkeit der Menschen. Er dachte und fuehlte mit den Schwaecheren unserer Gesellschaft. In vielen Arbeiten lag ein melancholischer Tenor, sodass er beim Betrachter Mitleid fuer die gezeigten Verhaeltnisse erweckte. So erweist sich Schuett als Nachfahre der Spaetexpressionisten, die ihre Kunst als ein aufklaerendes Medium verstanden. Schuett war zu Lebzeiten kein verschollener oder vergessener Kuenstler. Aber nachdem ein Grossteil seines Werkes in den Depots der Museen liegt, droht seinem Werk und damit ihm die Vergessenheit. Vielleicht kann diese Aufarbeitung des Werkes von Franz Th. Schuett den musealen Institutionen Anlass sein, ihm wieder -- vielleicht zu seinem 100. Geburtstag im Jahre 2008 -- eine Wuerdigung erfahren zu lassen.
Im Kapitel 1 "Einleitung" wird aufgezeigt, wie die rasante technologische Entwicklung der Mikroelektronik nicht nur die Mikroskopie vorantreibt, sondern auch anderen, neuen Verfahren, wie z. B. dem Laser Scanning Mikroskop, zum Durchbruch verhilft. Damit verbunden ist ein Bedarf an neuen, geeigneten Messverfahren. Dazu stellt diese Arbeit ein neues, im Rahmen einer linearen Näherung arbeitendes, dreidimensionales Messverfahren vor, und demonstriert es am Beispiel des Lichtmikroskops im Hellfelddurchlichtbetrieb, wobei hier die 3. Dimension durch die Aufnahme einer Fokusserie entsteht. Im Kapitel 2 "Modellbildung" wird zuerst ein detailliertes, physikalisches Modell des experimentellen Aufbaus gebildet, um darauf aufbauend ein dreidimensionales, system-theoretisches Modell anzufertigen, anhand dessen das neue Messverfahren erarbeitet werden kann. Dabei wird auch die Berechnung der dreidimensionalen Übertragungsfunktionen des Lichtmikroskops für die drei Fälle absorbierende Objekte, Phasenobjekte und transparente Selbstleuchter beschrieben. Innerhalb des Kapitels 3 "Messverfahren" werden im Kapitel 3.1 zunächst die bekannten Verfahren skizziert. Anschließend, dies ist der Kern der Arbeit, wird im Kapitel 3.2 das neue Messverfahren beschrieben. Es verwendet als Anregung zweidimensionales Rauschen, hier ein Rauschen um eine Ebene senkrecht zur optischen Achse. Das Verfahren wird zunächst für absorbierende Objekte, anschließend auch für Phasenobjekte ausgearbeitet, und dabei experimentell demonstriert. Von zentraler Beutung ist, dass das neue Messverfahren in der Lage ist, auch die Phase der dreidimensionalen Übertragungsfunktion aus den Bildern der Rauschanregung zu berechnen, falls die Übertragung durch die Aufnahmeeinheit gewisse, häufig bei einem vernachlässigbaren Fehler vorliegende, Symmetrieeigenschaften besitzt. Es werden verschiedene Fälle von Symmetrieeigenschaften berücksichtigt, um unterschiedliche experimentelle Gegebenheiten und die drei Fälle absorbierende Objekte, Phasenobjekte und transparente Selbstleuchter abzudecken. Das Kapitel 4 "Messungen" vergleicht die mit dem neuen Messverfahren, mit einem bekannten Messverfahren und durch Berechnung ermittelten Übertragungseigenschaften auch bei Modifikationen des Strahlengangs durch Einfügen von Zentralblenden in die Pupille des Objektivs und in die Pupille des Kondensors. Die auf unterschiedlichen Wegen ermittelten Übertragungseigenschaften werden miteinander verglichen. Der Vergleich veranschaulicht die Leistungsfähigkeit des neuen Messverfahrens. Das Kapitel 5 "Die Bildgewinnung" stellt verschiedene, mehr oder weniger bekannte Ansätze zur Nutzung des vorgestellten Messverfahrens zusammen, darunter vor allem auch die Wiener-Inversfilterung.
Vortrag gehalten am 12. Januar 2005 in Frankfurt am Main, am Physikalischen Verein, anläßlich der Verleihung des Philipp-Siedler-Wissenschaftspreises an Dipl.-Phys. Christine Meurer, als Anerkennung für ihre Diplomarbeit "Xi- und Xi+ Produktion in Pb+Pb Stößen bei 40 A GeV am CERN SPS" (urn:nbn:de:hebis:30-13740). Am CERN, dem Europäischen Kernforschungszentrum, werden Bleiatomkerne auf nahezu Lichtgeschwindigkeit beschleunigt und zur Kollision gebracht. Dabei wird die Materie in einer Art Feuerball extrem verdichtet und erhitzt. Unter diesen Bedingungen brechen die Bestandteile der Atomkerne, die Nukleonen, auf und der Blick auf die eigentlichen Bausteine der Materie, die Quarks, wird möglich. Nach der Kollision expandiert der Feuerball und viele neue Teilchen, darunter auch die sogenannten seltsamen Teilchen, entstehen. Ihre Besonderheiten werden im Vortrag diskutiert: Ergebnisse zur Produktion des seltsamen Xi- -Teilchens in Pb+Pb-Stößen bei einer Energie von 40 A GeV werden vorgestellt. Aus dem transversalen Massenspektrum bei mittlerer Rapidität erhält man einen inversen Steigungsparamenter von T Xi- = (210±11±21)MeV . Die Integration des Rapiditätsspektrums liefert eine totale Anzahl der s im gesamten Phasenraum von (2.41 ± 0.15 ± 0.24) Teilchen pro Kollision. Desweiteren wird die Anregungsfunktion des Xi- -Hyperons sowie seine Zentralitätsabhänigkeit bei 40 A GeV diskutiert.
„Bedeutende Finanzplätze“ oder Finanzzentren sind eng abgegrenzte Orte mit einer beträchtlichen Konzentration wichtiger professioneller Aktivitäten aus dem Finanzdienstleistungsbereich und der entsprechenden Institutionen. Allerdings: „Finance is a footloose industry“: Die Finanzbranche kann abwandern, ein Finanzzentrum kann sich verlagern, möglicherweise auch einfach auflösen. Die Möglichkeit der Auflösung und der Abwanderung stellt eine Bedrohung dar, die in der Zeit der Globalisierung und der rasanten Fortschritte der Transport- und der Informations- und Kommunikationstechnik ausgeprägter sein dürfte, als sie je war. Frankfurt ist zweifellos ein „bedeutender Finanzplatz“, und manchen gilt er auch als bedroht. Allein deshalb ist unser Thema wichtig; und auch wenn die Einschätzungen von Bedeutung und Bedrohtheit keineswegs neu sind, ist es doch aktuell. Der Aspekt der Bedrohtheit prägt, wie wir die Frage im Titel verstehen und diskutieren möchten. Was ist ein „bedeutender Finanzplatz“? Selbst wenn man das Attribut „bedeutend“ erst einmal beiseite lässt, ist die Frage keineswegs trivial. Sie zielt ja nicht nur auf eine Begriffsklärung, eine Sprachregelung ab. Hinter dem Begriff steht oft auch eine Vorstellung vom „Wesen“ dessen, was ein Begriff bezeichnet. Also: Was macht einen Finanzplatz aus? Und weiter: Warum gibt es überhaupt Finanzplätze als beträchtliche Konzentrationen von bestimmten wichtigen Aktivitäten und Institutionen? Welche Kräfte führen - oder zumindest führten - zu der räumlichen Konzentration der Aktivitäten und Institutionen, wie wirken diese Kräfte, und wie ändern sie sich gegebenenfalls? Diesen Fragen ist dieser Beitrag im Wesentlichen gewidmet, und sie prägen seinen Aufbau. Im Abschnitt II wird diskutiert, was ein „bedeutender Finanzplatz“ ist oder woran man ihn erkennt und „was er braucht“. Im Abschnitt III gehen wir zuerst auf die Frage nach der in letzter Zeit unter dem Stichwort „the end of geography“ heftig diskutierten Vorstellung einer Auflösung oder Virtualisierung der Finanzplätze ein – nicht weil dies die wichtigere Bedrohung wäre, sondern weil es die grundlegendere Frage darstellt. Dann diskutieren wir den Wettbewerb von Finanzplätzen in Europa. Den Abschluss bilden Überlegungen zu den Perspektiven des Finanzplatzes Frankfurt und der möglichen Förderung seiner Entwicklung.
Ein gentherapeutischer Ansatz für die Behandlung der HIV-Infektion ist die "intrazelluläre Immunisierung" von CD4+-Zellen die den Hauptangriffspunkt des HI-Virus darstellen. Potentiell therapeutische Gene zur Hemmung der HIV-Replikation sind in großer Zahl und für praktisch jeden schritt des Replikationszyklus des Virus publiziert. Ein Problem war allerdings bisher das Fehlen eines einheitlichen und reproduzierbaren Vergleichssystems zur Identifizierung erfolgversprechender Gene für Studien im Tiermodell und in der Klinik. In dieser Arbeit wurde ein solches auf die Gentherapie abgestimmtes Zellkultursystem entwickelt, das auf stabilem Transfer von HIV-inhibitorischen Genen durch retrovirale Transduktion von T-Zellen und Belastungsversuchen mit replikationsfähigen Viren beruht. Dazu wurden auf Basis der humanen T-Zellinie PM1 Zellinien etabliert, die das Markergen egfp sowie ein therapeutisches Gen stabil exprimieren. Für den Gentransfer wurden [MLV(GaLV)]-Vektoren verwendet, die sich für die Transduktion von hämatopoetischen Zellen besonders eignen. Mit Hilfe der etablierten HIV-inhibitorischen Gene RevM10 und STHM (membrangebundenes T20) wurden Methoden zur Generierung dieser stabilen Zellinien optimiert. Um eine höchstmögliche Vergleichbarkeit zu erreichen, müssen die Voraussetzungen für eine HIV-Replikation in allen Zellinien in gleicher Weise gegeben sein. Deshalb wurden Zellinien bei mit praktisch gleicher Zellteilungsrate und HIV-Rezeptorexpression etabliert. Die untrschiedliche Hemmwirkung der Kontrollgene konnte so in Belastungsexperimenten mit drei verschiedenen, repräsentativen HIV-1-Laborstämmen reproduzierbar gezeigt werden. Das erarbeitete Zellkultursystem wurde dann zur Evaluierung verschiedener Gene eingesetzt. Zunächst wurden zwei neue Ansätze für die HIV-Gentherapie getestet. Die hohe Wirksamkeit von APOBEC3Gagm gegen HIV-1, die zuvor in einem "single-round"-Infektionssystem gezeigt worden war, konnte bestätigt werden. Der Versuch, das als natürlicher HIV-Inhibitor in humanem Hämofiltrat gefundene Peptild VIRIP auf der Zelloberfläche zu exprimieren, bewirkte hingegen keine HIV-Hemmung. Zusätzlich wurden mehrere potentiell therapeutische Gene getestet, die von Kooperationspartnern im Rahmen eines HIV-Netzwerkes entwickelt worden waren. Für die humanisierte transdominant-negative Gag-Mutante TDsg Delta 2 konnte eine HIV-Hemmwirkung nachgewiesen werden, während weder die Wildtyp-Mutante TDwt Delta 2 noch das minimale GAG-Fragment L2GAL2-V3 eine signifikante Wirkung zeigten. Für die beiden HIV-1 p6-Konstrukte L4 und L6 war eine HIV-Hemmung ebensowenig wie für die gp41 c-tail-Konstrukte 9/1 und 9/2 feststellbar. In weiteren Versuchen konnte gezeigt werden, daß sich die Hemmwirkung der unterschiedlichen Gene gegen HIV-1-Primärisolate im wesentlichen der gegen die Laborstämme entspricht. Nach Infektion der Zellinien mit HIV-2 wurde wie erwartet die Virusreplikation nur durch STHM und TDsg Delta 2 gehemmt. Schließlich wurde getestet, ob sich die Hemmeffekte auch in primären humanen Lymphozyten nachvollziehen lassen. Obwohl aufgrund der in diesen Zellen niedrigen erreichbaren Transduktionseffizienzen und einer starken Donorabhängigkeit keine Standardisierung möglich war, konnte gezeigt werden, daß es prinzipiell möglich ist, Hemmeffekte sichtbar zu machen.
Der Beitrag greift zwei recht kontaktsensitive und dennoch wenig erforschte sprachlichkommunikative Sonderbereiche auf, und zwar die Verwendung von (a) Eigennamen und von (b) Schelt- bzw. Schimpfausdrücken sowie Flüchen. All diese Phänomene sind offenbar universale Komponenten von Sprachen (vgl. auch Haspelmath 2002: 277; Geier-Leisch 1998: 7 f.). An diesem empirischen Material will der Beitrag im Einzelnen ermitteln, wie Kontaktund Interaktionsphänomene in gemischtsprachigen Diskursen unter Bedingungen einer transkulturellen Mehrsprachigkeit auftreten, wobei ihre Realisationsstrukturen, -typen und -klassen erschlossen sowie ihr Funktionieren hinterfragt werden. Letzten Endes soll anhand der Auseinandersetzung mit einer vitalen und hochkomplexen Kontaktsituation von Sprachen bzw. Varietäten der sprachkommunikative Umgang mit Eigennamen und Sonderlexik aus der Perspektive der deutschen Sprache im Kräftefeld zwischen typologischer Tradition und sukzessiver Innovation beschrieben werden, um damit gleichzeitig relevante Bausteine zur Modellierung des Kontaktprozesses zu erarbeiten.
In der sog. Edo-Zeit (1603–1867) durften sich in Japan von den Europäern nur Niederländer (Holländer) aufhalten und Handel treiben. Folglich mussten Deutsche manchmal als „Bergholländer“ ausgegeben werden und ihre Sprache dementsprechend als „Bergholländisch“ (vgl. GAD 1996: 3). Vor dem Hintergrund dieses nicht unspektakulären Beispiels erhält nun die als Überschrift des vorliegenden Beitrags dienende Fragestellung auch eine historisch-interkulturelle Legitimation. CIRKO (2004: 131 ff.) ging kürzlich dem Fundamentalproblem nach, was überhaupt Sprache sei; mein Aufsatz will spezifizierend die Vielschichtigkeit des Begriffs "deutsche Sprache" reflektieren, genauer: wie ihr Konzept und ihre Architektur sind, insbesondere angesichts ihrer weitgehenden Regionalität, Variation und Heterogenität. So soll der vorliegende Beitrag das Phänomenfeld der arealen Varianz im Ensemble der deutschen Gegenwartssprache hinterfragen, differenzieren und interpretieren. Dabei geht es vorrangig darum, die Binnenverhältnisse des Deutschen in diesem Argumentationszusammenhang zu modellieren und eine Systematik der Regionalität am Beispiel des Deutschen zu erarbeiten.
Die mittelamerikanische Jagdspinne Cupiennius salei Keys. zeigt nach Reizung ventraler Tasthaare auf den proximalen Beingliedern in freier Natur und auch im Labor das relativ einfache, reflektorische Verhalten des „Körperanhebens“. Ziel der vorliegenden Arbeit war, den am Körperanheben maßgeblich beteiligten Coxamuskel c2 hinsichtlich seiner Anatomie, seiner funktionellen Faserzusammensetzung und Innervation sowie seiner Aktivität beim „Körperanheben“ und bei weiteren Bewegungsweisen der Spinne zu untersuchen. (1) Der c2-Muskel liegt im Prosoma der Spinne und setzt für jedes Bein am anterioren Coxarand an. In den 1. - 3. Beinpaaren liegt c2 zweigeteilt (apodemaler und tergaler Anteil), im Hinterbeinpaar dagegen einteilig (nur tergaler Anteil) vor. (2) Histochemische Nachweisreaktionen (Glykogengehalt, relative Succinatdehydrogenase- und relative myofibrilläre Adenosintriphosphatase-Aktivität) ergeben eine heterogene Faserzusammensetzung des c2-Muskels aus 4 Muskelfasertypen (A, B, C, D). Der apodemale c2-Anteil besteht homogen aus A-Fasern. (3) Messungen mit Laserdiffraktometrie zeigen für die A- und B-Fasern signifikant kürzere Sarkomerlängen als für die C- und D-Fasern. (4) Sodium-Dodecylsulfat-Polyacrylamid-Gelelektrophorese weist als Besonderheit für die A- und B-Fasern eine Paramyosin-Isoform P1 (107 kDa), eine Isoform der leichten Ketten des Myosins LC2 (22 kDa) und vermehrt eine Troponin-Isoform T4 (46 kDa) nach. In den Cund D-Fasern kommt allein eine 43-kDa-Bande und vermehrt eine Troponin-Isoform T2 (50 kDa) vor. (5) Der c2-Muskel der Vorder- und Hinterbeine wird durch einen eigenen Nerv innerviert. Retrograde Anfüllungen („Backfills“) des Nervs mit neuronalen Tracern legen eine polyneurale Innervation des c2-Muskels aller Beine dar, höchstwahrscheinlich jeweils durch 6 Motoneurone. Zwei davon sind jeweils positiv GABA (Gamma-Amino-Buttersäure) -immunreaktiv; dies ist ein Hinweis auf eine mögliche inhibitorische Innervation des c2-Muskels. (6) Wie Elektromyogramme freilaufender Spinnen zeigen, besteht das Körperanhebeverhalten aus zwei aufeinanderfolgenden Reaktionen: einer lokalen c2-Kontraktion im taktil gereizten Bein, die eine Bewegung im zugehörigen Prosoma-Coxa-Gelenk verursacht, und einer durch diese aktive Bewegung hervorgerufenen plurisegmentalen Reaktion im c2 der übrigen 7 Beine. Wird eine Coxa passiv bewegt, kann auch in festgelegten Spinnen eine plurisegmentale Reaktion aller 8 Beine ausgelöst werden. (7) Sowohl bei der lokalen als auch bei der plurisegmentalen Reaktion des „Körperanhebens“ rekrutiert c2 die gleichen neuromuskulären Einheiten. Dies deutet auf die gleiche zentalnervöse Endstrecke beider Reaktionen hin. Die Anzahl der elektrophysiologisch unterscheidbaren neuromuskulären Einheiten stimmt mit der der anatomisch nachgewiesenen Motoneuronen und Fasertypen überein. (8) Der tergale c2-Anteil ist immer, der apodemale Anteil nur bei schnellem Körperanheben, schnellen Laufstarts und bei Schreckreaktionen (Flucht) der Spinne aktiv. Hierbei rekrutiert der apodemale Teil nur zu Beginn der Verhaltensweise schnelle phasische Einheiten. (9) Ich diskutiere bei welchen Bewegungsweisen der Spinne die 4 Fasertypen vermeindlich zum Einsatz kommen, wie sie höchstwahrscheinlich innerviert werden und welche Konsequenzen die c2-Zweiteilung in den vorderen Beinpaaren (1 - 3) auf die Beinbewegung im Verhalten haben könnte. Am wahrscheinlichsten ist eine verstärkte Druckerhöhung zur Beinextension durch schnelle anfängliche Kontraktionen des „apodemalen Hebels“ und eine vektorielle Kräfteaddition der zwei Muskelteile. (10) Anhang II behandelt den internen Gelenkrezeptor R0 im Prosoma-Coxa-Gelenk. Ausschaltversuche weisen R0 als unentbehrlich für das Zustandekommen der plurisegmentalen Reaktion aus. Lage und Anordnung der R0-Sinneszellen sind in den Beinpaaren 1 - 3 und den Hinterbeinen verschieden.
Die Grundlage dieser Arbeit bilden Befunde über den Kupfer-Metabolismus des Ascomyceten Podospora anserina. In der Kupfermangel-Mutante grisea ist der Transkriptionsfaktor GRISEA inaktiv, welcher die Aktivität der hochaffinen Kupfer(I)-Permease PaCTR3 kontrolliert. Der Kupfer-Mangel aller Zellkompartimente führt zu pleiotropen Effekten und zu einer moderaten Verlängerung der mittleren Lebensspanne (60%). Um Effekte des Kupfermangels, die positiven bzw. negativen Einfluß auf die Lebensspanne zeigen, voneinander zu trennen, erschien es vielversprechend, den Kupfermangel auf ein Kompartiment der Zelle zu beschränken. In Hefe komplexiert COX17 Kupfer und gibt es im mitochondrialen Intermembranraum an SCO1 und COX11 (Assemblierungsfaktoren der Cytochrom-c-Oxidase) weiter. Zur Aufschlüsselung Kupfer-abhängiger Stoffwechsel-Wege wurde in dieser Arbeit eine PaCox17-Nullmutante konstruiert und charakterisiert. Die PaCox17::ble-Deletionsmutante ist durch AOX-Respiration, hohe Aktivität der Cu/Zn-SOD und ein stabilisiertes Chondriom charakterisiert. Eine vergleichende Analyse von Mutante und Wild-Stamm führte zu folgenden Ergebnissen: 1. Die Disruption des PaCOX17-Weges verhindert die Assemblierung der COX beinahe völlig. COX-Respiration kann nur in sehr geringem Umfang nachgewiesen werden. 2. Der Ausfall der COX induziert die alternative Oxidase und führt zu AOX-Respiration. 3. Die Atmungsrate der Mutante PaCOX17::ble ist, aufgrund der AOX-Respiration, gegenüber dem Wild-Stamm annähernd verdreifacht. 4. Weiterhin zeigen PaCox17::ble-Stämme ein stabilisiertes mitochondriales Genom, normalerweise wird weder plDNA amplifiziert noch wird beta-senDNA gebildet. 5. Der Kupfer-Spiegel des Zytoplasmas ist gegenüber Wild-Stämmen stark erhöht. 6. PaCox17::ble-Stämme sind durch konstant starke Expression der Cu/Zn-SOD charakterisiert. Die Mn-SOD spielt eine untergeordnete Rolle. 7. Die beschriebenen Effekte führen zu einer enormen Verlängerung der mittleren Lebensspanne (1250% des Wild-Stammes). Neben der Isolation und Charakterisierung der Mutante PaCox17::ble wurde PaSco1 isoliert und initial charakterisiert. PaSco1 liegt in P. anserina wahrscheinlich in einer Kopie vor. Es kodiert das Kupferbindeprotein PaSCO1, welches Kupfer vermutlich von PaCOX17 übernimmt und an die Untereinheit 2 der COX weitergibt. In dieser Arbeit wurden Teilaspekte des Kupfermetabolismus von P. anserina untersucht. Von besonderem Interesse waren Zusammenhänge zwischen Kupfer-Metabolismus und mitochondrialen Funktionen. Einen weiteren Schwerpunkt bildeten entwicklungsbiologische Prozesse, der Alterungsprozess war von übergeordneter Bedeutung. Es konnte gezeigt werden, daß Störungen der Kupfer-Homöostase die Respiration, den zellulären oxidativen Stress, die Stabilität des Chondrioms und diverse Entwicklungsprozesse, wie beispielsweise Fortpflanzung und Alterung des Hyphenpilzes beeinflussen.
Der Aufsatz diskutiert grammatische Aspekte von authentischen Sprachgebrauchsstrukturen in einem komplexen Kontakt- und Integrationsraum von mehreren Sprachen und Kulturen. Als empirisches Illustrationsmaterial dient ein umfangreiches kontaktlinguistisches Feldforschungsprojekt im ungarndeutschen Ort Hajosch/Hajós (Komitat Batsch-Kleinkumanien / Bács-Kiskun). Anhand von dort ermittelten Sprechprodukten zwei- bzw. mehrsprachiger Sprecher werden vielgestaltige sprachlich-kommunikative Kontakt-, Konvergenz- und Interaktionsphänomene grammatischer Natur identifiziert. Ihre Analyse ergab, dass die exemplarisch untersuchte Diskursgemeinschaft beim Umgang mit morphosyntaktischen Phänomenen zahlreiche und vor allem mannigfaltige Formen von Hybridität hervorbringt. Die erschlossenen Phänomenklassen und -typen scheinen für transkulturelle Zusammenhänge generell verallgemeinerbar zu sein.
Die moderne Gesellschaft ist von Veränderungen epistemischer und institutioneller Strukturmerkmale der Wissenschaft geprägt, die ihrerseits einen Wandel in anderen Bereichen der Gesellschaft auslösen. In diesem Zusammenhang – wie auch in der neuzeitlichen Wissenschaftsentwicklung überhaupt – kommt der Sprachlichkeit, dem Kulturphänomen "Wissenschaftssprache", eine eminente Rolle zu, etablierte sich doch in den letzten Jahrzehnten eine „linguistische Teildisziplin der Wissenschaftssprachforschung“ (vgl. KRETZENBACHER 1992: 1; HESS-LÜTTICH 1998). "Wissenschaft" scheint mir jedoch ein (interkultureller) Problembegriff zu sein, beispielsweise auch schon deswegen, da dieses Wort (samt seinen Ableitungen wie Wissenschaftler, wissenschaftlich, Wissenschaftlichkeit) stark kulturbedingt ist (vgl. CLYNE/KREUTZ 2003: 60); so korreliert etwa der deutsche Terminus Wissenschaft nicht mit dem englischen science etc. Das Englische kann zweifellos auf eine konkurrenzlose Karriere als wissenschaftliche Universalsprache zurückblicken: Wissenschaftler – auch deutschsprachige – bedienen sich bei der Veröffentlichung wichtiger Forschungsergebnisse zunehmend der englischen Sprache. Der Anteil der wissenschaftlichen Publikationen auf Englisch beträgt heute weltweit über 90 Prozent, während nur noch wenige Prozent des wissenschaftlichen Publikationsaufkommens deutschsprachig sind. Auch die Zahl der wissenschaftlichen Tagungen (selbst im deutschen Sprach- und Kulturraum), die ausschließlich Englisch als Konferenzsprache zulassen, nimmt stetig zu. Außerdem werden immer mehr Vorlesungen bzw. ganze Studiengänge an sonst deutschsprachigen Universitäten in Englisch angeboten. „Die Spitzenforschung spricht englisch“ – stellte der spätere Präsident der Max-Planck-Gesellschaft, Hubert Markl, bereits vor zwanzig Jahren lapidar fest (Quelle: DUZ, 22/2002, S. 12). Gleichwohl wird immer wieder – oft etwas euphorisch – auf Ostmittel-, Ost- und Südosteuropa verwiesen, die traditionell als ein Refugium des Deutschen u.a. auch als Wissenschaftssprache galten bzw. auf weiten Strecken nach wie vor gelten. So kann exemplarisch die „Physikalische Zeitschrift der Sowjetunion“ erwähnt werden, die von 1932 bis 1937 auf Deutsch erschien. In diesem interessanten und zugleich äußerst komplexen Spannungsfeld soll es sich im vorliegenden Beitrag um das Thema ‘Sprachen in den Wissenschaften’ als Denk- und Darstellungsmedia handeln. Dabei soll zum einen die Problematik der Mehrsprachigkeit der Wissenschaften (mit besonderer Berücksichtigung des Deutschen) im mehrsprachigen, multikulturellen und kultursensiblen Kontaktraum Mittel- und Osteuropa angesprochen werden, zum anderen – weil ja auf unserer Tagung auch andere Teilareale, wie z.B. Rumänien, vertreten sind – soll der besondere Schwerpunkt auf Ungarn liegen. Hauptziel der Erörterungen besteht darin, die Entwicklung der in dieser Region wirksamen Wissenschaftssprachen diachron herauszuarbeiten, den derzeitigen Stand für die Bereiche Sprachen in der akademischen Lehre, Forschungssprachen (d.h. Sprachen der Forschungskommunikation) und Publikationssprachen – auch mit Hilfe empirischer Daten – mehrperspektivisch zu dokumentieren und aktuelle Tendenzen reflektorisch aufzuzeigen.
In 2002 wurden im ca. 55 ha großen Langelt, einem der letzten historisch alten Laubwälder des Emslandes, die Brutvogelbestände mittels Revierkartierung erhoben. Der vorwiegend aus Trauben- und Stieleichenmit einzelnen Hudebuchen durchsetzteWaldkomplex ist Teil des wesentlich größeren Arenberger Eleonorenwaldes (ca. 2.000 ha). Die Kartierung erbrachte 28 Brutvogelarten mit insgesamt 122 Revieren. Rund die Hälfte aller Arten und Individuen wurde von Höhlenund Halbhöhlenbrütern gestellt. Auch Kronendach- und Baumbrüter (ohne Bodenbrüter) waren zahlreich vertreten, wobei der Buchfink die individuenstärksten Bestände aufwies. Gebüschbrüter wie Mönchsgrasmücke und Zaunkönig traten kaum in Erscheinung. Die gefundenen Ergebnisse werden mit der aktuellen Waldstruktur in Verbindung gebracht. Sie wiederum ist das Ergebnis einer extensiven forstlichen Nutzung sowie einer langen Beweidungstradition. Bis in die jüngste Vergangenheit hinein lebte im eingegatterten Teil des Arenberger Eleonorenwaldes (ca. 1.000 ha) neben Rothirsch, Damhirsch, Reh und Wildschwein auch eine ca. 120 Tiere umfassende, verwilderte Rinderherde. Es wird vermutet, dass diese Pflanzenfresser-Gemeinschaft, die vom Konzentratselektierer (browser) bis hin zum reinen Grasfresser (grazer) alle Ernährungstypen in z. T. hoher Dichte umfaßte, ganz wesentlich an der derzeit fast völlig fehlenden Ausbildung einer Strauchschicht im Langelt beteiligt war.
Unregelmäßig vorkommende und verschwundene Brutvögel in Osnabrück im Zeitraum von 1946 bis 2003
(2005)
In Osnabrück (120 km²) wurden zwischen 2000 und 2003 genau 100 Brutvogelarten nachgewiesen. Im Zeitraum 1946 bis 2003 waren es insgesamt 122. 14 Vogelarten sind seit dem Ende des II.Weltkriegs ausgestorben und 15 haben in diesem Zeitraum sporadisch oder nur einmal gebrütet. 22 ehemalige Vogelarten sind seit 1999 nichtmehr imGebiet als Brutvögel nachgewiesen worden. Ihre Bestandsentwicklungen, Brutzeitfeststellungen und die letzten Brutvorkommen werden beschrieben sowie die Hauptursachen, die zum Erlöschen führten, diskutiert. Viele wahrscheinliche Ursachen für den Rückgang und das Aussterben sind primär bei uns in Mitteleuropa zu suchen, andere in den Überwinterungsländern. Weiter werden großräumige Lebensraumzerstörung und Pestizideinsatz, Verfolgung auf dem Durchzug und Klimaerwärmung diskutiert.
Im Rahmen einer Bestandserfassung im FFH-Gebiet „Bentheimer Wald“ (Niedersachsen, Grafschaft Bentheim) wurden auf 16 Probeflächen Moose und Flechtenarten der Altholzbestände erfasst. Insgesamt konnten hierbei 78 Flechten- und 64 Moosarten nachgewiesen werden. Eine artenreiche Flechtenflora mit großen Populationen von Indikatorarten für Waldstandorte mit einer langen Bestandeskontinuität („historisch alte Wälder“) wurde beobachtet. Hervorzuheben ist der Wiederfund der für Deutschland als ausgestorben bzw. verschollen eingestuften Porina borreri und der Neunachweis der bundesweit seltenen Agonimia allobata für Niedersachsen. Aufgrund einer größeren Anzahl in Deutschland vom Aussterben bedrohter Flechtenarten und dem derzeit bundesweit einzigen aktuellen Nachweis von Porina borreri kommt dem Bentheimer Wald eine sehr hohe Bedeutung für den Flechtenartenschutz zu.
In 2001 wurden an 9 ausgewählten Kleingewässern im ca. 2.000 ha großen Arenberger Eleonorenwald bei Vrees (Landkreis Emsland, Niedersachsen) qualitative Untersuchungen zum Vorkommen und zur Verbreitung von Amphibien durchgeführt. Die untersuchten Gewässer unterschieden sich in Größe und pflanzlichem Bewuchs. Insgesamt konnten 9 Amphibienarten nachgewiesen werden, von denen 4 Arten (Erdkröte, Grasfrosch, Teichfrosch, Teichmolch) an fast allen Gewässern auftraten. Die Vorkommen von Kreuz- und Knoblauchkröte beschränkten sich auf zwei, z. T. stark temporäre Gewässer, die von größeren Offenlandbiotopen innerhalb des Eleonorenwaldes umgeben waren. Ebenfalls nachgewiesen werden konnten Kamm- und Bergmolch. Beim Bergmolch handelt es sich um den ersten Nachweis für den Landkreis Emsland. Das Vorkommen befindet sich in einem historisch alten Laubwaldrest. Der Kammmolch trat an einem kleinen, wasserpflanzenreichen Stillgewässer auf, das in Waldrandnähe lag. Moorfrösche wurden in nur wenigen Exemplaren festgestellt. Ihre Fundorte lagen im östlichen Teil des Eleonorenwaldes im Übergang zur Marka-Niederung. Die Ergebnisse der vorliegenden Untersuchung werden mit anderen Arbeiten zum Vorkommen von Amphibien im Weser-Ems-Raum verglichen.
Die Untersuchungen wurden auf Niedermoorwiesen im Naturschutzgebiet „Stroomdallandschap Drentsche Aa“ in den Niederlanden an fünf verschiedenen Stellen durchgeführt, an denen die Düngung eingestellt wurde (1, 5, 10, 25 und 32 Jahre). Es werden die vorläufigen Ergebnisse der Untersuchung der Springschwanz-Gesellschaften in diesen ausgemagerten Niedermoorwiesen dargestellt. Bei allen untersuchtenWiesen ist die Artendiversität, gemessen nach dem Shannon-Wiener-Index, sehr gering. Die Abundanzen und der Artenreichtum zeigen die Tendenz, während der ersten 25 Jahren nach Einstellen der Düngung anzusteigen, während sie nach 32 Jahren abfallen.
In diesem zweiten Teil einer Monographie der bisher bekannten Insekten (ausschließlich der Blattodea) aus Schichten des Westfalium D vom Piesberg bei Osnabrück (Niedersachsen, Deutschland) werden die Angehörigen der Neoptera beschrieben. Sie verteilen sich auf folgende Arten: Gerarus teutonicus n. sp., Osnogerarus trecwithiensis Kukalová-Peck & Brauckmann, 1992, Heterologellus? multidiffusus n. sp., Geraridae inc.sed. F7 (alle: Geraridae Scudder, 1885), Spiculum mendicum n. gen. n. sp. (Hapalopteridae Handlirsch, 1906), Narkeminopsis sowiaki n. sp. (Narkeminidae Pinto & Ornellas, 1991), Primakollaria amicorum n. gen. n. sp. (Protokollariidae Handlirsch, 1906), Caloneurodea inc. fam. F11, Controversalamiomopteroides n. gen. n. sp. (ord. et fam. inc. sed.).
Anlass für die Konversion hebräischschriftlicher Zeugnisse in ein anderes Schriftsystem ist im Falle von Bibliotheken der bibliographische Nachweis von Materialien in einem zentralen Katalog, der in einer dominanten Schrift geführt wird. Für Bibliotheken im europäischen und anglo-amerikanischen Sprachraum ist das die lateinische. Weltweit gelten und galten im Bibliotheksbereich unterschiedliche Standards für die Umschrift des Hebräischen. Die Verschiedenartigkeit der Transliterationssysteme und mangelnde Information der Nutzer durch die Bibliotheken über den jeweils verwendeten Standard führen zu großer Unsicherheit bei der Formulierung der Suchanfrage im Rahmen einer OPAC-Recherche. In der vorliegenden Arbeit werden vor diesem Hintergrund Internetauftritte und Online-Kataloge mehrerer europäischer und amerikanischer Bibliotheken betrachtet, die bedeutende Hebraica-Bestände halten. Die Untersuchung konzentriert sich einerseits auf die Frage nach der Vermittlung des für ein zuverlässiges Retrieval notwendigen Wissens. Weiterhin werden einheitliche Suchanfragen an die verschiedenen Online-Kataloge gerichtet und die Rechercheergebnisse analysiert. Ein Exkurs beschreibt die Konsequenzen der Bearbeitung hebräischsprachiger Medien für den Geschäftsgang in Bibliotheken. Diese Veröffentlichung ist die überarbeitete Fassung einer Masterarbeit im postgradualen Fernstudiengang Master of Arts (Library and Information Science) an der Humboldt-Universität zu Berlin.