Refine
Year of publication
- 2005 (1223) (remove)
Document Type
- Article (539)
- Doctoral Thesis (186)
- Part of Periodical (123)
- Review (108)
- Book (68)
- Part of a Book (57)
- Report (32)
- Working Paper (29)
- Conference Proceeding (25)
- diplomthesis (14)
Language
- German (1223) (remove)
Keywords
- Rezension (21)
- Deutsch (20)
- Deutschland (20)
- Frankfurt <Main> / Universität (20)
- Johann Wolfgang von Goethe (20)
- Biographie (15)
- Literatur (15)
- Vormärz (15)
- Frankfurt <Main> (14)
- Frankfurt (12)
Institute
- Medizin (112)
- Extern (49)
- Rechtswissenschaft (43)
- Präsidium (38)
- Biochemie und Chemie (31)
- Biowissenschaften (27)
- Neuere Philologien (25)
- Physik (25)
- Erziehungswissenschaften (24)
- Geschichtswissenschaften (23)
Die Rho-Kinase gehört zur Familie der Serin/Threonin Kinasen und wird durch verschiedene vasoaktive Mediatoren, wie Katecholamine, UII, Thromboxan und Serotonin aktiviert. Sie spielt eine Schlüsselrolle in der Gefäßkontraktion des glatten Muskels. Die Rho-Kinase induzierte Kontraktion ist in allen Gefäßbetten der verschiedenen untersuchten Tierspezies (Ratte, Maus, Kaninchen, Schwein) induzierbar und durch selektive Rho-Kinase Inhibitoren konzentrationsabhängig hemmbar. Die Rho-Kinase Inhibitoren induzieren in vitro eine Gefäßrelaxation und führen in vivo zu einer Blutdrucksenkung. In akuten invasiven Blutdruckmessungen und chronischen telemetrischen Untersuchungen wurde für Rho-Kinase Inhibitoren eine Senkung des peripheren arteriellen Blutdrucks nachgewiesen. Der vasorelaxierende Effekt von Rho-Kinase Inhibitoren in vitro und in vivo ist gleichermaßen in normotensiven und hypertensiven Tiermodellen messbar und hängt nicht von der Endothelfunktion ab. Es wurden keine Unterschiede in der Sensitivität gegenüber Rho-Kinase Inhibitoren zwischen hypertensiven Tieren und normotensiven Tieren gemessen. In der Proteinexpressionsanalyse zeigte sich eine tendenziell, aber nicht signifikante Erhöhung der Rho-Kinase II-Expression im arteriellen glatten Gefäßmuskel der hypertensiven Tiere. Im Tiermodell der pulmonalen arteriellen Hypertonie wurde durch chronische Behandlung mit Rho-Kinase Inhibitoren die Progredienz der PAH verbessert. Rho-Kinase Inhibitoren normalisierten die Endothelfunktion und die Hyperkontraktilität der pulmonalen Gefäße. Zusätzlich konnten die Rechtsherzhypertrophie und rechtsventrikuläre Druck verbessert werden. In Untersuchungen am isoliert perfundierten Herzen nach Langendorff führte die Perfusion mit Rho-Kinase Inhibitoren zu einer verbesserten Durchblutung der Herzkranzgefäße. Die kardiale Kontraktilität und die Herzfrequenz wurden durch die akute Rho-Kinase Hemmung nicht beeinflusst. Zusätzlich zur Gefäßfunktion reguliert Rho-Kinase auch die Aktivierung und Aggregation von Thrombozyten. Vasoaktive Mediatoren können eine Rho-Kinase induzierte Aktivierung von Thrombozyten bewirken und so die Atherogenese begünstigen. Die Hemmung von Rho- Kinase bewirkt die Hemmung der Thrombozytenaggregation. Die Aktivierung von Rho- Kinase ist essentiell für zelluläre Transportvorgänge und die Zellmotilität. Dies wird durch Umstrukturierung des Zytoskeletts und mit Hilfe von Stressfaserformierungen realisiert. Rho- Kinase Hemmung verringert die Formierung von Stressfasern und kann somit Transporte von cholesterolsensitiven Transkriptionsfaktoren, z.B. SREBPs, zu ihren Bindungselementen reduzieren. Dadurch wird eine verstärkte Expression SRE-regulierter Gene, wie z.B. Cholesterolsyntheseenzymen, verhindert. Gleichzeitig führt eine Hemmung der Rho-Kinase Aktivität zu einer Senkung der Proliferationsrate von glatten Muskelzellen und Monozyten. Im LDLR defizienten Tiermodell der Atherosklerose wurde durch eine chronische Behandlung mit Rho-Kinase Inhibitoren eine signifikante Verbesserung der Endothelfunktion erreicht. Die Behandlung mit Rho-Kinase Inhibitoren zeigt allen untersuchten Modellen der Hypertonie blutdrucksenkende Effekte. In Modellen der Atherosklerose wurden durch Langzeitbehandlung mit Rho-Kinase Inhibitoren therapeutische Effekte auf die Endothelfunktion erzielt. Durch Reduktion der Risikofaktoren Bluthochdruck, Atherosklerose und endotheliale Dysfunktion senken Rho-Kinase Inhibitioren das kardiovaskuläre Risiko und bieten eine neue Therapiemöglichkeit zur Behandlung und Prophylaxe von Herz- Kreislauferkrankungen.
Unter Berücksichtigung der implementationsanalytischen und kausalen Analysen für die Einführungsphase der Vermittlungsgutscheine kommen die Autoren zu dem Schluss, dass die Erprobungsphase dieses arbeitsmarktpolitischen Instruments fortgesetzt werden sollte. Aus der Implementationsanalyse zeigt sich, dass der Verbreitungsgrad des Instruments auch nach 27 Monaten Erprobungsphase sehr gering ist. Die kausalen Analysen beziehen sich aufgrund begrenzter Datenverfügbarkeit lediglich auf zwei Ausgabemonate ein Jahr nach Einführung des Instruments (Mai und Juni 2003) und zeigen geringe positive Beschäftigungseffekte auf der Mikro-Ebene. Ob dadurch die Kosten der Vermittlungsgutscheine gerechtfertigt sind, lässt sich derzeit noch nicht abschließend beurteilen. Anzeichen für Mitnahmeeffekte und/oder Missbrauch existieren. Auch haben erfolgreiche Vermittlungen durch Gutscheine die Beschäftigungschancen in anderen Gruppen geschmälert. Deshalb werden verschiedene Vorschläge für eine kosteneffizientere Ausgestaltung der Vermittlungsgutscheine dargestellt und diskutiert. Insbesondere wird auf die Vorschläge des Bundeskabinetts vom 01.09.2004 eingegangen.
Holzkohlen aus archäologischen Grabungen im Sahel von Burkina Faso belegen die regionale Geschichte der Gehölzvegetation über die letzten 2000 Jahre. Der Bodenbau, den die sesshaft lebende Bevölkerung seit Beginn unserer Zeitrechnung intensiv betreibt, veränderte die Zusammensetzung der Gehölzvegetation vor allem auf den Dünen der Region. Im Vergleich mit der heutigen Vegetation lassen sich zudem klimatische Veränderungen nachweisen. Untersucht wurden über 9000 Fragmente aus sieben verschiedenen archäologischen Grabungen. Sechs Inventare stammen aus Siedlungshügeln. Bei einem Fundplatz handelt es sich um einen Hausgrundriss. Insgesamt wurden 37 Holzkohletypen erkannt und dokumentiert. Die untersuchten Inventare der Siedlungshügel zeigen, dass vor allem die Gehölzvegetation der Dünen und der Galeriewälder zur Brennholzentnahme genutzt wurde. Je nach Lage der Siedlung und dem Schwerpunkt der Wirtschaftsweise können verschiedene Taxa mit höheren Anteilen vertreten sein, möglicherweise zusätzlich verstärkt durch die anthropogene Auswahl von verfügbarem Brennholz. Im Vergleich der Holzkohleinventare lassen sich für die Eisenzeit regionale Entwicklungen erkennen. Die natürlichen Gehölzbestände auf den Dünen, unter anderem aus verschiedenen Akazienarten, wurden, zumindest in der Umgebung der Siedlungen, verdrängt. Stattdessen nahmen aufgrund der selektiven Förderung durch den Menschen die Anteile der Gehölze der Kulturbaumparks, Vitellaria paradoxa und Faidherbia albida zu. Die Landwechselwirtschaft förderte zudem Brachearten insbesondere aus der Familie der Combretaceae. In der späten Eisenzeit nahm Guiera senegalensis zu, die von starker Beweidung der Brachen profitiert. Der Unterwuchs der Galeriewälder an den mares und Wasserläufen wurde mit zunehmender Besiedlungsdauer in der Umgebung der einzelnen Fundplätze aufgelichtet, die Anteile von Combretum micranthum gehen in den Inventaren der einzelnen Siedlungsplätzen jeweils zurück. Klima und Vegetation waren während der Eisenzeit sudano-sahelisch. Auf feuchteres Klima verweisen Vitellaria paradoxa und Detarium microcarpum, die deutlich höhere Niederschläge benötigen, als sie die Region heute erhält. Der hohe Anteil von Taxa, die heute weiter südlich verbreitet sind, belegt zudem den sudanischen Aspekt der Gehölzvegetation. Der Vergleich der anthrakologischen mit den palynologischen und karpologischen Ergebnissen zeigt, dass die Gehölzvegetation sich unter zunehmend arideren Bedingungen in den letzen 2000 Jahren anthropozoogen stark verändert hat. Das Klima scheint aber während der Eisenzeit von 0-1500 AD vergleichsweise stabil gewesen zu sein. Erst danach haben die Niederschläge sich soweit verringert, dass in den letzten 500 Jahren einige sudanische Taxa aus der Region verschwanden, die noch während der Eisenzeit zur regionalen Flora gehört hatten, zum Beispiel Vitellaria paradoxa, Detarium microcarpum und Lannea sp. Der Vergleich der eisenzeitlichen Holzkohleflora mit der rezenten Dynamik der Vegetation und mit der Verbreitung einiger Arten um die Mitte des 20. Jahrhunderts zeigt, dass einige Taxa, wie Terminalia sp. möglicherweise erst in den letzten fünfzig Jahren aus der Region verschwunden sind.
In dieser Arbeit wurde die Produktion geladener Kaonen in C+C und Si+Si- Kollisionen bei Strahlenergien von 40A und 158A GeV untersucht, die verwendeten Daten stammen vom CERN Experiment NA49. Die Kaonen wurden über den mittleren Energieverlust in den TPCs identifiziert, was die Messung der Phasenraumverteilung in einem großen Bereich möglich machte. Die Analyse basiert auf der dE/dx Auswertung aller NA49 TPCs (globale Analyse). Es wurde herausgefunden, dass bei den C+C und Si+Si Datensätzen die MTPC dE/dx Information unvollständig auf den DSTs gespeichert wurde. Da die Auflösung bei der Bestimmung des mittleren Energieverlusts beschränkt ist, ist die Teilchenidentifikation nur über statistische Methoden möglich. Im Kapitel 4 wird diese von Marco van Leeuwen mitentwickelte Methode beschrieben. Für die endgültigen Werte der Phasenraumverteilung der Teilchen müssen die identifizierten Kaonen noch auf Effekte korrigiert werden, die durch den Aufbau des Detektors und die verwendete Analysesoftware hervorgerufen werden. Die Korrekturen werden im Kapitel 5.4 beschrieben und angewandt, dies sind unter anderem geometrische Korrekturen, Akzeptanz und Zerfallskorrekturen. Die Ergebnisse bei 158A GeV wurden mit C.Höhnes Ergebnissen verglichen und stimmen im Rahmen der Fehler überein. Zur Übersicht wurden die Daten mit den anderen NA49-Daten zusammengefasst. Dabei ist zu erkennen dass die Verhältnisse < K+ > / < NW >, < K+ > / < + >, < K > / < NW > und < K > / < > im Bereich zwischen p+p und Si+Si schnell ansteigen und im weiterem Verlauf bis Pb+Pb kaum weiter ansteigen. Im Rahmen des Statistical Model of the Early Stage sind dies Anzeichen für einen Übergang in das Quark-Gluon-Plasma bei 40A GeV in Si+Si Kollisionen. Für eine Bestätigung dieser Vermutung sind jedoch weitere Messungen bei unterschiedlichen Energien und Systemen notwendig.
Humanpharmaka stellen eine permanente Belastung von Gewässern dar. Im Rahmen der vorliegenden Arbeit wurde erstmals gemäß dem von der Europäischen Arzneimittelagentur EMEA entwickelten Konzept zur Durchführung von Umweltrisikobewertungen von Humanpharmaka mit mehreren ausgewählten Substanzen Umweltrisikobewertungen durchgeführt. Die hierfür ausgewählten Pharmaka sind das Antiepileptikum Carbamazepin (CBZ), das Antibiotikum Sulfamethoxazol (SMX) und das synthetische Östrogen 17a-Ethinylöstradiol (EE2). Als Vertreter der Inhaltsstoffe von Körperpflegeprodukten wurde der polyzyklische Moschusduftstoff Tonalid (AHTN) in die Untersuchungen mit einbezogen. Mit Hilfe von Literaturrecherchen wurde die Datengrundlage für Expositions- und Wirkungsabschätzungen bereitgestellt. Der vorhandene recherchierte Datensatz wurde mit entsprechenden Kurz- und Langzeitstudien ergänzt. Die mit den Ergebnissen der Expositions- und Wirkungsabschätzungen vorgenommenen Umweltrisikobewertungen ergaben im ersten Schritt basierend auf Kurzzeitstudien unter den ausgewählten Substanzen lediglich für den Moschusduftstoff AHTN ein erhöhtes Umweltrisiko für Oberflächengewässer. Basierend auf weiterführenden Langzeitstudien konnte das zunächst erkannte, durch AHTN indizierte Umweltrisiko entkräftet werden, jedoch ergaben die Risikocharakterisierungen für EE2 und SMX ein erhöhtes Risiko für das aquatische Kompartiment. Auf Grund der erhöhten Adsorptionspotenziale von CBZ, EE2 und AHTN wurden für diese Substanzen kompartimentspezifische Umweltrisikocharakterisierungen durchgeführt. Dabei wurde ein erhöhtes Umweltrisiko durch CBZ für das Kompartiment Sediment angezeigt. Basierend auf den Ergebnissen einer Sediment-Bioakkumulationsstudie mit dem endobenthischen Oligochaeten Lumbriculus variegatus, welche in einen unerwartet hohen Akkumulationsfaktor resultierte, und aus der Literatur verfügbaren Fisch-Biokonzentrationsfaktoren wurde anhand der Nahrungskette Wasser-Sediment-Wurm-Fisch die Möglichkeit des ‚secondary poisonings’ durch EE2 bei wurmfressenden Fischen unter natürlichen Bedingungen aufgezeigt. Zur Verwendung dieses Ergebnisses in einer Umweltrisikobewertung zum Zwecke der Zulassung von Pharmaka sollten weitergehende Untersuchungen zur Bestätigung durchgeführt werden. Bezugnehmend auf die Resultate der eigenen Studien und auf die besonderen Eigenschaften von Humanpharmaka wurde der EMEA-Richtlinienentwurf diskutiert und Verbesserungsvorschläge erarbeitet. Bis auf wenige Anpassungen geht das EMEA-Bewertungsschema nicht auf die Besonderheiten und spezifischen Eigenschaften von Humanpharmaka ein. Hauptkritikpunkte bezogen sich auf (1) die Anwendung eines konzentrationsabhängigen Schwellenwertes als Entscheidungsgrundlage zur Durchführung einer Risikocharakterisierung, (2) das stufenweise Vorgehen bei der Wirkungsabschätzung mit zuerst ausschließlich auf Kurzzeitstudien basierenden Effektdaten, und (3) unzureichende Angaben zu Vorgehensweisen in der höheren Stufe des Bewertungsschemas, vor allem bei Substanzen mit außergewöhnlichem ökotoxikologischen Potenzial. Trotz der zur Zeit intensiven internationalen Diskussion über mögliche Auswirkungen durch endokrine Disruptoren auf Mensch und Umwelt sieht der EMEA-Richtlinienentwurf nicht ausdrücklich vor, die Umweltgefährdung durch potenziell endokrin wirksame Substanzen mit spezifischen Testmethoden festzustellen und zu bewerten. Die Erkenntnis, dass spezifische Wirkmechanismen bei Chemikalien, speziell bei Arzneimitteln und Bioziden, auch in sehr niedrigen Konzentrationen zu Wirkungen in der Umwelt führen können, bleibt im EMEA-Richtlinienentwurf auf Grund der Einführung eines expositionsbezogenen Schwellenwertes und der Wirkungsabschätzung mittels Akutstudien nur unzureichend berücksichtigt. Zur Schließung dieser Lücke, die durch Untersuchungen zu endokrinen Wirkungen in der Umwelt offensichtlich wurde, müssen neue und bessere ökotoxikologische Instrumente entwickelt werden und das Umweltrisikobewertungsschema entsprechend erweitert und angepasst werden.
Eine große Herausforderung auf dem Forschungsgebiet der P2-Rezeptoren stellt die Entwicklung von potenten und selektiven Antagonisten für die einzelnen Rezeptorsubtypen dar, um die P2-Rezeptoren in nativen Geweben zu identifizieren und ihre physiologische und pathophysiologische Funktion aufzuklären. Ziel dieser Arbeit war zum einen die Entwicklung solcher P2-Antagonisten und zum anderen der Vergleich der pharmakologischen Befunde, die an nativen P2-Rezeptoren humaner Thrombozyten und isolierter Organe der Ratte sowie des Meerschweinchens ermittelt wurden, mit Ergebnissen an rekombinanten Rezeptoren, um somit Aussagen über P2-Rezeptoren verschiedener Spezies sowie nativer und rekombinanter P2-Rezeptoren treffen zu können. Mit Hilfe der P2Y1- und P2Y12-Standardantagonisten MRS2179, A3P5P und 2-meSAMP konnte gezeigt werden, dass für die ADP-induzierte Aggregation von in Puffer suspendierten Thrombozyten die gleichzeitige Aktivierung von P2Y1- und P2Y12-Rezeptoren zwingend erforderlich ist. Dagegen handelt es sich bei ADP- bzw. abmeATP-induziertem „shape change“ und Anstieg der intrazellulären Calciumkonzentration um rein P2Y1- bzw. P2X1-vermittelte Effekte humaner Thrombozyten, die zur Charakterisierung von Antagonisten an diesen Rezeptoren geeignet sind. Weiterhin wurden Untersuchungen am P2X1-Rezeptor des Ratten-Vas-deferens sowie am P2X3- und P2Y1-Rezeptor des Meerschweinchen-Ileum durchgeführt. Ausgehend von den Leitstrukturen Suramin und PPADS wurden Strukturmodifikationen vorgenommen mit dem Ziel, die Wirkstärke und die Selektivität zu erhöhen. Bei PPADS ist es durch Variation des Restes am Pyridoxalphosphat gelungen, sowohl P2X1- wie auch P2Y1-selektive Antagonisten zu entwickeln. Mit dem Ersatz des Phenylrestes durch einen Naphthylrestes beim PPNDS wurde die größte P2X1-versus P2Y1-Selektivität erreicht, wohingegen das Heterodimer SB9, bestehend aus Pyridoxalphosphat und einem Suraminmonomer, eine P2Y1-versus P2X1-Präferenz aufweist. Die einzelnen PPADS-Analoga unterscheiden sich hinsichtlich ihrer Kinetik und des antagonistischen Mechanismus. Bei einigen Substanzen wurde ein kompetitiver, bei anderen ein „pseudoirreversibler“ oder nichtkompetitiver Antagonismus beobachtet. Im Gegensatz zu den P2-Rezeptoren glattmuskulärer Organe zeigen alle untersuchten PPADS-Analoga an P2-Rezeptoren der Thrombozyten einen nichtkompetitiven Antagonismus. Weiterhin wurde beobachtet, dass die Strukturmodifikationen einen wesentlich geringeren Einfluss auf die Wirkstärke an P2-Rezeptoren der Thrombozyten haben als an den Rezeptoren glattmuskulärer Organe. Bei den Suraminanaloga ist es gelungen durch Strukturmodifikationen potente und selektive Antagonisten für humane P2X1-Rezeptoren zu entwickeln. Es zeigte sich, dass die tetravalenten Verbindungen NF449, NF110 und NF864 eine wesentlich höhere Affinität zum P2X1-Rezeptor humaner Thrombozyten aufweisen als ihre bivalenten Analoga. Die größte P2X1- versus P2Y1-Selektivität wurde bei NF110 erreicht, die größte Wirkstärke am P2X1-Rezeptor dagegen ist beim NF864 zu finden. Bei der Substanz NF864 handelt es sich um den derzeit potentesten P2X1-selektiven Antagonisten humaner Thrombozyten. Somit sollte sich NF864 zur Untersuchung der Beteiligung des P2X1-Rezeptors an der Hämostase als nützlich erweisen. Korrelationen der Ergebnisse des abmeATP-induzierten „shape change“ mit denen des abmeATP-induzierten Calciumeinstroms in Thrombozyten zeigten, dass beide Vorgänge allein durch den P2X1-Rezeptor vermittelt werden und wahrscheinlich über den gleichen Transduktionsweg ablaufen. Intrazellulärer Calciumanstieg und „shape change“, die durch ADP ausgelöst werden, sind ausschließlich P2Y1-vermittelt, verlaufen aber unter Umständen über unterschiedliche Transduktionswege. Vergleicht man die Ergebnisse, die an humanen Thrombozyten ermittelt wurden mit denen der isolierten Organe so ist weder bei der Wirkstärke noch beim antagonistischen Mechanismus eine völlige Übereinstimmung festzustellen. Auch der Vergleich der Ergebnisse, die an nativen P2X1-Rezeptoren ermittelt wurden, mit Daten an rekombinanten Rezeptoren ergaben weder bei den Thrombozyten, noch bei den isolierten Vasa deferentia der Ratte eine klare Korrelation. Struktur-Wirkungs-Beziehungen von P2X1-Antagonisten sind somit scheinbar nur innerhalb eines Modells möglich. Die Interpretation auf antagonistische Potenzen von Verbindungen zwischen nativen P2X1-Rezeptoren unterschiedlicher Spezies sowie zwischen nativen und rekombinanten P2X1-Rezeptoren einer Spezies müssen nach dem heutigen Stand der Wissenschaft mit Vorsicht betrachtet werden.
Johann Christian Ruhls Umrißradierungen zu Bürgers Ballade „Lenore“ (1773) stehen in der Tradition der klassizistischen linearen Illustrationskunst (Flaxman). Die 12 Blätter setzen die Schauerballade mit all ihrer Leidenschaft adäquat um. Diese Geschichte – sagt A. W. Schlegel über „Lenore“ – „welche die getäuschten Hoffnungen und die vergebliche Empörung eines menschlichen Herzens, die alle Schauer eines verzweiflungsvollen Todes in wenigen leichtfasslichen Zügen und lebendig vorüberfliehenden Bildern entfaltet, ist ohne conventionelles Beiwerk.“ Als Regieanweisung zur rechten Lektüre rät Bürger einem Freund: Wenn Sie die Ballade „vorlesen, so borgen Sie einen Todtenkopf von einem Mediciner, setzen solchen bei einer trüben Lampe, und dann lesen Sie“.
Erst ausgehend von ihrer Erfindung in der bildenden Kunst hielt die Landschaft Einzug in die Literatur; literarische Landschaftsdarstellungen im engeren Sinn finden sich gegenüber malerischen Landschaftsdarstellungen erst mit deutlicher Verzögerung, wenngleich sie auch literarische Vorläufer haben. Was man unter Landschaften in der Literatur alles verstehen sollte, mag umstritten sein. In jedem Fall liegt es nahe, literarische Landschafts-Texte mit bildkünstlerischen Darstellungen zu vergleichen.
Die vorliegende Arbeit beschäftigt sich mit der Bewältigung eines extremen Mangels an Rohstoffen in der Zeit von etwa 1800 v. Chr. bis 500 n. Chr., was nach herkömmlicher Periodisierung der Endsteinzeit und frühen Eisenzeit Nordost-Nigerias entspricht. Dieser Mangel bestand an Gesteinen zur Fertigung von verschiedenen Geräten. Im betrachteten Gebiet, dem Tschadbecken in Nordost-Nigeria, bedecken mächtige Beckenablagerungen anstehende Gesteine, sodass die Versorgung von außerhalb erfolgen musste. Was für die prähistorischen Siedler ein Nachteil war - vor allem in den prä-metallurgischen Abschnitten muss das Fehlen von Steinen ein ernstes Problem dargestellt haben - ist archäologisch ein Glücksfall mit selten klaren Ausgangsvoraussetzungen. Da jeder im archäologischen Kontext vorgefundene Stein von Menschen dorthin gebracht worden sein muss, ergeben sich neben der üblichen Betrachtung der Geräteformen vor allem Fragen nach Art und Herkunft des verwendeten Rohmaterials sowie nach deren eventueller Veränderung im Laufe der betrachteten Zeit. Von zentraler Bedeutung war dabei die Frage, ob und wie sich die in anderen Fundkategorien dokumentierten sozio-ökonomischen Umbrüche im ersten vorchristlichen Jahrtausend auch in der Versorgung mit lithischen Rohmaterialien widerspiegeln. Die Datengrundlage bilden rund 13000 Steinartefakte aus unterschiedlichen Fundkontexten (Ausgrabungen, Lesefunde, systematische Beprobungen). Sie stammen aus etwa 400 Fundstellen, die alle chronologischen Phasen abdecken und über den gesamten Betrachtungsraum verteilt sind. Durch diese breite Datengrundlage kann den Ergebnissen eine relativ hohe Repräsentanz zugerechnet werden. Sämtliche Artefakte wurden nach archäologischen und petrologischen Kriterien klassifiziert. Die auf diese Weise gebildeten Gesteinsgruppen wurden dann mit Proben potentieller Gesteinsquellen verglichen, um die Herkunft des im Fundkontext vorliegenden Materials zu erschließen. Die entsprechenden Gesteinsproben wurden bei geoarchäologischen Prospektionen in Nigeria, Kamerun und Tschad geborgen. Sämtliche potentielle Lagerstätten für die Versorgung des engeren archäologischen Betrachtungsgebietes in Nordost-Nigeria sind hierbei berücksichtigt. Das Geräte- wie Rohmaterialspektrum ist überschaubar. Ein Großteil (80%) besteht aus Mahlgeräten aus Granit und Sandstein, gefolgt von Beilklingen aus vulkanischen Gesteinen. Seltener vorkommende Geräteformen sind Pfeilspitzen oder Perlen, die meist aus Kieselgesteinen gefertigt sind, sowie Steinkugeln, Rillensteine oder Steinringe aus verschiedenen Gesteinsarten. Die Artefakte sind nur selten vollständig erhalten und zeigen in vielen Fällen Spuren von Überarbeitung und Mehrfachverwendung. Darin drückt sich besonders deutlich der Mangel und generell hohe Wert von Steinen aus. Von den klassifizierten Gesteinstypen wurde die Herkunft in drei Fällen genau lokalisiert. Andere Teile wurden zumindest regional eingegrenzt. Abbaustellen sind jedoch unbekannt. Beim chronologischen Vergleich der Rohmaterialspektren in den Inventaren der Fundstellen zeigten sich sodann markante Veränderungen, die in die Zeit sozio-ökonomischer Umbrüche in der Mitte des ersten vorchristlichen Jahrtausends fallen. Die Veränderungen betreffen eine völlige Umorganisation der Rohmaterialherkunft und –verteilung und sind Ausdruck einer verbesserten Versorgung und erweiterter oder sogar neuer Kontakte.
Im Rahmen des DFG-Forschungsprojektes Scha 237/12-1 (Betreuer Prof. Dr. Eike W. Schamp) in Kooperation mit der University of Jordan in Amman/Jordanien (Betreuer Prof. Dr. Nasim Barham) wird derzeit u.a. die Rolle deutscher Reiseveranstalter (RV) in der (globalen) Wertschöpfungskette (Global Commodity Chain, GCC) des Pauschaltourismus von Deutschland nach Jordanien untersucht. Das vorliegende Papier gibt vornehmlich einen ersten Zwischenstand im Rahmen der laufenden empirischen Erhebung unter klein- und mittelständischen RV in Deutschland wieder, welche Reisen nach Jordanien innerhalb ihres Programmportfolios konzipieren und an den Endkunden, den Tourist, verkaufen. Der Schwerpunkt des Papers liegt auf der Identifizierung von Mechanismen der Zusammenarbeit zwischen zwei verschiedenen Unternehmen einer touristischen GCC, der deutsche RV sowie die jordanische Zielgebietsagentur (ZA). Beide wirken als zentrale Akteure bei der Erstellung einer Pauschalreise, indem sie jeweils Leistungen von Fremdanbietern bündeln und somit als (verschieden mächtige) „Knoten“ im Prozess der Leistungserstellung wirken. Dieser Prozess findet über weite geographische Distanzen statt.
Hintergrund und Fragestellung: Im Zuge der Einführung eines generellen Neugeborenen-Hörscreenings sind durch ständige Verbesserung und Neuentwicklung von Screening-Geräten die technischen Voraussetzungen für das Screening zu schaffen und diese zu optimieren. Das Gerät muss eine hohe Sensitivität, Spezifität und eine gute Handhabbarkeit aufweisen sowie kostengünstig sein. Zudem wird eine Testauffälligenrate von unter 4 % im Primärscreening gefordert. Für ein effektives Screening muss das optimale Verfahren ausgewählt werden. Hier stehen reine OAE- und AABR-Verfahren kombinierte OAE/ABR-Verfahren zur Auswahl. Patienten und Methode: In zwei Geburtskliniken wurden an 360 Neugeborenen jeweils monaural zwei DPOAE-Messungen mit den Geräten ABaer® und Ero-Scan® sowie eine AABR-Messung mit dem ABaer® durchgeführt. Ergebnisse: Für das ABaer® lag die Testauffälligen-Rate in den DPOAE-Messungen bei 3,3 % mit einem einzigen Test, in den AABR-Messungen betrug sie 2,2 %. Das Ero-Scan® lag mit 13,6 % unter diesen Ergebnissen. Die Messzeiten betrugen beim ABaer® AABR 2:18 min, beim ABaer® DPOAE 1:38 min und beim Ero-Scan® 0:23 min. Für die Untersuchungszeiten ergaben sich Werte von 7 min für die AABR-Messung, 3:21 min für die DPOAE des ABaer® und 3 min für das Ero-Scan®. Die Sensitivität in dieser Studie betrug für das ABaer® für DPOAE und AABR 100 %. Die Studienspezifität für die AABR-Messung lag bei 92,5 %, für die DPOAE des ABaer® bei 94,5 % und für das Ero-Scan® bei 70,6 %. Die Verfahrensspezifitäten betrugen für die AABR-Messung 97,4 %, für die DPOAE-Messung des ABaer® und für das Ero-Scan® 83,8 %. Für ein beidohriges Screning ergaben sich Kosten für ein OAE/ABR-Kombi-nationsscreening mit dem ABaer® von 17,47 €, ein reines OAE-Screening berechnete sich mit 9,85 € und ein reines AABR-Screning mit 15,10 €. Aufgrund der Anzahl der notwendigen Wiederholungsmessungen ergaben sich für das Ero-Scan® Kosten von 11,28 €. Schlussfolgerung: Das ABaer® scheint sowohl für die AABR-Messung, als auch für die DPOAE-Messung für ein Screening geeignet. Es entspricht weitgehend den geforderten Qualitätskriterien. Das Ero-Scan® erwies zum durchgeführten Screening-Zeitpunkt erhebliche Mängel auf und erfüllte die Qualitätskriterien für ein Neugeborenen-Hörscreening nicht. Anwenderbedingte Gründe dafür können weitgehend ausgeschlossen werden.
In dieser Studie wurden stationsbezogene Messdaten der bodennahen Lufttemperatur, des Niederschlages und des Windes in Deutschland und zum Teil auch in Mitteleuropa für den Zeitraum 1901 bzw. 1951 bis 2000 im Hinblick auf Änderungen ihres Extremverhaltens untersucht. Hierfür wurde ein bimethodischer Ansatz gewählt. Die als Methode I bezeichnete "zeitlich gleitende Extremwertanalyse" definiert für den betrachteten (gleitenden) Zeitraum feste Schwellen. An die Zeitreihen der Schwellenüber- bzw. Unterschreitungen wurden sowohl empirische, als auch theoretische Häufigkeitsverteilungen angepasst, aus denen extremwert-theoretische Größen wie Wartezeitverteilung, Wiederkehrzeit und Risiko abgeleitet wurden. Die Methode II der "strukturorientierten Zeitreihenzerlegung" sucht, basierend auf einer zugrundegelegten theoretischen Verteilung, nach zeitabhängigen Parametern der zugehörigen Wahrscheinlichkeitsdichte. Hierdurch lassen sich zeitabhängige Wahrscheinlichkeiten für das Über- bzw. Unterschreiten von Schwellen angeben. Die gleitende Analyse zeigt bei Niederschlagsmonatsdaten in ganz Deutschland für untere Schranken einen Trend zu seltenerem Auftreten von Extremereignissen. Bei oberen Schranken ist hingegen im Osten einen Trend zu seltenerem, im Westen einen Trend zu häufigerem Auftreten von Extremereignissen zu erkennen. Im Osten ergibt sich also insgesamt ein Trend zu weniger extremen Monatsniederschlagssummen, im Westen ein Trend zu höheren onatsniederschlagssummen. Bei den Niederschlagstagesdaten, bei denen nur die Untersuchung oberer Schranken sinnvoll ist, sind die Ergebnistrends denen der Niederschlagsmonatsdaten in ihrer regionalen Verteilung ähnlich. Allerdings sind die Trends hier schrankenabhängig. Insbesondere in Norddeutschland ergibt sich dabei für relativ niedrige Schranken ein Trend zu kleineren Überschreitungshäufigkeiten, für hohe Schranken hingegen ein Trend zu größeren Überschreitungshäufigkeiten. Damit ergibt sich insgesamt ein Trend zu extremeren Tagesniederschlägen. Bei den Temperaturdaten zeigen die Ergebnisse der gleitenden Analyse der Monatsdaten mit wenigen Ausnahmen ein selteneres Unterschreiten unterer Schranken (also: Kälteereignis). Dieses Verhalten ist bei den Temperaturtagesdaten sogar flächendeckend zu beobachten. Für obere Schranken (also: Hitzeereignis) ergibt sich im allgemeinen ein Trend zu häufigerem Auftreten von Extremereignissen. Allerdings ist dieser Trend nicht flächendeckend zu beobachten. Vielmehr gibt es in allen Regionen Deutschlands einzelne Stationen, bei denen ein Trend zu seltenerem Überschreiten oberer Schranken festzustellen ist. Bei der "strukturorientierten Zeitreihenzerlegung" wurden folgende Ergebnisse erzielt: Die Wahrscheinlichkeitsdichten der monatlichen und saisonalen Temperatur-Daten weisen überwiegend positive Trends im Mittelwert auf, die Streuung hat sich hier nur in Ausnahmefällen verändert. Dies führte zu teilweise deutlich gestiegenen Wahrscheinlichkeiten für besonders warme Monats- und saisonale Mittel im 20. Jh. (Ausnahme: Herbst im Datensatz 1951 bis 2000). Entsprechend sanken in diesem Zeitraum verbreitet die Wahrscheinlichkeiten für extrem kalte Monats- und saisonale Mittel. Ebenso stiegen dieWahrscheinlichkeiten für Häufigkeiten von besonders warmen Tagen (über dem 10%-Perzentil) ab 1951 in allen Jahreszeiten, besonders im Winter für die Tagesmaximum-Temperaturen. Dies korrespondiert mit einer beschleunigten Häufigkeits-Abnahme von besonders kalten Tagen in allen Jahreszeiten, besonders in Süddeutschland. Beim Niederschlag dominieren ausgeprägt jahreszeitliche Unterschiede: Im Winter findet sich sowohl ein Trend zu höheren Monats- und saisonalen Summen, als auch eine erhöhte Variabilität, was verbreitet zu einer deutlichen Zunahme von extrem hohen Niederschlagssummen in dieser Jahreszeit führt. Im Sommer hingegen wurde ein Trend zu einer verringerten Variabilität gefunden, wodurch auch extrem hohe monatliche und saisonale Niederschlagssummen in weiten Teilen Mitteleuropas in dieser Jahreszeit seltener geworden sind. Entsprechend haben Tage mit hohen (über dem 10%-Perzentil) und auch extrem hohen (über dem 5%- und 2%-Perzentil) Niederschlagssummen im Sommer verbreitet abgenommen, in den anderen Jahreszeiten (vor allem im Winter und in Westdeutschland) jedoch zugenommen. Beim Wind sind die Ergebnisse recht uneinheitlich, so dass hier eine allgemeine Charakterisierung schwer fällt. Tendenziell nehmen die Häufigkeiten extremer täglicher Windmaxima im Winter zu und im Sommer ab. Dies gilt jedoch nicht für küstennahe Stationen, wo auch im Winter oft negative Trends extremer Tagesmaxima beobachtet wurden - In Süddeutschland hingegen finden sich auch im Sommer positive Trends in den Häufigkeiten extrem starker Tagesmaxima. Jedoch sind die untersuchten Daten (Windmaxima über Beaufort 8 und mittlere monatliche Windgeschwindigkeiten) wahrscheinlich mit großen Messfehlern behaftet und zudem für die hier durchgeführten Analysen nur bedingt geeignet. Es hat sich somit gezeigt, dass das Extremverhalten von Klimaelementen, wie Temperatur und Niederschlag, im 20. Jhr. sehr starken Änderungen unterworfen war. Diese Änderungen im Extremen wiederum sind sehr stark von Änderungen des "mittleren" Zustandes dieser Klimaelemente abhängig, welcher durch statistische Charakteristika wie Mittelwert und Standardabweichung (bzw. allgemeiner Lage und Streuung) beschrieben werden kann.
Vorwort zur 1. Auflage Klima ist vor allem deswegen nicht nur von wissenschaftlichem, sondern auch von öffentlichem Interesse, weil es veränderlich ist und weil solche Änderungen gravierende ökologische sowie sozioökonomische Folgen haben können. Im Detail weisen Klimaänderungen allerdings komplizierte zeitliche und räumliche Strukturen auf, deren Erfassung und Interpretation alles andere als einfach ist. Bei den zeitlichen Strukturen stehen mit Recht vor allem relativ langfristige Trends sowie Extremereignisse im Blickpunkt, erstere, weil sie den systematischen Klimawandel zum Ausdruck bringen und letztere wegen ihrer besonders brisanten Auswirkungen. Hier geht es um den erstgenannten Aspekt, zu dem nun noch die räumlichen Strukturen treten. Der relativ langfristige und somit systematische Klimawandel läuft nämlich regional sehr unterschiedlich ab, was am besten in Trendkarten zum Ausdruck kommt. Solche regionalen, zum Teil sehr kleinräumigen Besonderheiten sind insbesondere beim Niederschlag sehr ausgeprägt. Schließlich sind die räumlichen Trendstrukturen auch jahreszeitlich bzw. monatlich sehr unterschiedlich. In unserer Arbeitsgruppe hat sich Jörg Rapp im Rahmen seiner Diplom- und insbesondere Doktorarbeit intensiv mit diese Problem beschäftigt, was zur Publikation des „Atlas der Niederschlags- und Temperaturtrends in Deutschland 1891-1990“ (Rapp und Schönwiese, 2. Aufl. 1996) sowie des „Climate Trend Atlas of Europe – Based on Observations 1891-1990“ (Schönwiese und Rapp, 1997) geführt hat. Die große Beachtung, die insbesondere der Klimatrendatlas Deutschland gefunden hat, ließ es schon lange als notwendig erscheinen, eine Aktualisierung vorzunehmen. Dieser Aufgabe hat sich in Form eines Fortgeschrittenenpraktikums Herr Reinhard Janoschitz gewidmet und die Aktualisierung für die Zeit 1901-2000, einschließlich Subintervallen, vorgenommen. Zudem hat er für 1951-2000 noch das Klimaelement Sonnenscheindauer hinzugenommen. Zur Zeit ist er im Rahmen seiner Diplomarbeit mit einer Neubearbeitung des Europäischen Klimatrendatlas befasst. Mit der Publikation des hier vorliegenden „Klimatrend-Atlas Deutschland 1901-2000“ werden in insgesamt 178 Karten (davon 20 Karten auch in Farbdarstellung in den Text integriert) wieder umfangreiche Informationen zum Klimawandel in Deutschland vorgelegt, und zwar mit Hilfe einer linearen Trendanalyse hinsichtlich der boden-nahen Lufttemperatur, des Niederschlags und der Sonnenscheindauer für die Zeit 1901-2000 sowie für die Subintervalle 1931-1960, 1961-1990 und 1971-2000 – Sonnenscheindauer allerdings nur 1951-2000 und 1971-2000 –, jeweils aufgrund der jährlichen, jahreszeitlichen und monatlichen Beobachtungsdaten. Die Signifikanz der Trends ist im (schwarz/weiß wiedergegebenen) Kartenteil durch Rasterung markiert. Methodisch lehnt sich die Analyse somit eng an die oben zitierte Arbeit von Rapp und Schönwiese (1996) an, wo auch ausführliche textliche Erläuterungen zu finden sind (ebenso in Rapp, 2000); deswegen wurde hier der Textteil sehr knapp gehalten. Hingewiesen sei schließlich auf ebenfalls für Deutschland durchgeführte Analysen klimatologischer Extremereignisse, die ebenfalls in der Reihe unserer Instituts-mitteilungen publiziert sind (Jonas et al., 2005; Trömel, 2005). Frankfurt a.M., im Herbst 2005 Christian-D. Schönwiese Vorwort zur 2. Auflage Das erfreulich große Interesse hat eine 2. Auflage erforderlich gemacht, die neben kleineren redaktionellen Verbesserungen bzw. Aktualisierungen vor allem die Erweiterung der in Kap. 4 vorgestellten Zeitreihen und einen ergänzenden Tabellenanhang jeweils bis 2007 enthält. So erfüllt dieser Atlas hoffentlich auch weiterhin seinen Informations-zweck. Im übrigen ist der im Vorwort zur 1. Auflage erwähnte „Klima-Trendatlas Europa“ mittlerweile als Nr. 7 (2008) der Reihe unserer Institutsberichte erschienen. Frankfurt a.M., im Sommer 2008 Christian-D. Schönwiese
Die Blut-Hirn-Schranke (BHS) verhindert mit ihren engen Zell-Zellverbindungen, selektiven Transportern und einem effizienten Abwehrsystem das Eindringen vieler Stoffe in das Gehirn. Im Rahmen der vorliegenden Arbeit wurden Nanopartikel aus humanem Serumalbumin (HSA-NP) zum Arzneistofftransport in das Gehirn entwickelt. Als Ligand zur Überwindung der BHS wurde Apolipoprotein E (ApoE), ein Ligand des LDL-Rezeptors (LDL-R), der sich auf der Membranoberfläche von Hirnendothelzellen befindet, eingesetzt. Kurze ApoE wurde über Avidin/Biotin-Komplexe oder kovalent an die NP-Oberfläche gebunden. Bei der Avidin/Biotin-Methode wurde über einen heterobifunktionalen Crosslinker (Polyethylenglykol (PEG)-Spacer) die Avidinkomponente an die NP Oberfläche gebunden. Nach erfolgter Bindung der Avidinkomponente wurde die Funktionsfähigkeit des gebundenen NeutrAvidin® untersucht. Dabei wurde in der Suspension der NeutrAvidin®-modifizierten NP das Verhältnis von Biotinbindungsstellen zu Avidinkomponente bestimmt. Das ermittelte Verhältnis in der NeutrAvidin®-modifizierten NP?Suspension lag bei 2,6 : 1. Um ApoE an NeutrAvidin®-modifizierte NP zu binden, wurde das ApoE biotinyliert und anschließend an die NeutrAvidin®-NP gekoppelt. Dabei wurden ca. 3800 ApoE-Molekülen pro NP gebunden. Bei der kovalenten Bindung wurden verschiedene Apolipoproteine mittels PEG-Spacer direkt an HSA-NP gebunden. Hierbei wurden 19 µg ApoE/mg NP gebunden. In Untersuchungen am konfokalen Mikroskop (CLSM) zeigte sich eine moderate Anlagerung von ApoE-PEG-NP an LDL-R-exprimierende Hep G2- und ß.End3-Zellen, die auf eine Aufnahme der ApoE-PEG-NP über den LDL-R hindeuten könnte. Loperamid wurde als Modellwirkstoff in Tierversuchen verwendet. Loperamid bindet im Gehirn Opioidrezeptoren und wirkt analgetisch, überwindet jedoch nicht selbstständig die BHS. Der analgetische Effekt von Loperamid-beladenen ApoE-modifizierten NP (7 mg/kg bzw. 4 mg/kg Loperamid) wurde in Mäusen nach i.v.-Applikation mittels Tail-Flick-Test ermittelt. Loperamid-beladene ApoE-NP verursachten konzentrationsabhängig einen analgetischen Effekt bei den untersuchten Mäusen. Die Kontrollzubereitungen (Loperamid-beladene nicht-ApoE-modifizierte NP, Loperamid-Lösung, unbeladene ApoE-NP) zeigten keine analgetische Wirkung. Mit ApoE modifizierte NP die keine Bindung an den LDL-R zeigen, vermittelten keinen analgetischen Effekt im Tierversuch.
Das Ziel des Experiments war es, den Einfluss des Valenzelektrons im Kaliumatom auf die Kernabschirmung zu untersuchen. Es wurde mit Hilfe von Laserpulsen mit einer Dauer von 120 fs entfernt. Die Ionisation oder Anregung der K-Schale der Kaliumatome sowie der Kaliumionen wurde mit hochenergetischen Röntgenphotonen realisiert. Um die daraus entstandenen Auger-Elektronen ohne störenden Untergrund messen zu können, wurde ein 4π Flugzeitspektrometer nach dem Prinzip der magnetischen Flasche eingesetzt. Es wurde gezeigt, dass nach dem Entfernen des Valenzelektrons die Kernabschirmung des Kaliumatoms zunimmt, was eine Änderung der Energie der K-Schale zu Folge hat. Diese Änderung von 3 eV trat bei einem Vergleich der Ionisationskurven für Kaliumatome und Kaliumionen deutlich hervor. Die Höhe der Änderung lässt darauf schließen, dass sie im Zusammenhang mit der Ionisierungsenergie des entfernten 4s-Elektrons steht. Durch die Verwendung des Femtosekunden-Laserpulses in Verbindung mit den Röntgenstrahlen des Synchrotrons sollte der Auger-Prozess zeitaufgelöst dargestellt werden. Eine Messung des Verhältnisses der Elektronenraten in Abhängigkeit von der zeitlichen Verzögerung zwischen Laser- und Röntgenstrahlen ergab eine Länge des Röntgenpulses von 66 ps (± 5 ps), was für zeitaufgelöste Untersuchungen des in Femtosekunden ablaufenden Auger-Prozesses zu lang ist. Jedoch zeigt das Experiment, dass bei einer hinreichenden Verkürzung der Röntgenpulse zeitaufgelöste Untersuchungen im Bereich von Femtosekunden möglich sind. Für die Zukunft ist an der ALS eine weitere Beamline geplant, welche Röntgenpulse im fs-Bereich produzieren kann. Durch Verwenden dieser kurzen Röntgenpulse wären weitere Experimente zur zeitaufgelösten Darstellung des Auger-Prozesses denkbar. Bis zu diesem Zeitpunkt sollen weitere Experimente zur Untersuchung „langsamer“ dynamischer Vorgängen in Atomen und Molekülen, zum Beispiel die Dissoziation von Molekülen auf einer Pikosekunden Zeitskala, durchgeführt werden.
Wozu ein solcher Bibliotheksführer? Frankfurt am Main hat eine reiche und vielfältige Bibliothekslandschaft. Neben den großen und bekannten Bibliotheken gibt es zahlreiche Spezialbibliotheken. Sie sind häufig nur einem kleineren Nutzerkreis bekannt, obwohl sie oftmals Fragestellungen zu einer Fachrichtung eher beantworten als andere Bibliotheken und somit der Suchende sich dort schneller und besser informieren könnte. Um das Netz der Frankfurter Bibliotheken besser nutzbar zu machen, erscheint dieser Führer. Er soll kein Ersatz für bereits existierende Publikationen sein, die die Bibliotheken in ihrer Gesamtheit verzeichnen. Leitlinie bei der Erstellung war der Nutzen für den Leser. So wurden ausschließlich Bibliotheken aufgenommen, die öffentlich und uneingeschränkt zugänglich und regelmäßig geöffnet sind sowie über eine gewisse Bestandsgröße verfügen. Wie ist der Führer zu nutzen? Er besteht aus drei Teilen: • Der erste Teil beantwortet die Frage „Was finde ich wo?“. Häufig bieten mehrere Bibliotheken das Gesuchte. Über eine Suchnummer können in den nachfolgenden Teilen weitere Angaben zur jeweiligen Bibliothek nachgeschlagen werden. • Der zweite Teil gibt ausführlichere Informationen zu den größeren Bibliotheken. • Im dritten Teil folgen die Spezialbibliotheken mit Adresse, Telefonnummer und – soweit vorhanden – Homepage. Damit kann sich der Leser über Öffnungszeiten und Nutzungsmodalitäten informieren.
Das Hepatitis C Virus (HCV) ist Auslöser einer oftmals chronisch verlaufenden Leberentzündung mit einem erhöhten Risiko für die Entwicklung einer Leberzirrhose und deren Folgen. Die weltweite Prävalenz der Hepatitis C beträgt ca. 3%; allein in Deutschland treten jährlich mehr als 5000 Neuinfektionen auf. Das HCV lässt sich aufgrund phylogenetischer Untersuchungen in mindestens 6 Genotypen und jeweils mehrere Subtypen einteilen, wobei der HCV Subtyp 1b in Europa am häufigsten vorkommt. Die Hepatitis C Forschung wurde lange Zeit durch das Fehlen eines geeigneten Zellkulturmodells erschwert. Mit der Etablierung eines stabil replizierenden Zellkulturmodells in humanen Hepatomazellen 1999 durch Lohmann et al. wurden erstmals molekularbiologische Untersuchungen in grossem Umfang möglich. Die seither existierenden Zellkulturmodelle haben jedoch den Nachteil, dass nicht definiert ist, wie sich das Isolat, aus dem das Replikon geschaffen wurde, klinisch verhält. Unter einer Interferon-basierten Therapie sprechen manche Patienten mit einer dauerhaften Negativierung der HCV RNA Konzentration an (sustained responder, SR), während bei anderen sowohl während als auch nach Therapieende weiterhin HCV RNA im Blut nachweisbar ist (non-responder, NR), obwohl beide Patienten mit demselben Subtyp von HCV infiziert sind und dieselbe Therapie erhalten. Die Ursachen für dieses unterschiedliche Therapieansprechen sind basierend auf Mutationsstudien von HCV Isolaten von Patienten mit unterschiedlichem Therapieansprechen zumindest teilweise genomisch bedingt. Daher wurden in der vorliegenden Arbeit zwei Konsensusklone zur Einbringung in ein replikatives Zellkulturmodell aus HCV Subtyp 1b Isolaten geschaffen, deren klinisches Verhalten unter Therapie klar charakterisiert ist. Dazu wurde Serum von je einem Patienten herangezogen, der unter definierten Studienbedingungen als SR oder NR bekannt war. Aus den Sera wurde die Virus-RNA extrahiert und mit Hilfe eines eigens dafür entwickelten RT-PCR-Protokolls und anschließender Klonierung in E. coli vervielfältigt. Um zufällige Mutationen und seltene Quasispezies auszuschließen, wurde dann nach vollständiger Sequenzierung von jeweils vier Einzelklonen mittels gezielter Mutagenese und Umklonierung eine Konsensussequenz geschaffen, die einen Durchschnitt der am häufigsten vorkommenden Quasispezies darstellt. Diese Konsensusklone wurden in einen Vektor zur Herstellung von RNA Transkripten eingefügt, so dass die Transkripte direkt zur Einbringung als Replikons in Zellkulturen genutzt werden können. Mit diesen klinisch charakterisierten Isolaten kann nun erstmals nach Unterschieden geforscht werden, die ursächlich für Therapieerfolg oder –misserfolg sein könnten. So können eventuell neue Therapieformen gefunden oder bereits vor Beginn einer Therapie eine Aussage zur Prognose getroffen werden.
Diese Studie untersuchte die relevanten Eigenschaften von Location-based Services, welche von prospektiven Nutzern erwartet werden, um mit der Nutzung dieser neuen Dienste zu beginnen. Dabei modellieren wir die Einflußfaktoren nach der Theorie der Diffusion von Innovationen und überprüfen diese durch eine empirische Befragung. Die Ergebnisse sind im folgenden Text dargestellt. Die wesentlichen Ergebnisse waren: • Die individuelle Nützlichkeit eines Angebots ist der stärkste Einflußfaktor auf die Adoption. • Überzeugende Datenschutzkonzepte stehen an zweiter Stelle. • Benutzerergonomie bei der Dienstenutzung sowie die leichte Verständlichkeit und Kommunizierbarkeit der Dienste und ihrer Anwendung sind wesentlich. Eine Einführung in die Diffusionstheorie und weitere Details zur Studie finden Sie im Text.
Der "Schwangerschaftstumor", auch als Granuloma gravidarum bezeichnet, ist nicht neoplastischer, eher hyperplastischer Natur. Aufgrund seines schnellen Wachstums wird er häufig als malignes Geschehen mißgedeutet. Der Schwangerschaftstumor ist ein entzündliches Geschehen, welches durch lokale Reizfaktoren ausgelöst wird. Das Besondere hier ist, daß aufgrund der veränderten Hormonlage während der Schwangerschaft die Bereitschaft der Gingiva erhöht wird, auf die genannten Faktoren zu reagieren. Mit dieser Hyperplasie vergesellschaftet ist häufig eine Gingivitis in der Schwangerschaft. Aus dieser Erkenntnis leitet sich auch die Therapie des Schwangerschftstumors ab, welche primär darin besteht, die Reizfaktoren zu eliminieren und für eine gute Mundhygiene zu sorgen. Erreicht wird dies durch Zahnreinigungsmaßnahmen und Mundhygieneinstruktionen zur Optimierung der häuslichen Zahnpflege. Persistiert der "Tumor", kann auch chirurgisch interveniert werden. In einer eigenen Erhebung konnten 2 Verdachtsfälle eines Schwangerschaftstumors der Gingiva festgestellt werden.
Die Dissertation geht der Frage: Was ist Bildung? aus kulturtheoretischer Perspektive nach und diskutiert kritisch die vorherrschenden universalistischen Annahmen. Ausgangspunkt dieser auch empirisch angelegten Untersuchung waren zunächst unsystematische Beobachtungen über die Bedeutung von Bildung in Indien. Ein erster Fokus ist auf die Frage gerichtet, welche Sinnzuschreibungen mit dem Begriff Bildung korrespondieren und wie das konstitutiv reflexive Verhältnis von Sinn und Kontext bzw. Kultur zu fassen ist. Theoretisch wird von einem sinntheoretischen Modell ausgegangen - vor allem in den systemtheoretischen Neufassungen von Niklas Luhmann. Auch die Ausführungen über kompatible Kulturkonzepte orientieren sich an dem systemtheoretischen Paradigma. Das von Luhmann entwickelte Konzept der Semantik wird als Erklärungsansatz aufgenommen und im Anschluss daran die Frage spezifiziert, welche Verknüpfungen und funktionalen Zusammenhänge zwischen der mit dem Begriff education verbundenen „gepflegten Semantik“ und dem mit ihr strukturell gekoppelten Sozialsystem identifiziert und rekonstruiert werden können. Indien bietet sich wegen der traditionell exponierten gesellschaftlichen Rolle von Bildung für eine Analyse des engen Zusammenhangs von Semantik und Sozialstruktur in besonderer Weise an. Erinnert sei hier nur an die historisch signifikante Bedeutung der Brahmanenkaste. Die semantischen Konstrukte über Bildung, die sich in einem urbanen, indischen Mittelschichtkontext zeigen, so ein Ergebnis, weisen auf ein zunehmendes Misstrauen gegenüber den etablierten und traditionellen Erziehungs- und Sozialisationsformen hin, mit Folgen für die Selbst- und Fremdkonstruktion sowie auch für generelle Biographisierungsprozesse. In die Semantik sind Formen eingelagert, die die sozialen Inklusions- und Exklusionsprozesse entscheidend beeinflussen. Die Dignität dieser Semantik wird in Anlehnung an Jürgen Schriewer et. al. und allgemein an das Konzept der Externalisierung als ‚indischer Weg’ der Entwicklung interpretiert. Das Misstrauen gegenüber den traditionellen Erziehungs- und Bildungsmustern lässt sich strukturell abstrakter als Transformationsprozess von der Sanskritization zu einer Educationization beschreiben. Unter Sanskritization wird dabei in Anlehnung an Srinivas eine traditionelle Mobilitätsform von Gruppen im hierarchischen Kastensystem verstanden. Die Educationization impliziert ähnlich wie Sanskitization eine starke Differenzformel mit Orientierungswert unter anderem für soziale wie personale Beobachtungen, Wahrnehmungen und Beurteilungen. Sie ist jedoch ein Instrument, das besser an die Anforderungen einer modernen Gesellschaft angepasst zu sein scheint und gegenüber traditionelleren Formen wie Sanskritization neue und angemessenere Anschlussmöglichkeiten bietet. Die damit verbundenen Veränderungen der indischen Gesellschaft, die von den einen als Modernisierung gefeiert und von anderen als Erosion der bestehenden Kultur scharf kritisiert werden, hinterlassen aber Spuren, die in unterschiedliche Richtungen weisen.
Die Präsenz in den Hauptversammlungen der großen deutschen Aktiengesellschaften ist seit Jahren rückläufig. Die durchschnittliche Hauptversammlungspräsenz bei den 30 DAXnotierten Unternehmen lag 2005 nur noch bei 45,87 %, gegenüber immerhin 60,95 % im Jahr 1998. Im Zusammenhang mit den Initiativen institutioneller Anleger bei der Deutschen Börse AG im Sommer diesen Jahres hat die Besorgnis zugenommen, Minderheiten könnten die Abwesenheit von mehr als der Hälfte der Stimmberechtigten dazu nutzen, in den Hauptversammlungen verstärkt Einfluss auf weitreichende Unternehmensentscheidungen auszuüben, um Sondervorteile zu erzielen. Unabhängig davon ist jedenfalls zu berücksichtigen, dass bei geringer Hauptversammlungspräsenz unter Umständen eine kleine Kapitalminderheit Entscheidungen trifft, bei denen sie nicht von denjenigen, die diese Entscheidungen gleichfalls betrifft, kontrolliert und, falls erforderlich, korrigiert wird. Um dem Problem sinkender Hauptversammlungspräsenzen zu begegnen, werden auf nationaler wie internationaler Ebene verschiedene Maßnahmen erwogen. Im Zusammenhang mit der Vereinfachung der Vertretung der Aktionäre in der Hauptversammlung wird vorgeschlagen, über den in § 134 III S. 3 AktG bereits vorgesehenen Stimmrechtsvertreter der Gesellschaft (sog. Proxy-Stimmrecht) hinaus einen von der Gesellschaft unabhängigen Stimmrechtsvertreter gesetzlich vorzusehen. Im Übrigen gehen die Empfehlungen von der verstärkten Nutzung neuer technischer Kommunikationsmittel bei der Stimmabgabe (Stichwort „virtuelle Hauptversammlung“) bis zur verstärkten Einführung von Namensaktien, um die Kommunikation mit den Aktionären zu erleichtern. Als Antwort auf den zunehmenden Einfluss internationaler Investoren, die derzeit aus Zeit- und Kostengründen, wegen sprachlicher Probleme, zu knapp bemessener Einladungsfristen oder Störungen des Informationsflusses zwischen ihnen und der Gesellschaft regelmäßig nicht an den Hauptversammlungen europäischer Aktiengesellschaften teilnehmen, arbeitet die Europäische Kommission zudem an einem Richtlinienentwurf, der die grenzüberschreitende Stimmrechtsausübung fördern soll. Im Zusammenhang hiermit sind auch auf die Bemühungen der Europäischen Kommission zu sehen, mittelfristig eine verstärkte Offenlegung der Anlage- und Abstimmungsstrategien institutioneller Investoren zu erreichen. Hierdurch soll eine intensivere Mitwirkung dieser Aktionärsgruppe in den Angelegenheiten der Gesellschaft gewährleistet werden. Die verstärkte Teilnahme bzw. die Offenlegung des Abstimmungsverhaltens von Investmentfonds, Versicherungen und Pensionskassen ist auch Inhalt von Empfehlungen nationaler sowie internationaler Organisationen. Bereits in der letzten Legislaturperiode hat die Arbeitsgruppe Finanzmarktgesetzgebung des Justiz- und Finanzministeriums den Vorschlag eines sog. Dividendenbonus für diejenigen Aktionäre erwogen, die ihr Stimmrecht in der Hauptversammlung ausüben. Im Anschluss daran entwickelte sich eine lebhafte Diskussion, in der sich sowohl Stimmen in der Literatur als auch Interessenverbände für die Einführung eines finanziellen Anreizsystems für Aktionäre in Form eines Dividendenbonus aussprachen. Vorbildfunktion für eine entsprechende Regelung in Deutschland wird dabei der spanischen Hauptversammlungspraxis zugesprochen. Dort geben die meisten großen Unternehmen des spanischen Standardwerteindex Ibex 35 einen finanziellen Anreiz für die Hauptversammlungspräsenz. Die Zahlungen liegen zwischen zwei und zehn Cent pro Aktie. Hierdurch konnte das Interesse am Besuch der Hauptversammlung generell gesteigert werden. Der Energiekonzern Endesa schaffte es mit einem Bonus von zwei Cent, die Präsenz von 37 % auf 66 % nahezu zu verdoppeln. Diese Erfolge in Spanien sind darauf zurückzuführen, dass die dortigen Depotbanken durch die Auszahlung der sog. prima de asistencia dazu veranlasst wurden, sich im Dienste einer bestmöglichen Wahrnehmung der Interessen ihrer Kunden auch ohne ausdrückliche Aufforderung um eine entsprechende Stimmrechtsvollmacht zu bemühen. Im Folgenden wird versucht darzulegen, wie die Regelung eines finanziellen Anreizes zur Stärkung der Hauptversammlungspräsenzen sinnvoll gestaltet werden könnte und welche gesetzgeberischen Schritte notwendig sind, um die Zahlung eines Bonus für die Präsenz in der Hauptversammlung zu ermöglichen.
Die Auswertung der Stratigraphien und Keramikinventare des Final Stone Age aus dem südwestlichen Tschadbecken führte zu einer zeitlichen Gliederung der Inventare. Durch die vorgestellten Analysen zu Merkmalen der Keramikform, -technik und -verzierung wurden zwei Stilgruppen - der ältere und der jüngere Gajigannastil - definiert und beschrieben. Für die jüngere Gajiganna Stilphase war eine weitere Unterteilung in drei Stufen möglich, die die keramische Entwicklung zwischen 1.500 BC bis ca. 800 BC gliedern. Das gelang bisher noch nicht mit Keramik der älteren Stilphase. Die Analyse der Grabungsprofile brachte Hinweise zu Speichergruben, ermöglicht Spekulationen über Lehmbauten in Fundplätzen der jüngeren Gajigannaphase und läßt Rückschlüsse auf eine stärkere Geländeprofilierung als die heute anzutreffende zu. Die Einordnung der begangenen Plätze in die Stilgruppen zeigte keine wesentlichen Unterschiede bei der Wahl der Siedlungsplätze. Die Randlage zu den vermutlich nicht nur saisonal gefluteten Tonebenen ist für beide bezeichnend. Die Siedlungsplätze boten in dieser Lage einige Vorteile. Die Sandgebiete dienten als Weiden für Rinder. Fischfang konnte an den Ufern der überschwemmten Gebiete betrieben werden, die ebenfalls ein reiches Reservoir an Wildpflanzen boten, die das Nahrungsangebot ergänzten. Ein Vergleich der Inventare mit anderen westafrikanischen Fundplätzen zeigt, daß die ältere Keramikphase der Gajiganna-Gruppe in einen überregionalen Verzierungstil eingebettet ist, der durch Winkelbänder und dreieckige Einstiche charakterisiert wird und sich über ein weites Gebiet zwischen Sudan im Osten und Niger im Westen spannt. Die hier vorgestellte Keramik der Phase I ist der südlichste Vertreter dieses Verzierungshorizontes. Die jüngere Stilphase konnte bisher nur kleinräumig nachgewiesen werden. Ihr Verbreitungsgebiet scheint auf das Tschadbecken beschränkt zu sein. Das mag entweder im gegenwärtigen Forschungsstand oder in einer um die Mitte des zweiten Jahrtausends beginnenden Regionalisierung der Keramikstile begründet sein. Die einzelnen Ergebnisse flossen in eine modellhafte Abhandlung zur Besiedlungsgeschichte des südwestlichen Tschadbeckens ein. Diese wäre unvollständig gewesen ohne die Ergebnisse der Archäobotanik und der Archäozoologie. Der Nachweis von domestizierter Hirse in den Fundplätzen der jüngeren Gajiganna-Gruppe ab der Stufe 2b ist ein wichtiges Ergebnis, das dazu beiträgt, die Veränderungen zu erfassen, die sich hinter dem Stilwechsel in den Keramikinventaren verbergen. Es scheint so, als hätte sich eine Verschiebung in der Gewichtung von Viehzucht zu Ackerbau vollzogen. Eine Veränderung des Siedlungsverhaltens mit engerer Bindung an die genutzte Fläche könnte eher die Vorbedingung als die Folge gewesen sein. Größere Platzkontinuität ist bereits in Phase 2a zu vermuten, sichtbar gemacht durch die hier erstmalig auftretenden komplexen Stratigraphien und wahrscheinlich begründet durch die verstärkte Nutzung von Wildgetreide. In Phase 2b wird domestiziertes Pennisetum bei einer weitgehend seßhaften Bevölkerung eingeführt. Kein radikaler Wechsel ist in den Strategien der Subsistenzwirtschaft zu beobachten. Stattdessen führt ein allmählicher Prozeß über einige hundert Jahre vom Viehzüchter zum Ackerbauern. Die Beziehungen zwischen den Fundstellen nördlich der Mandaraberge und denen im Gebiet um Zilum einerseits und den hier vorgestellten Fundstellen andererseits deuten auf eine regional in randliche Siedlungsgebiete verschobene Weiterentwicklung bis in die Eisenzeit, während die ehemaligen Kerngebiete wahrscheinlich von anderen Siedlern aus den Firki-Ebenen heraus besiedelt wurden. Offen bleiben müssen Fragen zu Hausbau, Siedlungsstruktur und Größe der Nutzflächen, die jeweils zu einer Siedlung gehörten. Auch fehlen noch hinreichende Daten, um die Beziehungen der Siedlungen untereinander zu erfassen und eventuell vorhandene Netzwerkstrukturen auszuarbeiten. Hier ergeben sich weitere Forschungsfelder, die zu neuen Erkenntnissen zur Stellung des Gajigannakomplexes im Kontext der westafrikanischen Prähistorie führen werden.
Die Inhibition des Natrium-Protonen-Austauschproteins, Subtyp-1 (NHE-1), stellt möglicherweise ein wichtiges Prinzip zur Behandlung der Herzhypertrophie und damit der frühen Herzinsuffizienz dar. Als Ausgangspunkt dieser Arbeit konnte gezeigt werden, dass der oral bioverfügbare und selektive NHE-1-Inhibitor Cariporide dabei u.a. in einem transgenen Tiermodell wirkt, bei dem die Hypertrophie nicht durch Myokardinfarkt, sondern mittels transgener Überexpression des beta-1-adrenergen Rezeptors erzeugt wurde, die Hypertrophie-Entwicklung verhinderte. Um die Wirkung und vor allem den Wirkmechanismus von NHE-1-Inhibitoren näher zu untersuchen, wurde in der vorliegenden Arbeit ein zelluläres Modell der alpha-1-adrenergen Hypertrophie-Induktion in adulten Kardiomyozyten aus Rattenherzen aufgebaut und mittels gängiger Parameter wie Zellvolumen, Protein und RNA-Neusynthese validiert. Dabei konnte ein klassenspezifischer Hemmeffekt aller eingesetzten NHE-1-Inhibitoren auf die untersuchten Hypertrophie-Parameter gezeigt werden. Interessante molekulare Mechanismen der Hypertrophie-Inhibition durch spezifische NHE-1- Inhibitoren konnten in der vorliegenden Arbeit aufgedeckt werden. Nach alpha-1-adrenerger Stimulation und gleichzeitiger NHE-1-Inhibition waren nur wenige Gene in ihrer Expression deutlich differentiell reguliert, darunter der Angiotensin-II AT-1 Rezeptor und die sogenannte Rho-kinase (ROCK). Aus dieser Erkenntnis heraus ergeben sich neue mögliche Ansatzpunkte zum Wirkmechanismus von NHE-1-Inhibitoren. Im Gegensatz zu Befunden bei Herzischämie scheint es bei der Herzhypertrophie im vorliegenden Modell keine Kopplung zwischen dem NHE-1 und einem weiteren Austauschprotein, dem Natrium-Calcium-Austauscher, zu geben. Die Hypertrophie der adulten Kardiomyozyten ließ sich nicht durch einen selektiven Hemmstoff dieses Austauschers, SEA0400, hemmen. Bei näherer Untersuchung auf Translationsebene zeigten sich überraschende Ergebnisse, die für eine Hemmung der Hypertrophie-Entwicklung in Anwesenheit eines NHE-1-Inhibitors verantwortlich gemacht werden könnten. So war auf der einen Seite die Translokation von in adulten Kardiomyozyten exprimierten PKC-Subtypen (delta und eta) vom Zytosol an die Plasmamembran durch die NHE-1-Inhibition signifikant beeinflusst. Auf der anderen Seite war die Phosphorylierung bestimmter NHE-1-aktivierender Kinasen über den gesamten betrachteten Zeitraum verstärkt vorhanden. Diese Ergebnisse legen nahe, dass neben möglichen Autoregulationseffekten in der Zelle, ausgelöst durch eine NHE-1-Inhibition, eine weitere Wirkkomponente eine Rolle bei der Beeinflussung intrazelluläre membranabhängiger Translokation spielen könnten.
Die vorliegende Arbeit befasste sich mit der Entwicklung und der Aufbau einer neuartigen Fingerdriftröhren-Struktur als Teil des neuen Vorbeschleunigers COSY-SCL am Kernforschungszentrum in Jülich. In dieser Arbeit wird die Entwicklung der Spiralresonatoren beschrieben, die als Nachbeschleuniger direkt hinter den RFQs zum Einsatz kommen sollen. Als mögliche Option zur Verbesserung der Strahlqualität wurden Fingerdriftröhren vorgeschlagen. Mit Hilfe dieser Struktur ist es möglich, mit geringer zusätzlicher Leistung eine Fokussierung des Ionenstrahls in der beschleunigenden Struktur zu erreichen. Dies war bisher nur bei niedrigen Energien mit der RFQ-Struktur möglich. Bei höheren Energien ist man stets auf magnetische Quadrupollinsen angewiesen. Dies führt jedoch gerade in einem Geschwindigkeitsbereich bis ca. 10 % der Lichtgeschwindigkeit zu Problemen, da die zur Verfügung stehenden Abmessungen zu gering sind. Nachdem zunächst das COSY-SCL Projekt vorgestellt wurde und die grundlegende Theorie für RFQ und Driftröhrenbeschleuniger behandelt wurde, wurden in Kapitel 5 Rechnungen zur Strahldynamik mit dem Programm RFQSIM vorgestellt. Aufgrund der hohen benötigten Gesamtspannung fiel die Entscheidung, einen Vierspaltresonator mit einer geerdeten Mitteldriftröhre aufzubauen. Durch diese Veränderung wurde es möglich, die Feldstärken in den einzelnen Spalten gleichmäßiger zu verteilen und niedriger zu halten, und die benötigte Verlustleistung zu minimieren. Die Teilchendynamik in einem Beschleunigungsspalt mit Fingerelektroden wurde mit einem neuen Transportmodul in RFQSIM untersucht, das den Transport geladener Teilchen durch beliebige dreidimensionale Elektrodenkonfiguration ermöglicht. Mit Hilfe der Fingerdriftröhren ist es möglich, die transversale Ausdehnung des Strahls am Ausgang des Nachbeschleunigers zu verringern und die Anpassung an einen folgenden Beschleuniger zu vereinfachen, ohne das große Einbußen bezüglich der Effektivität der Beschleunigung in Kauf genommen werden müssen. Um die HF Eigenschaften der beiden Beschleunigerstrukturen zu vergleichen, wurden sie mit dem MWS Programm numerisch berechnet. Um genauere Aussagen über die Eigenschaften des elektrischen Feldes zu machen, wurde eine Multipolanalyse der Felder durchgeführt. Damit lässt sich eine Aussage über die Stärke der Fokussierung und mögliche Feldfehler machen. Dabei zeigte sich, dass die auftretenden Feldfehler vernachlässigbar klein sind und sogar störende Effekte unterdrückt werden. Abschließend wurde der Aufbau des Resonators und den daran durchgeführten Messungen auf Meßsenderniveau behandelt. Resultat dieser Untersuchungen ist eine Struktur, die sehr gut und effektiv als Nachbeschleuniger hinter dem RFQ für COSY-SCL eingesetzt werden kann. Durch den Einsatz der Fingerdriftröhren kann mit einer einzelnen Struktur sowohl die Aufgabe der Beschleunigung als auch der Fokussierung bei mittleren Teilchenenergien bewältigt werden. Der neue fokussierende Spiralresonator entspricht in seinen Eigenschaften einer RFQ-Struktur für höhere Teilchengeschwindigkeiten. Die Ergebnisse dieser Arbeit zeigen, wie attraktiv eine solche Lösung mit Fingerdriftröhren ist. Deshalb ist geplant, in einem nächsten Schritt Strahltests durchzuführen, da die beschriebene Driftröhrenstruktur mit ihren Eigenschaften sehr gut für die Beschleunigung von Ionen in dem Geschwindigkeitsbereich zwischen RFQ- und IH Struktur geeignet ist und ein Einsatz z.B. in dem FLAIR Projekt möglich wäre.
In der vorliegenden Arbeit wird das Auslesekonzept der Driftkammern untersucht und seine Integration in das HADES Datenaufnahmesystem beschrieben. Bedingt durch das mehrstufige Triggersystem und die hohen Anforderungen an die Geschwindigkeit des Systems wurden Methoden zur Datenreduktion entwickelt. Dadurch ist es möglich, die Daten von allen 27 000 Kanälen innerhalb von 10 µs nach dem Trigger auszulesen. Die Daten werden innerhalb von ungefähr 40 ns nach dem Signal der zweiten Triggerstufe weitertransportiert. Im Rahmen der Untersuchungen zur Überwachung der Driftkammerdaten, die im zweiten Teil der Arbeit beschrieben werden, wurde mit der verwendeten Methode zur Bestimmung der intrinsischen Auflösung eine deutliche Verschlechterung Auflösung der Kammern festgestellt, von 120 µm im November 2001 auf über 200 µm im September 2003. Als Ursache hierfür wurde zum einen die geänderte Kalibrationsmethode ausgemacht, die die Laufzeiten der Signale nicht mehr berücksichtigt, zum anderen eine Änderung der Driftgeschwindigkeit aufgrund einer nicht optimalen Hochspannung. Die Methode zur Bestimmung des physikalischen Zentrums der Kammern erlaubt eine Aussage über die Position der Kammern relativ zur Sollposition. Die dabei gefundenen Verschiebungen entlang der z - Achse stimmen für einen Teil der Sektoren mit den im Rahmen des Alignments ermittelten Werten für die Verschiebung des Targets überein. Für die anderen Sektoren ergeben sich zusätzlicher Verschiebungen um 2 bis 6 cm. Das Di - Leptonen - Spektrometer HADES (High Acceptance Di -Elektron-Spektrometer) am Schwerionensynchrotron der Gesellschaft für Schwerionenforschung (Darmstadt) beginnt nun mit detaillierten Studien leptonischer Zerfälle von Vektormesonen in Kern - Kern - Stößen mit Projektilenergien von 1 bis 2 GeV / Nukleon. Dabei liegt der Schwerpunkt auf der Untersuchung von Zerfällen, die in der Phase hoher Dichte (ungefähr 3 · p..0) und hoher Temperatur stattfinden. Es wird erwartet, daß sich aus der dabei zu beobachtenden Massenverteilung der unterhalb der Schwelle produzierten leichten Vektormesonen r, o und ph ein Hinweis auf die partielle Wiederherstellung der im Vakuum gebrochenen chiralen Symmetrie ergibt.
Band 1 beinhaltet die alphabetische Gliederung und Band 2 die Gliederung nach der ehemaligen Aufstellung des Kataloges der Bibliothek der deutschen Kolonialgesellschaft. Diese Bibliothek bildet heute die größte und wichtigste geschlossene Gruppe der Sammlung ist die Deutsche Kolonialbibliothek. Sie war im 2. Weltkrieg in einem Thüringer Bergwerk ausgelagert, und wurde nach dem Krieg mit nur relativ wenig Verlusten dem Haus übergeben. Das unschätzbare Grundmaterial der Kolonialbibliothek gab 1964 der Deutschen Forschungsgemeinschaft Anlaß, die Sondersammelgebiete "Afrika südlich der Sahara", "Ozeanien" und teilweise auch die "Allgemeine und vergleichende Völkerkunde" auf die Bibliothek zu übertragen. Dadurch wurde die zeitgerechte Basis zur ständigen Ausweitung der Bestände geschaffen. In der 2. Hälfte des 19. Jahrhunderts entstanden zahlreiche Vereine, die sich um die Betreuung deutscher Auswanderer sowie die Verbreitung kolonialer Ideen bemühten. 1887 verschmolzen die beiden wichtigsten konkurrierenden Vereinigungen, der Deutsche Kolonialverein und die Gesellschaft für Deutsche Kolonisation zur "Deutschen Kolonialgesellschaft" (DKG). Die Mitgliederzahl stieg von 14.800 am Anfang auf 42.600 im Jahre 1914. In den dreißiger Jahren schließlich wurden alle Institutionen der deutschen Kolonialbewegung unter dem Namen Reichskolonialbund zusammengefaßt. 1943 wurde der RKB wegen kriegsunwichtiger Tätigkeit aufgelöst. Die Deutsche Kolonialbibliotbek besteht aus den Bibliotheken mehrerer Kolonialverbände; den größten Bestand brachte die Bibliothek der Deutschen Kolonialgesellschaft ein. Die Kolonialbibliothek enthält etwa 18.000 Monographien zum Kolonialwesen sowie zahlreiche Zeitschriften, die in den allgemeinen Zeitschriftenbestand der StuUB überführt wurden. Der Originalkatalog der Bibliothek existiert noch in seiner alten Form; eine Konkordanz zwischen den Originalsignaturen und den Signaturen der Stadt- und Universitätsbibliothek ist vorhanden. Inhaltlich gliedert sich die Kolonialbibliothek in zwei Bereiche: Literatur zum allgemeinen Kolonialwesen (einschließlich Wirtschaft, Bergbau und Mission) und zu einzelnen Regionen (davon befassen sich ca. 40 Prozent mit Asien, der Südsee und Amerika und ca. 60 Prozent mit Afrika, davon wiederum etwa die Hälfte mit "Deutsch-Afrika"). Es handelt sich bei dem Material um amtliches Schrifttum der europäischen Kolonialmächte sowie um Amtsdrucksachen der Kolonien selbst. Zum anderen enthält die Bibliothek eine Literatursammlung zu allen Fachbereichen, bezogen auf das jeweilige kolonisierte Land: von der Geographie und Wirtschaft bis zur Völkerkunde, einschließlich Vokabelsammlungen und Texten in einheimischen Sprachen, sowie Trivialliteratur, sogenannte Kolonialromane. Die deutsche Kolonialzeit sowie die deutschen Kolonien sind hier in einer Vollständigkeit vertreten wie wohl kaum in einer anderen Bibliothek. Die anderen Kolonialmächte dürften nur jeweils im eigenen Land besser dokumentiert sein. Das Bildarchiv, das zusammen mit. der Bibliothek übergeben wurde, ist digitalisiert und über das Internet ansehbar. Da in der Bibliothek das Portugiesische Kolonialreich praktisch nicht berücksichtigt war, wurde 1973 eine ca. 4200 Titel zählende Sammlung zur portugiesischen Kolonisation in Afrika erworben. Das Bildarchiv ist im Internet verfügbar unter http://www.ub.bildarchiv-dkg.uni-frankfurt.de .
Aufgebautes Zwei-Farben Lasersystem: Das für diese Arbeit aufgebaute Zwei-Farben Lasersystem erfüllt im Hinblick auf Abstimmbarkeit wie auch auf die erreichbare Ausgangsleistung die für diese Arbeit gesetzten Ziele. Für weiterführende Experimente muss allerdings berücksichtigt werden, dass für eine Steigerung der Ausgangsleistung, wie auch eine weiterführende Stabilisierung weitere Untersuchungen nötig sind, bei denen aber das jetzige System als Grundlage dienen kann und die mit ihm gewonnenen Erkenntnisse berücksichtigt werden müssen. Auch die verwendete Nahfeld-Beleuchtung erfüllt vor allem mit der automatischen Steuerung verknüpft wertvolle Dienst bei der Charakterisierung der untersuchen LT-GaAs Photomischer. Dieses System ist allerdings nicht geeignet, als direkter Entwurf für das endgültige System des SOFIA- oder ALMA-Projektes anzusehen, was auch nie seine Aufgabe war. Numerische Simulation: Die in dieser Arbeit vorgestellte numerische Simulation des DC-Stromverhaltens stellt einen guten Ansatz dar, die Effekte, die durch eine inhomogene Beleuchtung der Photomischer bedingt durch die verwendete Glasfaser entstehen, quantitativ und qualitativ zu erfassen und sie mit realen Photomischern und den durchgeführten Messungen in Verbindung zu bringen. Durchgeführte Nahfeld-Messungen: Die in dieser Arbeit vorgestellten automatischen Nahfeld-Messungen über einen 1D- und 2D-Bereich ermöglichen mit Hilfe des aufgebauten Lasersystems die in dieser Arbeit untersuchten LT-GaAs Photomischer in ihrem Verhalten zu untersuchen, wie es auch möglich ist, ein vollständiges Kennlinien-Feld aufzunehmen.
1. Das Gemeinschaftsrecht garantiert durch Art. 108 EGV umfassend die Weisungsfreiheit der Europäischen Zentralbank und der nationalen Zentralbanken als Institution. Diese Garantie erfasst auch die natürlichen Personen, die Mitglieder der Entscheidungsgremien sind. 2. Hinzu treten weiter Regelungen des Gemeinschaftsvertrages und der Satzung von ESZB und EZB, welche diese Garantie zu einer allgemeinen Unabhängigkeitsgarantie ausbauen und verstärken. 3. Garantiert ist vor allem auch die persönlicher Unabhängigkeit der Mitglieder in den Entscheidungsgremien. 4. Von wenigen Ausnahmen abgesehen, sind diese Regelungen für das sekundäre Gemeinschaftsrecht unantastbar. Als Teil des primären Gemeinschaftsrechts können sie prinzipiell nur durch Vertragsänderung, also einstimmig verändert werden. 5. Diese europarechtlichen Garantien werden über Art. 88 Satz 2 GG für die Bundesbank als integrales Bestandteil des ESZB in das deutsche Verfassungsrecht transponiert. Daraus ergibt sich eine „gemeinschaftsrechtlich vermittelte verfassungsrechtliche Unabhängigkeitsgarantie“ für die Bundesbank. 6. Die Regelung ist mit dem Demokratieprinzip vereinbar. 7. Änderungen der umfassenden Garantie können die verfassungsrechtlichen Voraussetzungen für die Übertragung der währungs- und notenbankpolitischen Befugnisse auf das ESZB entfallen lassen. 8. Der Entwurf einer Verfassung für Europa enthält keine verfassungsrechtlich relevanten Relativierungen der Unabhängigkeitsgarantie. 9. Das Ziel der Preisstabilität hat den ihm gebührenden Rang behalten. Bei genauer Analyse zeigt sich auch, dass sein besonderer Rang für die Tätigkeit des ESZB nicht beeinträchtigt ist. 10. Ein Vergleich der verschiedenen sprachlichen Fassungen des Verfassungsvertrages zeigt auch, dass – entgegen dem deutschen Text – die EZB nicht als – möglicherweise weniger unabhängiges - Organ der EU, sondern als sonstige Einrichtung eingestuft worden ist.
Im Jahr 2003 innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Sabine Nessel eröffnete die Vortragsreihe mit Beobachtungen zum Lektürebegriff hinsichtlich des Phänomens Film: am Beispiel von Otto Premingers "Bonjour Tristesse" zeigt sie, wie die seit den späten 1960er Jahren übliche Übertragung des Textparadigmas auf den Film im Folgenden eine Erfassung des „Erlebnis Kino“ als Ereignis verstellte. Im Durchgang durch verschiedene Filmtheorien zeigt sie auf, dass Filme zwar "gelesen" aber auch auf einer Ebene jenseits des Kino-Texts somatisch rezipiert – "genossen" – werden, dass also die Begriffe Film, Text und Lesen auf die Bereiche Kino, Ereignis und Erleben hin zu erweitern sind.
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Irene Pieper beschäftigt sich aus literaturdidaktischer und lesesoziologischer Perspektive mit der kulturellen Praxis des Lesens. Ihr Beitrag entwickelt systematisch, worin die "Kunst" des literarischen Lesens im Einzelnen besteht und wie diese Kompetenz methodisch in der Auseinandersetzung mit dem Gegenstand Literatur zu erwerben bzw. zu vermitteln ist. Ein kompetenter Leser zu werden heißt, ein breites Spektrum von Fähigkeiten zu erwerben, das vom Realisieren der poetischen Funktion der Literatur über die Empathiefähigkeit bis hin zur Lust am Text reicht. Der Beitrag lotet aus, in welcher Weise vor allem die Schule, die außerhalb der Familie Begegnungen mit und Kommunikationen über Literatur herbeiführt und anregt, an der Bildung solcher Leser und Leserinnen mitwirken kann.
Protected Mode
(2005)
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Gegenstand von Harald Hillgärtners Untersuchung ist die Frage nach der Lesbarkeit des Computers, vielmehr seiner System- und Programmcodes. Gilt der Computer einerseits als "Textmaschine", die endlose Schreib- und Leseakte prozessiert, so finden jene Programmabläufe doch zumeist jenseits der für alle zugänglichen Benutzeroberflächen statt, die ihrerseits in immer stärkerem Maß mit Icons – Bildern – arbeiten. Und selbst im Falle von frei zugänglichen Software-Codes ist zu fragen, um welche Art Text es sich hier handelt – ob in diesen Fällen gar von Literatur die Rede sein kann. Insofern ist die Frage nach der Lesbarkeit des Computers nicht nur eine Frage nach der Zukunft des Lesens (geht es um Sinn oder um Information?) sondern vielmehr nach dem (Zu-)Stand unserer Schriftkultur selbst.
Am 8 Juni 2004 innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Auch Musik wird "gelesen", nämlich immer dann, wenn es um theoretische Deutungen musikalischer Werke geht. Diese untersucht Ferdinand Zehentreiter, und zwar hinsichtlich der zwei gegensätzlichen Betrachtungsweisen, die sich traditionell in der Interpretation von Musik herausgebildet haben. Geht es einerseits um eine formale Zergliederung der Werke, so werden andererseits außermusikalische Inhalte zur philologischen Erforschung herangezogen. Demgegenüber steht die Beobachtung, dass Kompositionen immanent als Ausdrucks- oder Sinngebilde sui generis nur in Ausnahmefällen entschlüsselt werden, etwa bei E.T.A. Hoffmann, Roland Barthes oder Th. W. Adorno. Der Beitrag geht der Frage nach, ob und wie diese grundlegende Problemkonstellation der Musikwissenschaft heute überwunden werden kann.
Die rechtliche Beurteilung der Verwendung des Gewinns von Zentralbanken bewegt sich im Überschneidungsbereich von: 1) Währungsrecht 2) Finanzverfassungsrecht und 3) Finanzpolitik. Rechtliche Bedenken ergeben sich im Wesentlichen aus den verfassungsrechtlichen Vorgaben für die Staatsfinanzierung sowie aus der Garantie der Unabhängigkeit der Europäischen Zentralbank und der Bundesbank. Maßgebende Rechtsquellen sind sowohl das Recht der Europäischen Union als auch das deutsche Finanzverfassungsrecht, angereichert um das einfache Haushaltsrecht des Bundes.
Der vorliegende Beitrag - die stark überarbeitete Fassung des Vortrages "Lektüren des Unausdeutbaren ", den der Verfasser im Januar 2004 im Rahmen der kulturwissenschaftlichen Vortragsreihe GrenzBereiche des Lesens hielt - ist auch erschienen in: literatur für leser 27 (2004), Heft 4, S. 181-199. Ein Beispiel für die Schwierigkeit der literarischen Lektüre gibt Friedrich Schmidt. Er untersucht Lektüremöglichkeiten für das formale wie semantische "Abgebrochensein" des literarischen Kunstwerks der Moderne, wie es in den Fragmenten Kafkas seinen exponierten Ausdruck findet. In diesen Texten tritt zur äußeren Unabgeschlossenheit des Textkorpus ein brüchiges Sinngefüge: die Endlosigkeit der Reflexionen und Handlungszüge, die Heterogenität der Erzählfiguren, die Inkonsistenz jeder Bedeutungskonstruktion von Seiten des Lesers. Indem überdies der Abbruch, als verlorene Schrift oder verschwiegene Botschaft, in Kafkas Fragmenten explizit zum Thema wird, erhebt sich der Text gleichzeitig zum metareflexiven Kommentar: er vollzieht selbst, wovon er spricht. Insofern handelt er – sprachskeptisch – vom Defizit seines eigenen Ausdrucks, das letztlich auch von Lektüren nie vollständig eingeholt werden kann.
Am 3 Februar 2004 innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Die potentielle Unabschließbarkeit literarischer Lektüren ist oft mit der Metapher vom Text als Gewebe umschrieben worden. Uwe Wirth widmet sich ihr mit Blick auf den Grenzbereich eines anderen Mediums: des Computers. Findet sich im Hypertext die digitale Einlösung der Metapher vom Textgewebe, so stellt sich aufs Neue die Frage nach den Rollen von Autor und Leser: Der Hypertextleser wird zum editorialen "Spinner" eines Netzes aus semantischem und medialem Gewebe.
Zur Aktualität von Wagenscheins Schulkritik heute : das Wirklichkeits-Defizit im schulischen Lernen
(2005)
Die im Industriezeitalter und im globalen Mittel beobachtete Erwärmung der unteren Atmosphäre zeigt ausgeprägte regional-jahreszeitliche Besonderheiten (IPCC 2001, SCHÖNWIESE 2003, 2004). Dies gilt in noch höherem Maß für den Niederschlag (vgl. Kap. 3.1.2 und 3.1.8). Die Vermutung, dass eine solche Erwärmung zu einer Intensivierung des hydrologischen Zyklus führt, was im Prinzip zunächst richtig ist (vgl. Kap. 3.1.2), erweist sich jedoch als viel zu simpel, wenn daraus einfach auf eine generelle Niederschlagszunahme geschlossen wird. Dies gilt sogar innerhalb einer so kleinen Region wie Deutschland. Denn obwohl Deutschland im Mittel überproportional an der »globalen« Erwärmung teilnimmt (SCHÖNWIESE 2003, 2004), zeigen die Langzeitänderungen des Niederschlages im Detail ganz unterschiedliche Charakteristika. Dabei kann die hier vorgestellte Beschreibung der in Deutschland beobachteten Niederschlagtrends subregional noch wesentlich verfeinert werden, vgl. z.B. Analyse für Sachsen (FRANKE et al. 2004), da der Niederschlag eine nur geringe räumliche Repräsentanz aufweist (SCHÖNWIESE & RAPP 1997). Zeitliche Änderungen von Klimaelementen lassen sich nun in ganz unterschiedlicher Weise betrachten. Am meisten verbreitet sind lineare Trendberechnungen, wie sie auch einem Teil der hier vorliegenden Studie zugrunde liegen. Es können aber auch Trends anderer statistischer Kenngrößen als des Mittelwertes von Interesse sein, z.B. der Varianz. Häufigkeitsverteilungen, die in normierter Form Wahrscheinlichkeitsdichtefunktionen heißen, erlauben die Bestimmung solcher Kenngrößen in Form der Verteilungsparameter. Wird unter Nutzung geeigneter Verteilungen (z.B. Normal- oder Gumbelverteilung, vgl. unten Abb. 3.1.6-4) eine statistische Modellierung der jeweils betrachteten klimatologischen Zeitreihe vorgenommen, werden Aussagen über die Unter- bzw. Überschreitungswahrscheinlichkeiten bestimmter Schwellenwerte möglich, in verallgemeinerter Form für beliebige Schwellen und Zeiten (TRÖMEL 2004). Da dieser extremwertorientierte Aspekt von großer Wichtigkeit ist, soll auch ihm hier nachgegangen werden (vgl. alternativ Kap. 3.1.7 und 3.1.10). Die im Folgenden verwendeten Daten sind jeweils Monatssummen des Niederschlages 1901–2000 an 132 Stationen in Deutschland (teilweise unter Einbezug einiger Stationen in den angrenzenden Ländern), einschließlich der daraus abgeleiteten Flächenmittelwerte (sog. Rasterdaten; Quelle: Deutscher Wetterdienst, siehe u.a. MÜLLER-WESTERMEIER 2002; vgl. weiterhin RAPP & SCHÖNWIESE 1996, dort auch Hinweise zur Homogenitätsprüfung, sowie RAPP 2000).
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Ein weiterer medialer Wechsel vollzieht sich im Beitrag von Annette Becker, der dem Fernsehen, genauer: dem Fernsehinterview gilt. Anhand verschiedener Fernsehinterviews zum gleichen politischen Anlass wird gezeigt, dass und wie verschiedene Lesarten solcher Interviews mit linguistischen Mitteln greif- und analysierbar gemacht werden können.
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Manuel Gujber widmet sich einem vordergründig "sprachlosen" Gegenstand: der Architektur. Sein Interesse gilt dabei dem Spannungsverhältnis zwischen architektonischer Konstruktion und Oberfläche – der "Haut" des Hauses. So bietet die architektonische Oberfläche nicht nur fortwährend neue Möglichkeiten der Gestaltung sondern auch der Interpretation – Lesarten, in denen sich das Verhältnis zwischen "Haut" und "Haus" sowie von deren Wahrnehmung spiegelt.
Innerhalb der Reihe "GrenzBereiche des Lesens" gehaltener Vortrag. "GrenzBereiche des Lesens" ist eine kulturwissenschaftliche Vortragsreihe, die 2003 und 2004 an der Universität Frankfurt stattfand. Thomas Küpper nimmt in seinem Beitrag das Kriterium der Wiederholungslektüre, das als Qualitäts- und Differenzmerkmal ästhetisch anspruchsvoller Literatur gilt, zum Anlass, die Grenzziehung zwischen Kitsch und Kunst genauer zu überdenken. Nicht die Wiederholungslektüre an sich macht bereits den Unterschied, vielmehr muss eine Unterscheidung zwischen verschiedenen Formen der Wiederholungslektüre getroffen werden. In systemtheoretischer Perspektive lässt sich eine solche typologische Differenzierung anhand des je spezifischen Verhältnisses von Medium, d.h. hier: der Gattungen, und der Form, d.h. der Texte, präzise vornehmen. Trivialliteratur unterscheidet sich dann von der Kunst, insofern ihre Medien der eigentlichen Formrealisierung nur wenig Spielraum lassen: Nicht die Abweichung, sondern die Bestätigung der gegebenen Schemata wird honoriert. Auch der Kitsch bietet Variationen des Bekannten, doch – und hier nähert er sich der Kunst an – die vertrauten und wiederholten Muster werden als einmalige und besondere Formen von bleibendem Wert inszeniert. Am Beispiel des Kultfilms "Pretty Woman" spielt Thomas Küpper diese unterschiedlichen Lektüren durch und zeigt an diesem vermeintlich eindeutig trivialen Fall, dass sich die Faszination des Films den vielen Wiederholungen verdankt.
Im wohl spektakulärsten Wirtschaftsstrafverfahren der deutschen Nachkriegsgeschichte, dem "Mannesmann-Prozeß", ging und geht es neben Barabfindungen von Versorgungsleistungen vor allem um die Zulässigkeit von Anerkennungsprämien für ausscheidende und bereits ausgeschiedene Vorstandsmitglieder. Das Verfahren vor der Wirtschaftsstrafkammer des Landgerichts Düsseldorf war nicht nur in den Medien, sondern auch in der aktien- und strafrechtlichen Literatur mit lebhaftem Interesse verfolgt worden. Nach sechsmonatiger Hauptverhandlung endete es zwar mit Freisprüchen für alle Angeklagten, aber auch mit dem Vorwurf gewichtiger Verstöße gegen das Aktienrecht. Das Urteil der Strafkammer ist gleichfalls bereits mehrfach in der wissenschaftlichen Literatur unter verschiedenen Gesichtspunkten ausführlich gewürdigt worden. Ein Ende der Diskussion ist noch nicht abzusehen, da gegen das Urteil Revision beim Bundesgerichtshof eingelegt worden ist. Die folgenden Bemerkungen befassen sich mit einem aktienrechtlichen Teilaspekt, der Zulässigkeit nachträglicher, im ursprünglichen Anstellungsvertrag eines Vorstandsmitglieds nicht vorgesehener Anerkennungsprämien.
Die zu erwartende vorzeitige Auflösung des Bundestages wird wohl dazu führen, daß der derzeit dem Parlament vorliegende Entwurf eines Gesetzes über die Offenlegung der Vorstandsvergütungen nicht mehr verabschiedet wird. Das bietet die Gelegenheit, die diesem Entwurf und dem in den Bundestag eingebrachten Entwurf der FDP-Fraktion zugrundeliegende Grundkonzeption darzustellen und im Hinblick auf eine spätere Gesetzgebung zu prüfen, ob die Entwürfe ihren Zielen gerecht werden (dazu unter II.). Zu erwägen ist überdies grundsätzlich, ob eine detaillierte gesetzliche Regelung zur Offenlegung der Vorstandsvergütungen anzuraten, oder ob es, wie vielfach vorgeschlagen, beim bisherigen Rechtszustand verbleiben sollte, wonach die gesetzliche Pflicht zu den pauschalen Vergütungsangaben gemäß §§ 285 Nr. 9, 314 Abs. 1 Nr. 6 HGB ergänzt wird durch die Empfehlung des Deutschen Corporate Governance Kodex (Ziff. 4.2.4 DCGK), in börsennotierten Gesellschaften die Vorstandsvergütungen individuell auszuweisen (dazu unten III.).
An die Signalübertragung im ZNS werden in bestimmten Entwicklungsstadien sehr unterschiedliche Anforderungen gestellt. Im adulten Gehirn dient sie nicht nur der Nachrichtenübermittlung, sondern auch der aktivitätsbasierten Umgestaltung neuronaler Verbindungen bei Lernprozessen und der regenerativen Umgestaltung nach Verletzungen. Im sich entwickelnden Gehirn werden schon frühzeitig Nervenzellen elektrisch erregbar und spontan aktiv. Diese elektrische Aktivität und die dadurch verursachte Transmitterausschüttung spielen bei der selektiven Stabilisierung von Synapsen und damit bei der Ausgestaltung des neuronalen Netzwerks eine große Rolle. Im ZNS von Vertebraten beruht die Wirkung des Neurotransmitters und Neuromodulators Acetylcholin auf den nikotinischen und muskarinischen Acetylcholinrezeptoren. Muskarinische Acetylcholinrezeptoren (mAChRen) koppeln, abhängig von den fünf identifizierten Rezeptorsubtypen (M1- M5), an unterschiedliche intrazelluläre Signalketten an. Dabei interagieren für gewöhnlich die M1, M3 und M5 Rezeptoren mit einem G-Protein des Typs Gq/11, während M2 und M4 ein G-Protein des Typs Gi/o aktivieren. Der Colliculus inferior (IC) ist eine wichtige Verschaltungsstation im auditorischen Mittelhirn von Säugetieren. Inhibitorische und exzitatorische Eingänge werden dort während der Entwicklung mit großer Präzision angelegt und konvergieren auf einzelne ICNeurone. Die physiologische Bedeutung von mAChRen im IC ist weitgehend unerforscht und die Subtypen die im juvenilen IC eine Rolle spielen wurden noch nicht charakterisiert. Es war das Ziel der vorliegenden Arbeit mittels elektrophysiologischer Untersuchungen im IC der juvenilen Ratte (P5-P12) folgende Fragen zu klären: i) Gibt es im IC der jungen Ratte eine Modulation der GABAergen Transmission durch muskarinische Acetylcholinrezeptoren? ii) Welcher muskarinische Rezeptorsubtyp spielt dabei eine Rolle? iii) Welcher intrazelluläre Signalmechanismus ist der Aktivierung des muskarinischen Acetylcholinrezeptors nachgeschaltet? Unter Wirkung von Muskarin kam es bei 41,2% der untersuchten Neurone des Colliculus inferior zu einer Erhöhung der Frequenz der spontanen IPSCs. Die sIPSCs wurden durch Bicucullin blockiert, somit handelt es sich um GABAerge IPSCs. Die Wirkung von Muskarin nahm zu, wenn die Tiere älter als 9 Tage waren. Es wurde gezeigt, dass nAChRen keine Rolle spielen bei der Erhöhung der sIPSC-Frequenz, während eine selektive Blockade der M3-(M5-) mAChRen durch 4-DAMP die Muskarinwirkung blockierte. In der Regel sind die M3-Rezeptoren über folgende Signalkaskade aktiv: Phospholipase C, Kalzium-Calmodulin, NO-Synthase, Guanylatzyklase, die NO-Konzentration und cGMP. Alle Glieder dieser Kaskade wurden untersucht, sie hatten aber keinen Einfluss auf die Muskarinwirkung. Im Gegensatz dazu führte die Erhöhung des intrazellulären cAMP-Spiegels zu einer vergleichbaren Frequenzsteigerung der sIPSCs wie sie unter der Wirkung von Muskarin gemessen wurde. Weiterhin ließ sich die Erhöhung der sIPSC-Frequenz durch Muskarin vollständig aufheben, wenn die intrazelluläre Adenylatzyklase blockiert wurde. Es ist bekannt, dass der M3-(M5-) mAChR über verschiedenste Signalwege den intrazellulären cAMP-Spiegel verringern oder erhöhen kann und dass die Spezifizierung des Rezeptors vom Grad der Rezeptorexpression, dem Zelltyp und der Kombination der Effektormoleküle abhängig ist. Die Abweichung der juvenilen Kaskade vom im erwachsenen Tier üblichen Signalweg hat dabei den Vorteil, dass eine Aufgabentrennung zwischen Netzwerkbildung und Synapsenstabilisierung einerseits und Signalweiterleitung andererseits erfolgt. Beim juvenilen Tier steht die Netzwerkbildung im Vordergrund, beim erwachsenen Tier wird die Signalweiterleitung moduliert. Der sekundäre Botenstoff NO, der weit diffundieren kann, spielt beim juvenilen Signalweg keine Rolle und dies ermöglicht eine klare Trennung der aktivierten von den umgebenden Synapsen. Dadurch wird eine starke Selektion innerhalb der vorhandenen Synapsen ermöglicht und eine aktivitätsbasierte Netzwerkbildung vereinfacht. Die Etablierung funktioneller GABAerger Synapsen ist ausschlaggebend für die Entwicklung des neuronalen Netzwerks. Innerhalb der ersten postnatalen Wochen führt die Aktivierung von GABAA-Rezeptoren zur Depolarisierung der IC-Neurone und zu einer Erhöhung der intrazellulären Ca2+-Konzentration. Acetylcholin potenziert also letztlich den GABA-aktivierten Einstrom von Ca2+ und führt damit zur Erhöhung der intrazellulären Ca2+ Konzentration im postsynaptischen Neuron des IC. Diese modulatorische Wirkung von Acetylcholin könnten damit eine wichtige Rolle bei der Entwicklung und Stabilisierung von inhibitorischen Synapsen im sich entwickelnden IC der Ratte spielen.