Refine
Year of publication
- 2005 (1223) (remove)
Document Type
- Article (539)
- Doctoral Thesis (186)
- Part of Periodical (123)
- Review (108)
- Book (68)
- Part of a Book (57)
- Report (32)
- Working Paper (29)
- Conference Proceeding (25)
- diplomthesis (14)
Language
- German (1223) (remove)
Keywords
- Rezension (21)
- Deutsch (20)
- Deutschland (20)
- Frankfurt <Main> / Universität (20)
- Johann Wolfgang von Goethe (20)
- Biographie (15)
- Literatur (15)
- Vormärz (15)
- Frankfurt <Main> (14)
- Frankfurt (12)
Institute
- Medizin (112)
- Extern (49)
- Rechtswissenschaft (43)
- Präsidium (38)
- Biochemie und Chemie (31)
- Biowissenschaften (27)
- Neuere Philologien (25)
- Physik (25)
- Erziehungswissenschaften (24)
- Geschichtswissenschaften (23)
Wie können Unternehmen bei der Auswahl von Bewerbern zukünftig besser zwischen Quantität und Qualität abwägen? Welche Wege sollten Kandidaten bei der Suche nach ihrem Wunscharbeitgeber einschlagen? Fragen, mit denen sich die Frankfurter Wirtschaftsinformatiker beschäftigen. Das Internet hat in den letzten Jahren die Personalbeschaffung erobert: Viele große und mittlere Unternehmen suchen ihr neues Personal inzwischen überwiegend auf elektronischem Weg. So lassen sich nicht nur die Kosten für das Personalmarketing deutlich reduzieren, auch die Rekrutierungszeiten werden kürzer. Doch gleichzeitig sehen sich die Unternehmen einer wachsenden Flut von Bewerbern gegenüber: Stellensuchende nutzen – verstärkt durch den Druck des Arbeitsmarkts – zunehmend die Chance, ihre Bewerbung über das Internet schnell, kostengünstig und an mehrere Unternehmen gleichzeitig elektronisch zu versenden. Um schnell die relevantesten Bewerber für ausgeschriebene Stellen zu identifizieren, benötigen die Unternehmen entsprechende Tools. Das Team um Wolfgang König und Tobias Keim erforscht innovative Lösungen.
Energiezustände in einem Halbleiterübergitter in gekreuzten elektrischen und magnetischen Feldern
(2005)
In dieser Arbeit werden Energiezustände in einem GaAs/Al0:3Ga0:7As-Halbleiterübergitter in gekreuzten elektrischen und magnetischen Feldern untersucht. Dabei liegt das elektrische Feld F in Wachstumsrichtung an, während das Magnetfeld B senkrecht dazu in der Ebene der Schichten orientiert ist. Es werden die experimentellen Methoden der Elektroreflexions- und Transmissionsspektroskopie angewendet. Die experimentellen Ergebnisse werden sowohl mit theoretischen Berechnungen verglichen als auch mit zeitaufgelösten Daten in Bezug gesetzt. Sowohl in den Elektroreflexions- als auch in den Transmissionsspektren lassen sich je nach relativem Wert des elektrischen und magnetischen Feldes B=F = x drei verschiedene Bereiche unterscheiden. Für kleines x sind Wannier-Stark-Übergänge sichtbar, die sich mit steigendem B-Feld zu höheren Energien verschieben. Die auffälligste Beobachtung ist das Verschwinden der Wannier-Stark-Zustände mit steigendem Magnetfeld: Bei mittlerem x, wenn die magnetische Energie ~!C die Größenordnung der elektrischen Energie ~!B erreicht, beobachtet man einen nahezu strukturlosen Übergangsbereich. Für größere Magnetfeldstärken lassen sich wieder Übergänge identifizieren, die Landau-Charakter besitzen. Die Exzistenz eines strukturlosen Übergangsbereichs unterscheidet die Geometrie gekreuzter Felder wesentlich von der Konfiguration parallel gerichteter Felder (F- und B-Feld in Wachstumsrichtung [5]). Der Übergangsbereich wurde bereits zuvor beobachtet [65], eine Erklärung seines Ursprungs stand jedoch noch aus. Letztere gewinnen wir aus der Zusammenarbeit mit der Theorie: Auf der Grundlage der Modellrechnungen von S. Glutsch und S. Stepanow aus Jena lässt sich feststellen, dass jeder Wannier-Stark-Zustand in Anwesenheit eines Magnetfeldes in Landau-Zustände aufspaltet. Mit steigendem Magnetfeld verschieben sich diese, wie auch die Wannier-Stark-Zustände, zu höheren Energien, so dass sich eine wachsende Anzahl von Zuständen energetisch annähert. Die Wechselwirkung von Zuständen führt zu vermiedenen Überkreuzungen und damit zu einer Verteilung der Oszillatorstärke, so dass die Stärke jedes einzelnen Zustands abnimmt und einzelne Linien nicht mehr aufzulösen sind. Interessanterweise spielt die Verkürzung der Lebenszeit der involvierten Zustände (homogene Linienverbreiterung) eine untergeordnete Rolle bei der Entstehung des Übergangsbereichs. Auch hinsichtlich anderer Aspekte ist die Übereinstimmung von Theorie und Experiment zufriedenstellend: Die auf Grundlage der Einteilchen-Theorie vorhergesagte energetische Verschiebung der Wannier-Stark- und Landau-Niveaus mit steigendem Magnetfeld kann experimentell mittels Elektroreflexionsmessungen verifiziert werden. Die experimentellen Absorptionsspektren lassen sich direkt mit den theoretischen Absorptionsspektren vergleichen und zeigen die vorhergesagten Energieübergänge. Darüberhinaus sind Fano-Resonanzen als asymmmetrische Linienprofile zu beobachten. Das Zusammenspiel von Theorie und Experiment stellt sich demnach in dieser Arbeit als sehr fruchtbar heraus: Die vorgestellten Experimente leisten der Theorie einen Dienst, indem sie wesentliche theoretische Vorhersagen experimentell verifizieren. Andererseits gewinnt das Verständnis der experimentellen Beobachtungen erst durch theoretische Erkenntnisse sein Fundament. Während der Vergleich von Theorie und Experiment weitgehend abgeschlossen ist [21], wirft der Vergleich der spektral aufgelösten Daten mit zeitaufgelösten Messergebnissen noch ungelöste Fragen auf. Die Dynamik optisch angeregter Wellenpakete lässt sich analog zu den Elektroreflexions- und Absorptionsspektren in ein elektrisch-dominiertes Regime für kleines B=F = x und ein magnetisch-dominiertes Regime für großes x unterteilen. Die beiden Bereiche sind durch einen mittleren x-Wert separiert, bei dem keine kohärenten Oszillationen zu beobachten sind. Dieser Übergang findet entgegen der Erwartung nicht bei dem gleichen x-Wert statt wie in spektral aufgelösten Daten. In der vorliegenden Arbeit wird dieser Befund präzisiert: Absorptionsspektren werden mit TEOS-Spektren (englisch: transmittive electrooptic sampling), Elektroreflexionsdaten mit REOS-Spektren (englisch: reflective electro-optic sampling) verglichen. Sehr deutlich ist die Diskrepanz zu erkennen: In spektral aufgelösten Daten liegt der Übergangsbereich bei größeren x-Werten als in zeitaufgelösten Daten, so dass im spektralen Übergangsbereich wieder langlebige Oszillationen in den zeitaufgelösten Messungen zu beobachten sind. Umgekehrt sind in den spektral aufgelösten Messungen noch deutliche Strukturen erkennbar, wenn am dynamischen Übergang zwischen elektrisch- und magnetisch-dominiertem Regime Oszillationen ausbleiben. Die Experimente dieser Arbeit motivieren demnach die weitere Beschäftigung mit folgenden Problemen: Die Diskrepanz zwischen spektral- und zeitaufgelösten Daten hinsichtlich des Übergangsbereichs muss in Zukunft theoretisch behandelt werden. Es besteht bereits ein Angebot von M. M. Dignam, sich des Problems anzunehmen. Damit verbunden ist die Frage nach der genauen Bedingung für den Übergangsbereich in den spektralen Daten, da die bisherige Bedingung zu grob zu sein scheint. Die Untersuchung von Energiezuständen in Halbleiterübergittern wird auch in Zukunft eine Rolle spielen. Nachdem die Geometrien von parallel und senkrecht orientiertem B und F eingehend behandelt wurden, stellt nun der Fall arbiträrer Feldanordnung eine neue Aufgabe dar. Wenn das Magnetfeld mit dem elektrischen Feld einen arbiträren Winkel einschließt, wird in zeitaufgelösten Messungen eine Kopplung von Magneto-Bloch- und Zyklotron-Oszillationen beobachtet, die sich in einem kohärenten Quasi-DC-Strom und verstärkter Feldabschirmung ausdrückt [58]. Es wäre interessant zu untersuchen, mit welchen spektralen Eigenschaften diese dynamischen Befunde korrespondieren. Hierzu bieten sich die Methoden der Elektroreflexions- und Transmissionsspektroskopie an, die sich in dieser Arbeit als geeignet erwiesen haben.
In der retroviralen Gentherapie von Gliomen ist die effiziente und spezifische Transduktion von Gliomzellen ausschlaggebend für den Therapieerfolg. Als besonders schwierig erwies sich in diesem Zusammenhang [1]: (i) die ausreichende Distribution retroviraler Vektoren im Tumorgewebe (ii) die Transduktion einzelner, infiltrierender Tumorzellen und (iii) die Transduktion von Tumorbereichen mit geringer Zellzeilungsaktivität. In der vorliegenden Arbeit wurden verschiedene Strategien angewandt, um diese Ziele zu erreichen. Lentivirale Vektoren wurden mit Glykoproteinen des Lymphozytären Choriomeningitis Virus (LCMV-GP) und des Vesikulären Stomatitis Virus (VSV-G) pseudotypisiert. Lentivirale Vektoren vermitteln anders als gammaretrovirale Vektoren einen effizienten Gentransfer in ruhende Zellen [2]. Auf diese Weise können auch Tumoranteile mit geringer Zellteilungsaktivität transduziert werden. Allerdings sollte dabei die Transduktion des ebenfalls mitotisch inaktiven Hirngewebes vermieden werden. Vergleichende Tropismusstudien mit den oben genannten Pseudotypvektoren zeigten, dass LCMV-GP Pseudotypen einen effizienten und spezifischen Gentransfer in Gliomzellen in vitro und in vivo vermitteln. Auch einzelne, infiltrierende Tumorzellen wurden von LCMV-GP Pseudotypvektoren transduziert. Normale Hirnzellen, insbesondere Neurone, wurden von LCMV-GP Pseudotypen dagegen kaum infiziert. Im Gegensatz dazu transduzierten VSV-G Pseudotypen Neurone in vitro und in vivo mit hoher Effizienz, während Gliomzellen von VSVG Pseudotypen weniger stark transduziert wurden als von LCMV-GP Pseudotypen. Das Suizidgen hsv-tk (Herpes Simplex Virus Thymidinkinase) wurde anschließend durch lentivirale LCMV-GP Pseudotypvektoren in Gliome in vivo eingebracht werden. Diese Suizidgentherapie bewirkte einen starken Antitumoreffekt und führte zu einer kompletten Eliminierung des Tumors bei 90% der behandelten Ratten. Ergebnisse dieser Studien verdeutlichen, dass LCMV-GP-pseudotypisierte lentivirale Vektoren ein hoch effizientes und spezifisches Vektorsystem zum Gentransfer in maligne Gliomzellen darstellen.
Die Faust-Illustrationen erschienen 1828 mit der französischen Übersetzung von Albert Stapfer. Im November 1829 zeigte Eckermann Goethe zwei Skizzen dieser Lithographien: Faust und Mephisto auf den Sturmpferden und die Trinkszene in Auerbachs Keller. „Goethe war von Delacroix’ ungestümem Strich mehr beeindruckt als begeistert, blieb aber durchaus verbindlich: Der Zeichner sei >ein großes Talent<, sagte er zu Eckermann, „das gerade am >Faust< die rechte Nahrung gefunden hat. Die Franzosen tadeln an ihm seine Wildheit, allein hier kommt sie ihm recht zu statten.<“ (Die Gazette, Nr.17, September 1999)
Andreas Müller (1831-1901) ist ein Schüler von W. Kaulbach und M. Schwind, er lehrte als Professor für kirchliche Kunst an der Münchner Akademie und war als Historienmaler und Zeichner für den Holzschnitt tätig. Der in der Tradition der Münchner Spätromantik stehende Zyklus zeigt detailgenaue, dichte Kompositionen, deren Erzählfreudigkeit anspricht. Mit dieser Serie liegt die vierte Folge von Illustrationen zu Schillers „Glocke“ vor. Vergleiche lassen sich ziehen mit Hans Kaufmann, Alexander von Liezen Mayer und Ludwig Richter.
Otto Peter : Wilhelm Tell
(2005)
Diese Serie zu Schillers „Wilhelm Tell“ gehört der Popularkultur an. Die Kompositionen wirken wie „stills“ eines alten Heimatfilms: Zwischen bewegten Gruppenszenen vor wechselnder Bergkulisse sind teils statuarische, teils pathetisch wirkende Auftritte mit wenigen Darstellern eingestreut. Auch die Mischung aus historischen und zeitgenössischen Kostümen und Charakteren unterstützt diesen Eindruck. Die Farbdrucke sind wohl in den 30er Jahren entstanden; der Künstler konnte nicht eruiert werden.
Friedrich (Fred) Kaskeline, geb. 1863 in Prag, war Schüler der Akademie in Wien unter dem Historien- und Porträtmaler Christian Griepenkerl. Er arbeitete als Illustrator des humoristisch-satirischen Wiener Arbeiterblattes "Glühlichter" (1889/90-1915) und war in Berlin Repräsentant und Spezialzeichner der illustrierten Journale "The Graphic" und "The Daily Graphic" (London). Im Ersten Weltkrieg schuf er Propagandagraphik, in den 20er Jahren stammen von ihm zahlreiche, sehr unterschiedliche Postkarten: modische, teils witzige, teils frivole Künstlerpostkarten, die auch in England Erfolg hatten, sowie Silhouetten mit diversen Themen (z.B. "Mein schönes Fräulein, darf ich's wagen?"). Aus dieser Schaffenszeit stammen wohl auch die Faust-Illustrationen.
Unter den äußerst zahlreichen Illustrationen zu Schillers „Glocke“ ist Hans Kaufmanns Illustrationsfolge durchaus eigenständig. Durch ihre Skizzenhaftigkeit und ihre zarten Aquarelltöne erhalten die Staffagefiguren Bewegung, was durch lebhafte Gestik und Körpersprache noch unterstrichen wird. Ausschmückende Erzählfreude, eine stets wechselnde Stadtkulisse wie auch der Wandel der Tageszeiten locken zum genauen Schauen.
Das Hormon Erythropoetin (EPO) ist ein hitzestabiles Glykoprotein, welches als wesentlicher Wachstumsfaktor an der Erythropoese beteiligt ist. EPO wird sauerstoffabhängig in Leber und Niere synthetisiert. Da EPO in Zellen nicht gespeichert wird, ist seine Sekretionsrate durch die Syntheserate bestimmt. Unter Hypoxie wird über einen hypoxieinduzierbaren Faktor (HIF-1) die Transkription des EPO-Gens angeregt. Mycophenolat Mofetil (MMF) wird erfolgreich bei transplantierten Patienten als Immunsuppressivum eingesetzt. MMF ist ein nichtkompetitiver, reversibler Hemmer der Inosinmonophosphatdehydrogenase (IMPDH), die essentiell für die de novo Purinsynthese in Lymphozyten ist. MMF soll selektiv antiproliferativ auf Lymphozyten wirken, ohne einen unspezifischen knochenmarkdepressiven Effekt zu haben. Trotzdem wurden bei bis zu 15% der nierentransplantierten und nahezu der Hälfte aller herztransplantierten Patienten unter immunsuppressiver Therapie mit MMF Anämien beschrieben. Die Genese dieser Anämien ist noch unklar und könnte durch eine reduzierte EPO-Produktion unter MMF bedingt sein. In dieser Untersuchung wird deshalb der Effekt von MMF auf die EPO-Freisetzung aus HepG2-Zellen in vitro analysiert. HepG2 und Hep3B Zellen sind ein etabliertes Zellkulturmodell zur Untersuchung der Regulierung hypoxieabhängiger EPO-Sekretion. MMF vermindert zeit- und konzentrationsabhängig die mittels ELISA gemessene EPO-Konzentration im Zellüberstand von HepG2-Zellen – im Mittel etwa auf die Hälfte des Ausgangswertes (p < 0, 001). Dieser Effekt ist signifikant ab einer Konzentration von 0,1 µM MMF und maximal bei 5 µM MMF. Eine signifikante Inhibition der EPO-Sekretion war erst nach 48stündiger Inkubation mit MMF nachweisbar. Unspezifische Effekte auf Proliferation und Proteinsynthese sowie zytotoxische Effekte wurden mittels verschiedener unabhängiger Methoden weitgehend ausgeschlossen. Der Effekt von MMF auf die EPO-Sekretion konnte durch Zugabe von Guanosin aufgehoben werden, was für eine kausale Rolle der IMPDH in diesem Zusammenhang spricht. Analog zu der sezernierten EPO-Menge verminderte sich auch die Menge der gebildeten EPO-mRNA unter MMF. Zudem ist die Aktivität von HIF-1 unter MMF gemindert. Im Gegensatz zu MMF zeigen andere Immunsuppressiva wie der Purinsynthesehemmer Azathioprin und die Calcineurininhibitoren Cyclosporin A und Tacrolimus keinen spezifischen Effekt auf die EPO-Freisetzung von HepG2-Zellen. Die Ergebnisse weisen darauf hin, daß die Minderung der EPO-Sekretion im Zellkulturmodell ein Erklärungsansatz für die beobachteten Anämien unter MMF sein könnte. Eine Therapie der Anämie mittels EPO-Substitution erscheint daher sinnvoll.
Die wissenschaftliche Praxis des Sachunterrichts ist von der Praxis des schulischen Sachunterrichts systematisch unterscheidbar. Der wissenschaftliche Sachunterricht und seine Didaktik besteht als ein eigenständiger Diskurs, der sich nicht aus einer Zusammensetzung der verschiedenen Fachwissenschaften und deren Didaktiken begründet. Er hat die Aufgabe den Bildungsauftrag des Sachunterrichts in Schule und Universität zu bestimmten. Der wissenschaftliche Diskurs des Sachunterrichts bewegt sich im Kontext der diskursiven Zusammenhänge über Kind, Sache und Welt. ...
In der vorliegenden Arbeit wird die Photodoppelionisation (PDI) von Helium (He) experimentell untersucht. Dazu wurde an der Synchrotronstrahlenquelle Advanced Light Source des Lawrence Berkeley National Laboratory (USA) der vollständig differentielle Wirkungsquerschnitt (FDCS) der PDI von He mit linear sowie mit links und rechts zirkular polarisiertem Licht bei den zwei Photon-Energien E_gamma = 179 eV und 529 eV gemessen. Dabei gelang erstmals eine Messung, bei der die Kontinuumsenergie der Fragmente wesentlich über der Bindungsenergie (79 eV) des Systems liegt. Aufgrund dieser hohen Energie lassen die gemessenen Winkel- und Energieverteilungen erstmals Rückschlüsse auf die Wechselwirkungsprozesse in der Ionisation zu. In allen bisherigen Messungen bei niedrigen Photon-Energien überdeckt der Einfluß der Elektron-Elektron-Wechselwirkung im Endzustand alle Spuren der seit langem theoretisch diskutierten Reaktionsmechanismen. Der FDCS der PDI von He wurde mit einer COLTRIMS (COLd Target Recoil Ion Momentum Spectroscopy)-Apparatur gemessen. Hierbei wird das Gastarget durch eine adiabatische Expansion gekühlt und dann mit dem Photon-Strahl zum Überlapp gebracht. Die bei einer Reaktion freigesetzten Elektronen, deren Summenenergie sich zu E_sum = E_1 + E_2 = E_gamma - 79 eV berechnet (die Summenenergie der beiden Elektronen ist gleich der Überschußenergie E_exc), werden mit einer Energie bis zu E_1,2 = 60 eV durch ein elektrisches und magnetisches Feld im vollen Raumwinkel von 4 pi auf einem großen ortssensitiven Detektor abgebildet. Das elektrische Feld projiziert die kalten Rückstoßionen auf einen zweiten ortssensitiven Detektor. Aus der Flugzeit und dem Auftreffort werden der Ladungszustand und der Impuls der Teilchen ermittelt. Ergebnisse: Die Energieaufteilung auf die beiden Elektronen erfolgt asymmetrisch. Diese Asymmetrie ist bei der PDI 450 eV über der Doppelionisationsschwelle (79 eV) stärker ausgeprägt als bei E_exc = 100 eV. Langsame Elektronen werden generell isotrop zur Polarisation emittiert (beta = 0), während die 100 eV-Elektronen einen Anisotropie-Parameter von beta = 1,7 und die sehr schnellen 450 eV-Elektronen sogar eine Dipolverteilung (beta = 2) bzgl. der Polarisationsachse aufweisen. Eine asymmetrische Energieaufteilung zusammen mit einem Anisotropie-Parameter von beta = 2 für die 450 eV-Elektronen zeigt, daß bei der PDI 450 eV über der Schwelle ein Zwei-Stufen-Prozeß vorliegt, in dem das erste Elektron die Energie und den Drehimpuls des Photons aufnimmt. Das zweite Elektron gelangt dann durch den Shake-off oder den Two-Step-One-Mechanismus ins Kontinuum. Sowohl die Häufigkeitsverteilung der Zwischenwinkel der Elektronen als auch der Verlauf der Quadrate der geraden und der ungeraden Amplituden bei der PDI 450 eV über der Schwelle zeigen, daß sehr langsame Elektronen (2 eV) hauptsächlich durch den Shake-off-Mechanismus ins Kontinuum gelangen, während etwas schnellere 30 eV-Elektronen ihre Energie über einen (e,2e)-Stoß (Two-Step-One-Mechanismus) erhalten. Für 100 eV über der Schwelle zeigt sich, daß der Relativimpulsvektor der beiden Elektronen parallel zum Polarisationsvektor steht. Das bedeutet, daß die PDI von He 100 eV über der Schwelle nicht mehr im Gültigkeitsbereich der Wannier-Näherung liegt. Aufgrund der großen Geschwindigkeitsdifferenzen kann die PDI von Helium parallel zum Polarisationsvektor erfolgen. Der gegen den Zwischenwinkel varphi_12 der Elektronen aufgetragene normierte Zirkulare Dichroismus CD_n ist bei E_exc = 100 eV wesentlich stärker ausgeprägt als bei E_exc = 450 eV. Der Wert des Extremums ist für alle Energieaufteilungen - außer der symmetrischen - gleich. Für beide Überschußenergien findet man eine Abhängigkeit der varphi_12-Position des Extremums von der Energieaufteilung. Die Extreme entfernen sich mit zunehmender asymmetrischer Energieaufteilung von varphi_12=180°. Die experimentell gewonnenen Ergebnisse zu den vollständig differentiellen Wirkungsquerschnitten der PDI von He sowohl mit linear als auch mit links und rechts zirkular polarisiertem Licht bei 100 eV und 450 eV über der Doppelionisationsschwelle zeigen insgesamt gute Übereinstimmungen mit den Ergebnissen der convergent-close-coupling-Rechnungen von A. Kheifets und I. Bray.
Die wissenschaftliche Recherche im Internet gestaltet sich als sehr schwierig, will man relevante Informationen schnell finden. Das Problem ist nicht der Mangel an Informationen sondern vielmehr das Übermaß davon. Außer der Quantität ist es für ein Mitglied einer Hochschule wichtig auf, von der Universität lizenzierte Webseiten zugreifen zu können. Aus einem Suchwerkzeug, wie zum Beispiel Google, kann ein Informationsanbieter nicht erkennen ob der dahinter stehende Benutzer berechtigt ist einen Artikel anzufordern. Ein anderer Aspekt worauf ein Wissenschaftler bei seiner Suche Wert legt, ist die Qualität eines Artikels. Am besten eignen sich hier wissenschaftliche Artikel aus renommierten und angesehenen Zeitschriften. Aus diesem Hintergrund heraus haben sich Informationsanbieter Gedanken gemacht wie man qualitativ hochwertige Artikel schnell in einer Recherche einbinden kann. Die Module, die Entwickelt wurden bilden die Basis für die Software die diese Entwicklungen zusammenfügt und miteinander harmonieren lässt. Für die Identifikation von elektronischen Dokumenten wurde unter anderem der DOI (Digital Object Identifier) entwickelt. Außerdem wichtig für unsere endgültige Software ist der OpenURL Standard. Damit werden die meisten Probleme die bei der mit einer herkömmlichen URL bestehen gelöst. Mit diesem Standard wird anhand von Metadaten eine eindeutige Identifikation eines Dokumentes vorgenommen die zu einem Dokument verlinkt, auch wenn sich seine eigentliche URL geändert hat. Die Diplomarbeit zeigt uns einen Überblick über diese Module. Dieser Lösungsweg führt uns zu einer Technologie die angewandt wird um unser Ausgangsproblem zu lösen. In dieser Software sind, anhand eindeutiger Identifikation, wissenschaftliche Dokumente und Artikel permanent abrufbar ohne der Gefahr einen Artikel durch Änderung seiner URL zu verlieren.
E-Learning soll im Rahmen der allgemeinmedizinischen Ausbildung von Medizinstudierenden erprobt werden. Ein zielgruppenspezifisches, multimodulares Online-Angebot begleitet Medizinstudenten des 10. Semesters während ihres dezentralen Praktikums in hausärztlichen Praxen. Folgende Lehrziele werden angestrebt: (1) Einführung in das E-Learning, (2) Klinische Allgemeinmedizin - Online-Modul, (3) Chronic Care Online-Modul, (4) Online-Bewerbung. Die systematische Evaluation zeigt, dass E-Learning die Kommunikation der Studierenden untereinander und mit der universitären Lehreinheit während des Praktikum fördert. Auf der Grundlage der in diesem Pilotversuch gewonnenen Erfahrungen erscheint die Kombination mit Präsenzunterricht (Blended Learning) eine vielversprechende Option für die allgemeinmedizinische Ausbildung zu sein.
Trotz ihrer hohen Zahl besetzen Jugendliche in westafrikanischen Staaten gesellschaftlich marginalisierte Positionen. Die Gründe für die Organisation der ländlichen Jugend in Jugendvereinen ergeben sich somit aus ihrer Lebenssituation. Formen sozialer Solidarität zur Verbesserung der Lebensmöglichkeiten wie die Aktivitäten der Jugendvereine stellen eine rationale Folge ihrer ökonomisch schlechten Situation dar (WEICKER 1992:550). Die im frankophonen Westafrika weit verbreiteten Jugendvereine, die im weiteren Verlauf auch als associations des jeunes bezeichnet werden, dienen Jugendlichen als Instrumente zur Gestaltung ihrer Lebenswelt. Als gemeinsames Betätigungsfeld bieten diese Vereine Einblicke in den Alltag der Jugendlichen (jeunes) (vgl. JENSEN 1996:61). Hier werden ihre Beziehungen untereinander sowie zu ihrer Umwelt erkennbar. Die Vereine sind Spiegel ihrer Interessen und Bedürfnisse. In diesem Kontext sind Jugendvereine als Instrumente zur Verfolgung ihrer spezifischen Interessen zu verstehen. Eine Betrachtung der Vereine macht deutlich, mit welchen unterschiedlichen Strategien die jeunes diese Interessen verfolgen. Über die Vereine engagieren sich die Mitglieder im Kollektiv für gemeinnützige Ziele, sie verstehen es aber auch, über ihre Mitgliedschaft individuelle Lebenskonzepte durchzusetzen. Dabei sind die jeunes keineswegs die einzigen Akteure, die über die Vereine ihre Umwelt zu gestalten versuchen. Die associations des jeunes stehen in einem besonderen Spannungsfeld. Sie stellen eine „Linse“ dar, welche die verschiedenen Interessen der Mitglieder bündelt. Die Vereine stellen nicht nur für die Jugend wichtige soziale Sprachorgane dar, sondern dienen auch der Artikulation allgemeiner gesellschaftlicher Bedürfnisse. Vereinsmässige Organisationsformen der Jugend (jeunesse) haben in dieser Funktion im frankophonen Westafrika vor und nach der völkerrechtlichen Unabhängigkeit von der französischen Kolonialmacht immer eine gesellschaftlich wichtige Rolle gespielt. So ist die Relevanz der jugendlichen Klientel der Partei RDA (Rassemblement Démocratique Africain) in ihrem Kampf um die völkerrechtliche Unabhängigkeit der französischen Kolonien Westafrikas im historischen Kontext ausschlaggebend für die heutige Verwendung des Begriffs jeunesse als übergreifende Bezeichnung für organisierte Jugendbewegungen (d’ALMEIDA-TOPOR 1992:16). Nach der Demokratisierung westafrikanischer Staaten ermöglichten jedoch Parteien der Bevölkerung die politische Beteiligung an gesellschaftlichen Entscheidungsprozessen. Gewerkschaften und Vereine verloren als Mittel zur Artikulation und Verfolgung gesellschaftlicher Bedürfnisse an Bedeutung. Im aktuellen Diskurs der Entwicklungszusammenarbeit und der staatlichen Entwicklungsagenda bieten sich den (ländlichen) Vereinen jedoch neue Möglichkeiten, auf die sozioökonomische Entwicklung ihrer Umwelt – und damit der Lebenswelt der Jugendlichen – Einfluss zu nehmen. Durch ihre Funktion als Selbsthilfegruppen dienen die Vereine als Transmissionsinstrumente für die Vorhaben lokal agierender NGOs (Non-Governmental Organisations) und erlangen dadurch für die lokale Bevölkerung sozioökonomische Relevanz. Aus diesem Grund stellen sie auch ein Zugriffsinstrument für politische Eliten dar, die sich die Reputation der Vereine nutzbar machen wollen, um über sie ihren Einfluss in der Bevölkerung zu vergrößern. So verstehen es vor allem die Vertreter der städtischen modernen Elite, die Vereine auch zur Verfolgung ihrer individuellen Ziele zu nutzen. Zurückgekehrte Migranten, aber auch durch Schulbildung qualifizierte, vor Ort lebende jeunes sind als potenzielle Initiatoren der Vereine zu sehen. Sie besitzen organisatorische Fähigkeiten, die sie zu Gründung, Leitung oder aktiven Mitgliedschaft in einer Vereinigung befähigen, die der Entwicklungszusammenarbeit dienen können. Die Zusammenarbeit der Vereine mit (staatlichen und nichtstaatlichen) Organisationen der Entwicklungszusammenarbeit eröffnet ihnen den Zugang zu ökonomischem und sozialem Kapital, das auch zur Verbesserung der eigenen Lebenssituation genutzt werden kann. Da sich die Berufs- und Studienabschlüsse der besser ausgebildeten jeunes nicht mehr zwangsläufig positiv auf ihre Lebenssituation auswirken, dienen ihnen die Vereine somit als ideales Instrument, entsprechende Ressourcen zu erschließen. Auf diese Weise hoffen die jeunes auch, sich zunehmend aus Abhängigkeiten befreien und ihren sozialen Status als Jugendliche hinter sich lassen zu können.
Die Altersvorsorge in Russland - Theoretische Analyse, aktuelle Rahmenbedingungen und ihre Umsetzung
(2005)
Das russische Rentenversicherungssystem befindet sich in der Krise. Wie in einer Vielzahl entwickelter Staaten auch, erodiert die Basis des umlagefinanzierten Rentensystems („Generationenvertrag“) auf Grund des demografischen Wandels. Dies wird verstärkt durch die mangelnde Wirtschaftskraft Russlands. Ausgangspunkt der Diskussion des russischen Rentenmodells in diesem Artikel ist die Darstellung der theoretischen Grundannahmen, die Analyse der aktuellen und zukünftigen Rahmenbedingungen sowie eine Prognose der natürlichen und räumlichen Bevölkerungsbewegung in Russland. Hierauf folgt die Präsentation der gegenwärtigen Situation einschließlich der bereits erfolgten ersten Schritte zu einer umfassenden Neuordnung des Rentenversicherungssystems sowie die Darstellung von „hot steps“ auf dem Weg zu einer nachhaltigen Alterssicherung.
Die Rho-Kinase gehört zur Familie der Serin/Threonin Kinasen und wird durch verschiedene vasoaktive Mediatoren, wie Katecholamine, UII, Thromboxan und Serotonin aktiviert. Sie spielt eine Schlüsselrolle in der Gefäßkontraktion des glatten Muskels. Die Rho-Kinase induzierte Kontraktion ist in allen Gefäßbetten der verschiedenen untersuchten Tierspezies (Ratte, Maus, Kaninchen, Schwein) induzierbar und durch selektive Rho-Kinase Inhibitoren konzentrationsabhängig hemmbar. Die Rho-Kinase Inhibitoren induzieren in vitro eine Gefäßrelaxation und führen in vivo zu einer Blutdrucksenkung. In akuten invasiven Blutdruckmessungen und chronischen telemetrischen Untersuchungen wurde für Rho-Kinase Inhibitoren eine Senkung des peripheren arteriellen Blutdrucks nachgewiesen. Der vasorelaxierende Effekt von Rho-Kinase Inhibitoren in vitro und in vivo ist gleichermaßen in normotensiven und hypertensiven Tiermodellen messbar und hängt nicht von der Endothelfunktion ab. Es wurden keine Unterschiede in der Sensitivität gegenüber Rho-Kinase Inhibitoren zwischen hypertensiven Tieren und normotensiven Tieren gemessen. In der Proteinexpressionsanalyse zeigte sich eine tendenziell, aber nicht signifikante Erhöhung der Rho-Kinase II-Expression im arteriellen glatten Gefäßmuskel der hypertensiven Tiere. Im Tiermodell der pulmonalen arteriellen Hypertonie wurde durch chronische Behandlung mit Rho-Kinase Inhibitoren die Progredienz der PAH verbessert. Rho-Kinase Inhibitoren normalisierten die Endothelfunktion und die Hyperkontraktilität der pulmonalen Gefäße. Zusätzlich konnten die Rechtsherzhypertrophie und rechtsventrikuläre Druck verbessert werden. In Untersuchungen am isoliert perfundierten Herzen nach Langendorff führte die Perfusion mit Rho-Kinase Inhibitoren zu einer verbesserten Durchblutung der Herzkranzgefäße. Die kardiale Kontraktilität und die Herzfrequenz wurden durch die akute Rho-Kinase Hemmung nicht beeinflusst. Zusätzlich zur Gefäßfunktion reguliert Rho-Kinase auch die Aktivierung und Aggregation von Thrombozyten. Vasoaktive Mediatoren können eine Rho-Kinase induzierte Aktivierung von Thrombozyten bewirken und so die Atherogenese begünstigen. Die Hemmung von Rho- Kinase bewirkt die Hemmung der Thrombozytenaggregation. Die Aktivierung von Rho- Kinase ist essentiell für zelluläre Transportvorgänge und die Zellmotilität. Dies wird durch Umstrukturierung des Zytoskeletts und mit Hilfe von Stressfaserformierungen realisiert. Rho- Kinase Hemmung verringert die Formierung von Stressfasern und kann somit Transporte von cholesterolsensitiven Transkriptionsfaktoren, z.B. SREBPs, zu ihren Bindungselementen reduzieren. Dadurch wird eine verstärkte Expression SRE-regulierter Gene, wie z.B. Cholesterolsyntheseenzymen, verhindert. Gleichzeitig führt eine Hemmung der Rho-Kinase Aktivität zu einer Senkung der Proliferationsrate von glatten Muskelzellen und Monozyten. Im LDLR defizienten Tiermodell der Atherosklerose wurde durch eine chronische Behandlung mit Rho-Kinase Inhibitoren eine signifikante Verbesserung der Endothelfunktion erreicht. Die Behandlung mit Rho-Kinase Inhibitoren zeigt allen untersuchten Modellen der Hypertonie blutdrucksenkende Effekte. In Modellen der Atherosklerose wurden durch Langzeitbehandlung mit Rho-Kinase Inhibitoren therapeutische Effekte auf die Endothelfunktion erzielt. Durch Reduktion der Risikofaktoren Bluthochdruck, Atherosklerose und endotheliale Dysfunktion senken Rho-Kinase Inhibitioren das kardiovaskuläre Risiko und bieten eine neue Therapiemöglichkeit zur Behandlung und Prophylaxe von Herz- Kreislauferkrankungen.
Unter Berücksichtigung der implementationsanalytischen und kausalen Analysen für die Einführungsphase der Vermittlungsgutscheine kommen die Autoren zu dem Schluss, dass die Erprobungsphase dieses arbeitsmarktpolitischen Instruments fortgesetzt werden sollte. Aus der Implementationsanalyse zeigt sich, dass der Verbreitungsgrad des Instruments auch nach 27 Monaten Erprobungsphase sehr gering ist. Die kausalen Analysen beziehen sich aufgrund begrenzter Datenverfügbarkeit lediglich auf zwei Ausgabemonate ein Jahr nach Einführung des Instruments (Mai und Juni 2003) und zeigen geringe positive Beschäftigungseffekte auf der Mikro-Ebene. Ob dadurch die Kosten der Vermittlungsgutscheine gerechtfertigt sind, lässt sich derzeit noch nicht abschließend beurteilen. Anzeichen für Mitnahmeeffekte und/oder Missbrauch existieren. Auch haben erfolgreiche Vermittlungen durch Gutscheine die Beschäftigungschancen in anderen Gruppen geschmälert. Deshalb werden verschiedene Vorschläge für eine kosteneffizientere Ausgestaltung der Vermittlungsgutscheine dargestellt und diskutiert. Insbesondere wird auf die Vorschläge des Bundeskabinetts vom 01.09.2004 eingegangen.
Holzkohlen aus archäologischen Grabungen im Sahel von Burkina Faso belegen die regionale Geschichte der Gehölzvegetation über die letzten 2000 Jahre. Der Bodenbau, den die sesshaft lebende Bevölkerung seit Beginn unserer Zeitrechnung intensiv betreibt, veränderte die Zusammensetzung der Gehölzvegetation vor allem auf den Dünen der Region. Im Vergleich mit der heutigen Vegetation lassen sich zudem klimatische Veränderungen nachweisen. Untersucht wurden über 9000 Fragmente aus sieben verschiedenen archäologischen Grabungen. Sechs Inventare stammen aus Siedlungshügeln. Bei einem Fundplatz handelt es sich um einen Hausgrundriss. Insgesamt wurden 37 Holzkohletypen erkannt und dokumentiert. Die untersuchten Inventare der Siedlungshügel zeigen, dass vor allem die Gehölzvegetation der Dünen und der Galeriewälder zur Brennholzentnahme genutzt wurde. Je nach Lage der Siedlung und dem Schwerpunkt der Wirtschaftsweise können verschiedene Taxa mit höheren Anteilen vertreten sein, möglicherweise zusätzlich verstärkt durch die anthropogene Auswahl von verfügbarem Brennholz. Im Vergleich der Holzkohleinventare lassen sich für die Eisenzeit regionale Entwicklungen erkennen. Die natürlichen Gehölzbestände auf den Dünen, unter anderem aus verschiedenen Akazienarten, wurden, zumindest in der Umgebung der Siedlungen, verdrängt. Stattdessen nahmen aufgrund der selektiven Förderung durch den Menschen die Anteile der Gehölze der Kulturbaumparks, Vitellaria paradoxa und Faidherbia albida zu. Die Landwechselwirtschaft förderte zudem Brachearten insbesondere aus der Familie der Combretaceae. In der späten Eisenzeit nahm Guiera senegalensis zu, die von starker Beweidung der Brachen profitiert. Der Unterwuchs der Galeriewälder an den mares und Wasserläufen wurde mit zunehmender Besiedlungsdauer in der Umgebung der einzelnen Fundplätze aufgelichtet, die Anteile von Combretum micranthum gehen in den Inventaren der einzelnen Siedlungsplätzen jeweils zurück. Klima und Vegetation waren während der Eisenzeit sudano-sahelisch. Auf feuchteres Klima verweisen Vitellaria paradoxa und Detarium microcarpum, die deutlich höhere Niederschläge benötigen, als sie die Region heute erhält. Der hohe Anteil von Taxa, die heute weiter südlich verbreitet sind, belegt zudem den sudanischen Aspekt der Gehölzvegetation. Der Vergleich der anthrakologischen mit den palynologischen und karpologischen Ergebnissen zeigt, dass die Gehölzvegetation sich unter zunehmend arideren Bedingungen in den letzen 2000 Jahren anthropozoogen stark verändert hat. Das Klima scheint aber während der Eisenzeit von 0-1500 AD vergleichsweise stabil gewesen zu sein. Erst danach haben die Niederschläge sich soweit verringert, dass in den letzten 500 Jahren einige sudanische Taxa aus der Region verschwanden, die noch während der Eisenzeit zur regionalen Flora gehört hatten, zum Beispiel Vitellaria paradoxa, Detarium microcarpum und Lannea sp. Der Vergleich der eisenzeitlichen Holzkohleflora mit der rezenten Dynamik der Vegetation und mit der Verbreitung einiger Arten um die Mitte des 20. Jahrhunderts zeigt, dass einige Taxa, wie Terminalia sp. möglicherweise erst in den letzten fünfzig Jahren aus der Region verschwunden sind.
In dieser Arbeit wurde die Produktion geladener Kaonen in C+C und Si+Si- Kollisionen bei Strahlenergien von 40A und 158A GeV untersucht, die verwendeten Daten stammen vom CERN Experiment NA49. Die Kaonen wurden über den mittleren Energieverlust in den TPCs identifiziert, was die Messung der Phasenraumverteilung in einem großen Bereich möglich machte. Die Analyse basiert auf der dE/dx Auswertung aller NA49 TPCs (globale Analyse). Es wurde herausgefunden, dass bei den C+C und Si+Si Datensätzen die MTPC dE/dx Information unvollständig auf den DSTs gespeichert wurde. Da die Auflösung bei der Bestimmung des mittleren Energieverlusts beschränkt ist, ist die Teilchenidentifikation nur über statistische Methoden möglich. Im Kapitel 4 wird diese von Marco van Leeuwen mitentwickelte Methode beschrieben. Für die endgültigen Werte der Phasenraumverteilung der Teilchen müssen die identifizierten Kaonen noch auf Effekte korrigiert werden, die durch den Aufbau des Detektors und die verwendete Analysesoftware hervorgerufen werden. Die Korrekturen werden im Kapitel 5.4 beschrieben und angewandt, dies sind unter anderem geometrische Korrekturen, Akzeptanz und Zerfallskorrekturen. Die Ergebnisse bei 158A GeV wurden mit C.Höhnes Ergebnissen verglichen und stimmen im Rahmen der Fehler überein. Zur Übersicht wurden die Daten mit den anderen NA49-Daten zusammengefasst. Dabei ist zu erkennen dass die Verhältnisse < K+ > / < NW >, < K+ > / < + >, < K > / < NW > und < K > / < > im Bereich zwischen p+p und Si+Si schnell ansteigen und im weiterem Verlauf bis Pb+Pb kaum weiter ansteigen. Im Rahmen des Statistical Model of the Early Stage sind dies Anzeichen für einen Übergang in das Quark-Gluon-Plasma bei 40A GeV in Si+Si Kollisionen. Für eine Bestätigung dieser Vermutung sind jedoch weitere Messungen bei unterschiedlichen Energien und Systemen notwendig.
Humanpharmaka stellen eine permanente Belastung von Gewässern dar. Im Rahmen der vorliegenden Arbeit wurde erstmals gemäß dem von der Europäischen Arzneimittelagentur EMEA entwickelten Konzept zur Durchführung von Umweltrisikobewertungen von Humanpharmaka mit mehreren ausgewählten Substanzen Umweltrisikobewertungen durchgeführt. Die hierfür ausgewählten Pharmaka sind das Antiepileptikum Carbamazepin (CBZ), das Antibiotikum Sulfamethoxazol (SMX) und das synthetische Östrogen 17a-Ethinylöstradiol (EE2). Als Vertreter der Inhaltsstoffe von Körperpflegeprodukten wurde der polyzyklische Moschusduftstoff Tonalid (AHTN) in die Untersuchungen mit einbezogen. Mit Hilfe von Literaturrecherchen wurde die Datengrundlage für Expositions- und Wirkungsabschätzungen bereitgestellt. Der vorhandene recherchierte Datensatz wurde mit entsprechenden Kurz- und Langzeitstudien ergänzt. Die mit den Ergebnissen der Expositions- und Wirkungsabschätzungen vorgenommenen Umweltrisikobewertungen ergaben im ersten Schritt basierend auf Kurzzeitstudien unter den ausgewählten Substanzen lediglich für den Moschusduftstoff AHTN ein erhöhtes Umweltrisiko für Oberflächengewässer. Basierend auf weiterführenden Langzeitstudien konnte das zunächst erkannte, durch AHTN indizierte Umweltrisiko entkräftet werden, jedoch ergaben die Risikocharakterisierungen für EE2 und SMX ein erhöhtes Risiko für das aquatische Kompartiment. Auf Grund der erhöhten Adsorptionspotenziale von CBZ, EE2 und AHTN wurden für diese Substanzen kompartimentspezifische Umweltrisikocharakterisierungen durchgeführt. Dabei wurde ein erhöhtes Umweltrisiko durch CBZ für das Kompartiment Sediment angezeigt. Basierend auf den Ergebnissen einer Sediment-Bioakkumulationsstudie mit dem endobenthischen Oligochaeten Lumbriculus variegatus, welche in einen unerwartet hohen Akkumulationsfaktor resultierte, und aus der Literatur verfügbaren Fisch-Biokonzentrationsfaktoren wurde anhand der Nahrungskette Wasser-Sediment-Wurm-Fisch die Möglichkeit des ‚secondary poisonings’ durch EE2 bei wurmfressenden Fischen unter natürlichen Bedingungen aufgezeigt. Zur Verwendung dieses Ergebnisses in einer Umweltrisikobewertung zum Zwecke der Zulassung von Pharmaka sollten weitergehende Untersuchungen zur Bestätigung durchgeführt werden. Bezugnehmend auf die Resultate der eigenen Studien und auf die besonderen Eigenschaften von Humanpharmaka wurde der EMEA-Richtlinienentwurf diskutiert und Verbesserungsvorschläge erarbeitet. Bis auf wenige Anpassungen geht das EMEA-Bewertungsschema nicht auf die Besonderheiten und spezifischen Eigenschaften von Humanpharmaka ein. Hauptkritikpunkte bezogen sich auf (1) die Anwendung eines konzentrationsabhängigen Schwellenwertes als Entscheidungsgrundlage zur Durchführung einer Risikocharakterisierung, (2) das stufenweise Vorgehen bei der Wirkungsabschätzung mit zuerst ausschließlich auf Kurzzeitstudien basierenden Effektdaten, und (3) unzureichende Angaben zu Vorgehensweisen in der höheren Stufe des Bewertungsschemas, vor allem bei Substanzen mit außergewöhnlichem ökotoxikologischen Potenzial. Trotz der zur Zeit intensiven internationalen Diskussion über mögliche Auswirkungen durch endokrine Disruptoren auf Mensch und Umwelt sieht der EMEA-Richtlinienentwurf nicht ausdrücklich vor, die Umweltgefährdung durch potenziell endokrin wirksame Substanzen mit spezifischen Testmethoden festzustellen und zu bewerten. Die Erkenntnis, dass spezifische Wirkmechanismen bei Chemikalien, speziell bei Arzneimitteln und Bioziden, auch in sehr niedrigen Konzentrationen zu Wirkungen in der Umwelt führen können, bleibt im EMEA-Richtlinienentwurf auf Grund der Einführung eines expositionsbezogenen Schwellenwertes und der Wirkungsabschätzung mittels Akutstudien nur unzureichend berücksichtigt. Zur Schließung dieser Lücke, die durch Untersuchungen zu endokrinen Wirkungen in der Umwelt offensichtlich wurde, müssen neue und bessere ökotoxikologische Instrumente entwickelt werden und das Umweltrisikobewertungsschema entsprechend erweitert und angepasst werden.
Eine große Herausforderung auf dem Forschungsgebiet der P2-Rezeptoren stellt die Entwicklung von potenten und selektiven Antagonisten für die einzelnen Rezeptorsubtypen dar, um die P2-Rezeptoren in nativen Geweben zu identifizieren und ihre physiologische und pathophysiologische Funktion aufzuklären. Ziel dieser Arbeit war zum einen die Entwicklung solcher P2-Antagonisten und zum anderen der Vergleich der pharmakologischen Befunde, die an nativen P2-Rezeptoren humaner Thrombozyten und isolierter Organe der Ratte sowie des Meerschweinchens ermittelt wurden, mit Ergebnissen an rekombinanten Rezeptoren, um somit Aussagen über P2-Rezeptoren verschiedener Spezies sowie nativer und rekombinanter P2-Rezeptoren treffen zu können. Mit Hilfe der P2Y1- und P2Y12-Standardantagonisten MRS2179, A3P5P und 2-meSAMP konnte gezeigt werden, dass für die ADP-induzierte Aggregation von in Puffer suspendierten Thrombozyten die gleichzeitige Aktivierung von P2Y1- und P2Y12-Rezeptoren zwingend erforderlich ist. Dagegen handelt es sich bei ADP- bzw. abmeATP-induziertem „shape change“ und Anstieg der intrazellulären Calciumkonzentration um rein P2Y1- bzw. P2X1-vermittelte Effekte humaner Thrombozyten, die zur Charakterisierung von Antagonisten an diesen Rezeptoren geeignet sind. Weiterhin wurden Untersuchungen am P2X1-Rezeptor des Ratten-Vas-deferens sowie am P2X3- und P2Y1-Rezeptor des Meerschweinchen-Ileum durchgeführt. Ausgehend von den Leitstrukturen Suramin und PPADS wurden Strukturmodifikationen vorgenommen mit dem Ziel, die Wirkstärke und die Selektivität zu erhöhen. Bei PPADS ist es durch Variation des Restes am Pyridoxalphosphat gelungen, sowohl P2X1- wie auch P2Y1-selektive Antagonisten zu entwickeln. Mit dem Ersatz des Phenylrestes durch einen Naphthylrestes beim PPNDS wurde die größte P2X1-versus P2Y1-Selektivität erreicht, wohingegen das Heterodimer SB9, bestehend aus Pyridoxalphosphat und einem Suraminmonomer, eine P2Y1-versus P2X1-Präferenz aufweist. Die einzelnen PPADS-Analoga unterscheiden sich hinsichtlich ihrer Kinetik und des antagonistischen Mechanismus. Bei einigen Substanzen wurde ein kompetitiver, bei anderen ein „pseudoirreversibler“ oder nichtkompetitiver Antagonismus beobachtet. Im Gegensatz zu den P2-Rezeptoren glattmuskulärer Organe zeigen alle untersuchten PPADS-Analoga an P2-Rezeptoren der Thrombozyten einen nichtkompetitiven Antagonismus. Weiterhin wurde beobachtet, dass die Strukturmodifikationen einen wesentlich geringeren Einfluss auf die Wirkstärke an P2-Rezeptoren der Thrombozyten haben als an den Rezeptoren glattmuskulärer Organe. Bei den Suraminanaloga ist es gelungen durch Strukturmodifikationen potente und selektive Antagonisten für humane P2X1-Rezeptoren zu entwickeln. Es zeigte sich, dass die tetravalenten Verbindungen NF449, NF110 und NF864 eine wesentlich höhere Affinität zum P2X1-Rezeptor humaner Thrombozyten aufweisen als ihre bivalenten Analoga. Die größte P2X1- versus P2Y1-Selektivität wurde bei NF110 erreicht, die größte Wirkstärke am P2X1-Rezeptor dagegen ist beim NF864 zu finden. Bei der Substanz NF864 handelt es sich um den derzeit potentesten P2X1-selektiven Antagonisten humaner Thrombozyten. Somit sollte sich NF864 zur Untersuchung der Beteiligung des P2X1-Rezeptors an der Hämostase als nützlich erweisen. Korrelationen der Ergebnisse des abmeATP-induzierten „shape change“ mit denen des abmeATP-induzierten Calciumeinstroms in Thrombozyten zeigten, dass beide Vorgänge allein durch den P2X1-Rezeptor vermittelt werden und wahrscheinlich über den gleichen Transduktionsweg ablaufen. Intrazellulärer Calciumanstieg und „shape change“, die durch ADP ausgelöst werden, sind ausschließlich P2Y1-vermittelt, verlaufen aber unter Umständen über unterschiedliche Transduktionswege. Vergleicht man die Ergebnisse, die an humanen Thrombozyten ermittelt wurden mit denen der isolierten Organe so ist weder bei der Wirkstärke noch beim antagonistischen Mechanismus eine völlige Übereinstimmung festzustellen. Auch der Vergleich der Ergebnisse, die an nativen P2X1-Rezeptoren ermittelt wurden, mit Daten an rekombinanten Rezeptoren ergaben weder bei den Thrombozyten, noch bei den isolierten Vasa deferentia der Ratte eine klare Korrelation. Struktur-Wirkungs-Beziehungen von P2X1-Antagonisten sind somit scheinbar nur innerhalb eines Modells möglich. Die Interpretation auf antagonistische Potenzen von Verbindungen zwischen nativen P2X1-Rezeptoren unterschiedlicher Spezies sowie zwischen nativen und rekombinanten P2X1-Rezeptoren einer Spezies müssen nach dem heutigen Stand der Wissenschaft mit Vorsicht betrachtet werden.
Johann Christian Ruhls Umrißradierungen zu Bürgers Ballade „Lenore“ (1773) stehen in der Tradition der klassizistischen linearen Illustrationskunst (Flaxman). Die 12 Blätter setzen die Schauerballade mit all ihrer Leidenschaft adäquat um. Diese Geschichte – sagt A. W. Schlegel über „Lenore“ – „welche die getäuschten Hoffnungen und die vergebliche Empörung eines menschlichen Herzens, die alle Schauer eines verzweiflungsvollen Todes in wenigen leichtfasslichen Zügen und lebendig vorüberfliehenden Bildern entfaltet, ist ohne conventionelles Beiwerk.“ Als Regieanweisung zur rechten Lektüre rät Bürger einem Freund: Wenn Sie die Ballade „vorlesen, so borgen Sie einen Todtenkopf von einem Mediciner, setzen solchen bei einer trüben Lampe, und dann lesen Sie“.
Erst ausgehend von ihrer Erfindung in der bildenden Kunst hielt die Landschaft Einzug in die Literatur; literarische Landschaftsdarstellungen im engeren Sinn finden sich gegenüber malerischen Landschaftsdarstellungen erst mit deutlicher Verzögerung, wenngleich sie auch literarische Vorläufer haben. Was man unter Landschaften in der Literatur alles verstehen sollte, mag umstritten sein. In jedem Fall liegt es nahe, literarische Landschafts-Texte mit bildkünstlerischen Darstellungen zu vergleichen.
Die vorliegende Arbeit beschäftigt sich mit der Bewältigung eines extremen Mangels an Rohstoffen in der Zeit von etwa 1800 v. Chr. bis 500 n. Chr., was nach herkömmlicher Periodisierung der Endsteinzeit und frühen Eisenzeit Nordost-Nigerias entspricht. Dieser Mangel bestand an Gesteinen zur Fertigung von verschiedenen Geräten. Im betrachteten Gebiet, dem Tschadbecken in Nordost-Nigeria, bedecken mächtige Beckenablagerungen anstehende Gesteine, sodass die Versorgung von außerhalb erfolgen musste. Was für die prähistorischen Siedler ein Nachteil war - vor allem in den prä-metallurgischen Abschnitten muss das Fehlen von Steinen ein ernstes Problem dargestellt haben - ist archäologisch ein Glücksfall mit selten klaren Ausgangsvoraussetzungen. Da jeder im archäologischen Kontext vorgefundene Stein von Menschen dorthin gebracht worden sein muss, ergeben sich neben der üblichen Betrachtung der Geräteformen vor allem Fragen nach Art und Herkunft des verwendeten Rohmaterials sowie nach deren eventueller Veränderung im Laufe der betrachteten Zeit. Von zentraler Bedeutung war dabei die Frage, ob und wie sich die in anderen Fundkategorien dokumentierten sozio-ökonomischen Umbrüche im ersten vorchristlichen Jahrtausend auch in der Versorgung mit lithischen Rohmaterialien widerspiegeln. Die Datengrundlage bilden rund 13000 Steinartefakte aus unterschiedlichen Fundkontexten (Ausgrabungen, Lesefunde, systematische Beprobungen). Sie stammen aus etwa 400 Fundstellen, die alle chronologischen Phasen abdecken und über den gesamten Betrachtungsraum verteilt sind. Durch diese breite Datengrundlage kann den Ergebnissen eine relativ hohe Repräsentanz zugerechnet werden. Sämtliche Artefakte wurden nach archäologischen und petrologischen Kriterien klassifiziert. Die auf diese Weise gebildeten Gesteinsgruppen wurden dann mit Proben potentieller Gesteinsquellen verglichen, um die Herkunft des im Fundkontext vorliegenden Materials zu erschließen. Die entsprechenden Gesteinsproben wurden bei geoarchäologischen Prospektionen in Nigeria, Kamerun und Tschad geborgen. Sämtliche potentielle Lagerstätten für die Versorgung des engeren archäologischen Betrachtungsgebietes in Nordost-Nigeria sind hierbei berücksichtigt. Das Geräte- wie Rohmaterialspektrum ist überschaubar. Ein Großteil (80%) besteht aus Mahlgeräten aus Granit und Sandstein, gefolgt von Beilklingen aus vulkanischen Gesteinen. Seltener vorkommende Geräteformen sind Pfeilspitzen oder Perlen, die meist aus Kieselgesteinen gefertigt sind, sowie Steinkugeln, Rillensteine oder Steinringe aus verschiedenen Gesteinsarten. Die Artefakte sind nur selten vollständig erhalten und zeigen in vielen Fällen Spuren von Überarbeitung und Mehrfachverwendung. Darin drückt sich besonders deutlich der Mangel und generell hohe Wert von Steinen aus. Von den klassifizierten Gesteinstypen wurde die Herkunft in drei Fällen genau lokalisiert. Andere Teile wurden zumindest regional eingegrenzt. Abbaustellen sind jedoch unbekannt. Beim chronologischen Vergleich der Rohmaterialspektren in den Inventaren der Fundstellen zeigten sich sodann markante Veränderungen, die in die Zeit sozio-ökonomischer Umbrüche in der Mitte des ersten vorchristlichen Jahrtausends fallen. Die Veränderungen betreffen eine völlige Umorganisation der Rohmaterialherkunft und –verteilung und sind Ausdruck einer verbesserten Versorgung und erweiterter oder sogar neuer Kontakte.
Im Rahmen des DFG-Forschungsprojektes Scha 237/12-1 (Betreuer Prof. Dr. Eike W. Schamp) in Kooperation mit der University of Jordan in Amman/Jordanien (Betreuer Prof. Dr. Nasim Barham) wird derzeit u.a. die Rolle deutscher Reiseveranstalter (RV) in der (globalen) Wertschöpfungskette (Global Commodity Chain, GCC) des Pauschaltourismus von Deutschland nach Jordanien untersucht. Das vorliegende Papier gibt vornehmlich einen ersten Zwischenstand im Rahmen der laufenden empirischen Erhebung unter klein- und mittelständischen RV in Deutschland wieder, welche Reisen nach Jordanien innerhalb ihres Programmportfolios konzipieren und an den Endkunden, den Tourist, verkaufen. Der Schwerpunkt des Papers liegt auf der Identifizierung von Mechanismen der Zusammenarbeit zwischen zwei verschiedenen Unternehmen einer touristischen GCC, der deutsche RV sowie die jordanische Zielgebietsagentur (ZA). Beide wirken als zentrale Akteure bei der Erstellung einer Pauschalreise, indem sie jeweils Leistungen von Fremdanbietern bündeln und somit als (verschieden mächtige) „Knoten“ im Prozess der Leistungserstellung wirken. Dieser Prozess findet über weite geographische Distanzen statt.
Hintergrund und Fragestellung: Im Zuge der Einführung eines generellen Neugeborenen-Hörscreenings sind durch ständige Verbesserung und Neuentwicklung von Screening-Geräten die technischen Voraussetzungen für das Screening zu schaffen und diese zu optimieren. Das Gerät muss eine hohe Sensitivität, Spezifität und eine gute Handhabbarkeit aufweisen sowie kostengünstig sein. Zudem wird eine Testauffälligenrate von unter 4 % im Primärscreening gefordert. Für ein effektives Screening muss das optimale Verfahren ausgewählt werden. Hier stehen reine OAE- und AABR-Verfahren kombinierte OAE/ABR-Verfahren zur Auswahl. Patienten und Methode: In zwei Geburtskliniken wurden an 360 Neugeborenen jeweils monaural zwei DPOAE-Messungen mit den Geräten ABaer® und Ero-Scan® sowie eine AABR-Messung mit dem ABaer® durchgeführt. Ergebnisse: Für das ABaer® lag die Testauffälligen-Rate in den DPOAE-Messungen bei 3,3 % mit einem einzigen Test, in den AABR-Messungen betrug sie 2,2 %. Das Ero-Scan® lag mit 13,6 % unter diesen Ergebnissen. Die Messzeiten betrugen beim ABaer® AABR 2:18 min, beim ABaer® DPOAE 1:38 min und beim Ero-Scan® 0:23 min. Für die Untersuchungszeiten ergaben sich Werte von 7 min für die AABR-Messung, 3:21 min für die DPOAE des ABaer® und 3 min für das Ero-Scan®. Die Sensitivität in dieser Studie betrug für das ABaer® für DPOAE und AABR 100 %. Die Studienspezifität für die AABR-Messung lag bei 92,5 %, für die DPOAE des ABaer® bei 94,5 % und für das Ero-Scan® bei 70,6 %. Die Verfahrensspezifitäten betrugen für die AABR-Messung 97,4 %, für die DPOAE-Messung des ABaer® und für das Ero-Scan® 83,8 %. Für ein beidohriges Screning ergaben sich Kosten für ein OAE/ABR-Kombi-nationsscreening mit dem ABaer® von 17,47 €, ein reines OAE-Screening berechnete sich mit 9,85 € und ein reines AABR-Screning mit 15,10 €. Aufgrund der Anzahl der notwendigen Wiederholungsmessungen ergaben sich für das Ero-Scan® Kosten von 11,28 €. Schlussfolgerung: Das ABaer® scheint sowohl für die AABR-Messung, als auch für die DPOAE-Messung für ein Screening geeignet. Es entspricht weitgehend den geforderten Qualitätskriterien. Das Ero-Scan® erwies zum durchgeführten Screening-Zeitpunkt erhebliche Mängel auf und erfüllte die Qualitätskriterien für ein Neugeborenen-Hörscreening nicht. Anwenderbedingte Gründe dafür können weitgehend ausgeschlossen werden.
In dieser Studie wurden stationsbezogene Messdaten der bodennahen Lufttemperatur, des Niederschlages und des Windes in Deutschland und zum Teil auch in Mitteleuropa für den Zeitraum 1901 bzw. 1951 bis 2000 im Hinblick auf Änderungen ihres Extremverhaltens untersucht. Hierfür wurde ein bimethodischer Ansatz gewählt. Die als Methode I bezeichnete "zeitlich gleitende Extremwertanalyse" definiert für den betrachteten (gleitenden) Zeitraum feste Schwellen. An die Zeitreihen der Schwellenüber- bzw. Unterschreitungen wurden sowohl empirische, als auch theoretische Häufigkeitsverteilungen angepasst, aus denen extremwert-theoretische Größen wie Wartezeitverteilung, Wiederkehrzeit und Risiko abgeleitet wurden. Die Methode II der "strukturorientierten Zeitreihenzerlegung" sucht, basierend auf einer zugrundegelegten theoretischen Verteilung, nach zeitabhängigen Parametern der zugehörigen Wahrscheinlichkeitsdichte. Hierdurch lassen sich zeitabhängige Wahrscheinlichkeiten für das Über- bzw. Unterschreiten von Schwellen angeben. Die gleitende Analyse zeigt bei Niederschlagsmonatsdaten in ganz Deutschland für untere Schranken einen Trend zu seltenerem Auftreten von Extremereignissen. Bei oberen Schranken ist hingegen im Osten einen Trend zu seltenerem, im Westen einen Trend zu häufigerem Auftreten von Extremereignissen zu erkennen. Im Osten ergibt sich also insgesamt ein Trend zu weniger extremen Monatsniederschlagssummen, im Westen ein Trend zu höheren onatsniederschlagssummen. Bei den Niederschlagstagesdaten, bei denen nur die Untersuchung oberer Schranken sinnvoll ist, sind die Ergebnistrends denen der Niederschlagsmonatsdaten in ihrer regionalen Verteilung ähnlich. Allerdings sind die Trends hier schrankenabhängig. Insbesondere in Norddeutschland ergibt sich dabei für relativ niedrige Schranken ein Trend zu kleineren Überschreitungshäufigkeiten, für hohe Schranken hingegen ein Trend zu größeren Überschreitungshäufigkeiten. Damit ergibt sich insgesamt ein Trend zu extremeren Tagesniederschlägen. Bei den Temperaturdaten zeigen die Ergebnisse der gleitenden Analyse der Monatsdaten mit wenigen Ausnahmen ein selteneres Unterschreiten unterer Schranken (also: Kälteereignis). Dieses Verhalten ist bei den Temperaturtagesdaten sogar flächendeckend zu beobachten. Für obere Schranken (also: Hitzeereignis) ergibt sich im allgemeinen ein Trend zu häufigerem Auftreten von Extremereignissen. Allerdings ist dieser Trend nicht flächendeckend zu beobachten. Vielmehr gibt es in allen Regionen Deutschlands einzelne Stationen, bei denen ein Trend zu seltenerem Überschreiten oberer Schranken festzustellen ist. Bei der "strukturorientierten Zeitreihenzerlegung" wurden folgende Ergebnisse erzielt: Die Wahrscheinlichkeitsdichten der monatlichen und saisonalen Temperatur-Daten weisen überwiegend positive Trends im Mittelwert auf, die Streuung hat sich hier nur in Ausnahmefällen verändert. Dies führte zu teilweise deutlich gestiegenen Wahrscheinlichkeiten für besonders warme Monats- und saisonale Mittel im 20. Jh. (Ausnahme: Herbst im Datensatz 1951 bis 2000). Entsprechend sanken in diesem Zeitraum verbreitet die Wahrscheinlichkeiten für extrem kalte Monats- und saisonale Mittel. Ebenso stiegen dieWahrscheinlichkeiten für Häufigkeiten von besonders warmen Tagen (über dem 10%-Perzentil) ab 1951 in allen Jahreszeiten, besonders im Winter für die Tagesmaximum-Temperaturen. Dies korrespondiert mit einer beschleunigten Häufigkeits-Abnahme von besonders kalten Tagen in allen Jahreszeiten, besonders in Süddeutschland. Beim Niederschlag dominieren ausgeprägt jahreszeitliche Unterschiede: Im Winter findet sich sowohl ein Trend zu höheren Monats- und saisonalen Summen, als auch eine erhöhte Variabilität, was verbreitet zu einer deutlichen Zunahme von extrem hohen Niederschlagssummen in dieser Jahreszeit führt. Im Sommer hingegen wurde ein Trend zu einer verringerten Variabilität gefunden, wodurch auch extrem hohe monatliche und saisonale Niederschlagssummen in weiten Teilen Mitteleuropas in dieser Jahreszeit seltener geworden sind. Entsprechend haben Tage mit hohen (über dem 10%-Perzentil) und auch extrem hohen (über dem 5%- und 2%-Perzentil) Niederschlagssummen im Sommer verbreitet abgenommen, in den anderen Jahreszeiten (vor allem im Winter und in Westdeutschland) jedoch zugenommen. Beim Wind sind die Ergebnisse recht uneinheitlich, so dass hier eine allgemeine Charakterisierung schwer fällt. Tendenziell nehmen die Häufigkeiten extremer täglicher Windmaxima im Winter zu und im Sommer ab. Dies gilt jedoch nicht für küstennahe Stationen, wo auch im Winter oft negative Trends extremer Tagesmaxima beobachtet wurden - In Süddeutschland hingegen finden sich auch im Sommer positive Trends in den Häufigkeiten extrem starker Tagesmaxima. Jedoch sind die untersuchten Daten (Windmaxima über Beaufort 8 und mittlere monatliche Windgeschwindigkeiten) wahrscheinlich mit großen Messfehlern behaftet und zudem für die hier durchgeführten Analysen nur bedingt geeignet. Es hat sich somit gezeigt, dass das Extremverhalten von Klimaelementen, wie Temperatur und Niederschlag, im 20. Jhr. sehr starken Änderungen unterworfen war. Diese Änderungen im Extremen wiederum sind sehr stark von Änderungen des "mittleren" Zustandes dieser Klimaelemente abhängig, welcher durch statistische Charakteristika wie Mittelwert und Standardabweichung (bzw. allgemeiner Lage und Streuung) beschrieben werden kann.
Vorwort zur 1. Auflage Klima ist vor allem deswegen nicht nur von wissenschaftlichem, sondern auch von öffentlichem Interesse, weil es veränderlich ist und weil solche Änderungen gravierende ökologische sowie sozioökonomische Folgen haben können. Im Detail weisen Klimaänderungen allerdings komplizierte zeitliche und räumliche Strukturen auf, deren Erfassung und Interpretation alles andere als einfach ist. Bei den zeitlichen Strukturen stehen mit Recht vor allem relativ langfristige Trends sowie Extremereignisse im Blickpunkt, erstere, weil sie den systematischen Klimawandel zum Ausdruck bringen und letztere wegen ihrer besonders brisanten Auswirkungen. Hier geht es um den erstgenannten Aspekt, zu dem nun noch die räumlichen Strukturen treten. Der relativ langfristige und somit systematische Klimawandel läuft nämlich regional sehr unterschiedlich ab, was am besten in Trendkarten zum Ausdruck kommt. Solche regionalen, zum Teil sehr kleinräumigen Besonderheiten sind insbesondere beim Niederschlag sehr ausgeprägt. Schließlich sind die räumlichen Trendstrukturen auch jahreszeitlich bzw. monatlich sehr unterschiedlich. In unserer Arbeitsgruppe hat sich Jörg Rapp im Rahmen seiner Diplom- und insbesondere Doktorarbeit intensiv mit diese Problem beschäftigt, was zur Publikation des „Atlas der Niederschlags- und Temperaturtrends in Deutschland 1891-1990“ (Rapp und Schönwiese, 2. Aufl. 1996) sowie des „Climate Trend Atlas of Europe – Based on Observations 1891-1990“ (Schönwiese und Rapp, 1997) geführt hat. Die große Beachtung, die insbesondere der Klimatrendatlas Deutschland gefunden hat, ließ es schon lange als notwendig erscheinen, eine Aktualisierung vorzunehmen. Dieser Aufgabe hat sich in Form eines Fortgeschrittenenpraktikums Herr Reinhard Janoschitz gewidmet und die Aktualisierung für die Zeit 1901-2000, einschließlich Subintervallen, vorgenommen. Zudem hat er für 1951-2000 noch das Klimaelement Sonnenscheindauer hinzugenommen. Zur Zeit ist er im Rahmen seiner Diplomarbeit mit einer Neubearbeitung des Europäischen Klimatrendatlas befasst. Mit der Publikation des hier vorliegenden „Klimatrend-Atlas Deutschland 1901-2000“ werden in insgesamt 178 Karten (davon 20 Karten auch in Farbdarstellung in den Text integriert) wieder umfangreiche Informationen zum Klimawandel in Deutschland vorgelegt, und zwar mit Hilfe einer linearen Trendanalyse hinsichtlich der boden-nahen Lufttemperatur, des Niederschlags und der Sonnenscheindauer für die Zeit 1901-2000 sowie für die Subintervalle 1931-1960, 1961-1990 und 1971-2000 – Sonnenscheindauer allerdings nur 1951-2000 und 1971-2000 –, jeweils aufgrund der jährlichen, jahreszeitlichen und monatlichen Beobachtungsdaten. Die Signifikanz der Trends ist im (schwarz/weiß wiedergegebenen) Kartenteil durch Rasterung markiert. Methodisch lehnt sich die Analyse somit eng an die oben zitierte Arbeit von Rapp und Schönwiese (1996) an, wo auch ausführliche textliche Erläuterungen zu finden sind (ebenso in Rapp, 2000); deswegen wurde hier der Textteil sehr knapp gehalten. Hingewiesen sei schließlich auf ebenfalls für Deutschland durchgeführte Analysen klimatologischer Extremereignisse, die ebenfalls in der Reihe unserer Instituts-mitteilungen publiziert sind (Jonas et al., 2005; Trömel, 2005). Frankfurt a.M., im Herbst 2005 Christian-D. Schönwiese Vorwort zur 2. Auflage Das erfreulich große Interesse hat eine 2. Auflage erforderlich gemacht, die neben kleineren redaktionellen Verbesserungen bzw. Aktualisierungen vor allem die Erweiterung der in Kap. 4 vorgestellten Zeitreihen und einen ergänzenden Tabellenanhang jeweils bis 2007 enthält. So erfüllt dieser Atlas hoffentlich auch weiterhin seinen Informations-zweck. Im übrigen ist der im Vorwort zur 1. Auflage erwähnte „Klima-Trendatlas Europa“ mittlerweile als Nr. 7 (2008) der Reihe unserer Institutsberichte erschienen. Frankfurt a.M., im Sommer 2008 Christian-D. Schönwiese
Die Blut-Hirn-Schranke (BHS) verhindert mit ihren engen Zell-Zellverbindungen, selektiven Transportern und einem effizienten Abwehrsystem das Eindringen vieler Stoffe in das Gehirn. Im Rahmen der vorliegenden Arbeit wurden Nanopartikel aus humanem Serumalbumin (HSA-NP) zum Arzneistofftransport in das Gehirn entwickelt. Als Ligand zur Überwindung der BHS wurde Apolipoprotein E (ApoE), ein Ligand des LDL-Rezeptors (LDL-R), der sich auf der Membranoberfläche von Hirnendothelzellen befindet, eingesetzt. Kurze ApoE wurde über Avidin/Biotin-Komplexe oder kovalent an die NP-Oberfläche gebunden. Bei der Avidin/Biotin-Methode wurde über einen heterobifunktionalen Crosslinker (Polyethylenglykol (PEG)-Spacer) die Avidinkomponente an die NP Oberfläche gebunden. Nach erfolgter Bindung der Avidinkomponente wurde die Funktionsfähigkeit des gebundenen NeutrAvidin® untersucht. Dabei wurde in der Suspension der NeutrAvidin®-modifizierten NP das Verhältnis von Biotinbindungsstellen zu Avidinkomponente bestimmt. Das ermittelte Verhältnis in der NeutrAvidin®-modifizierten NP?Suspension lag bei 2,6 : 1. Um ApoE an NeutrAvidin®-modifizierte NP zu binden, wurde das ApoE biotinyliert und anschließend an die NeutrAvidin®-NP gekoppelt. Dabei wurden ca. 3800 ApoE-Molekülen pro NP gebunden. Bei der kovalenten Bindung wurden verschiedene Apolipoproteine mittels PEG-Spacer direkt an HSA-NP gebunden. Hierbei wurden 19 µg ApoE/mg NP gebunden. In Untersuchungen am konfokalen Mikroskop (CLSM) zeigte sich eine moderate Anlagerung von ApoE-PEG-NP an LDL-R-exprimierende Hep G2- und ß.End3-Zellen, die auf eine Aufnahme der ApoE-PEG-NP über den LDL-R hindeuten könnte. Loperamid wurde als Modellwirkstoff in Tierversuchen verwendet. Loperamid bindet im Gehirn Opioidrezeptoren und wirkt analgetisch, überwindet jedoch nicht selbstständig die BHS. Der analgetische Effekt von Loperamid-beladenen ApoE-modifizierten NP (7 mg/kg bzw. 4 mg/kg Loperamid) wurde in Mäusen nach i.v.-Applikation mittels Tail-Flick-Test ermittelt. Loperamid-beladene ApoE-NP verursachten konzentrationsabhängig einen analgetischen Effekt bei den untersuchten Mäusen. Die Kontrollzubereitungen (Loperamid-beladene nicht-ApoE-modifizierte NP, Loperamid-Lösung, unbeladene ApoE-NP) zeigten keine analgetische Wirkung. Mit ApoE modifizierte NP die keine Bindung an den LDL-R zeigen, vermittelten keinen analgetischen Effekt im Tierversuch.
Das Ziel des Experiments war es, den Einfluss des Valenzelektrons im Kaliumatom auf die Kernabschirmung zu untersuchen. Es wurde mit Hilfe von Laserpulsen mit einer Dauer von 120 fs entfernt. Die Ionisation oder Anregung der K-Schale der Kaliumatome sowie der Kaliumionen wurde mit hochenergetischen Röntgenphotonen realisiert. Um die daraus entstandenen Auger-Elektronen ohne störenden Untergrund messen zu können, wurde ein 4π Flugzeitspektrometer nach dem Prinzip der magnetischen Flasche eingesetzt. Es wurde gezeigt, dass nach dem Entfernen des Valenzelektrons die Kernabschirmung des Kaliumatoms zunimmt, was eine Änderung der Energie der K-Schale zu Folge hat. Diese Änderung von 3 eV trat bei einem Vergleich der Ionisationskurven für Kaliumatome und Kaliumionen deutlich hervor. Die Höhe der Änderung lässt darauf schließen, dass sie im Zusammenhang mit der Ionisierungsenergie des entfernten 4s-Elektrons steht. Durch die Verwendung des Femtosekunden-Laserpulses in Verbindung mit den Röntgenstrahlen des Synchrotrons sollte der Auger-Prozess zeitaufgelöst dargestellt werden. Eine Messung des Verhältnisses der Elektronenraten in Abhängigkeit von der zeitlichen Verzögerung zwischen Laser- und Röntgenstrahlen ergab eine Länge des Röntgenpulses von 66 ps (± 5 ps), was für zeitaufgelöste Untersuchungen des in Femtosekunden ablaufenden Auger-Prozesses zu lang ist. Jedoch zeigt das Experiment, dass bei einer hinreichenden Verkürzung der Röntgenpulse zeitaufgelöste Untersuchungen im Bereich von Femtosekunden möglich sind. Für die Zukunft ist an der ALS eine weitere Beamline geplant, welche Röntgenpulse im fs-Bereich produzieren kann. Durch Verwenden dieser kurzen Röntgenpulse wären weitere Experimente zur zeitaufgelösten Darstellung des Auger-Prozesses denkbar. Bis zu diesem Zeitpunkt sollen weitere Experimente zur Untersuchung „langsamer“ dynamischer Vorgängen in Atomen und Molekülen, zum Beispiel die Dissoziation von Molekülen auf einer Pikosekunden Zeitskala, durchgeführt werden.
Wozu ein solcher Bibliotheksführer? Frankfurt am Main hat eine reiche und vielfältige Bibliothekslandschaft. Neben den großen und bekannten Bibliotheken gibt es zahlreiche Spezialbibliotheken. Sie sind häufig nur einem kleineren Nutzerkreis bekannt, obwohl sie oftmals Fragestellungen zu einer Fachrichtung eher beantworten als andere Bibliotheken und somit der Suchende sich dort schneller und besser informieren könnte. Um das Netz der Frankfurter Bibliotheken besser nutzbar zu machen, erscheint dieser Führer. Er soll kein Ersatz für bereits existierende Publikationen sein, die die Bibliotheken in ihrer Gesamtheit verzeichnen. Leitlinie bei der Erstellung war der Nutzen für den Leser. So wurden ausschließlich Bibliotheken aufgenommen, die öffentlich und uneingeschränkt zugänglich und regelmäßig geöffnet sind sowie über eine gewisse Bestandsgröße verfügen. Wie ist der Führer zu nutzen? Er besteht aus drei Teilen: • Der erste Teil beantwortet die Frage „Was finde ich wo?“. Häufig bieten mehrere Bibliotheken das Gesuchte. Über eine Suchnummer können in den nachfolgenden Teilen weitere Angaben zur jeweiligen Bibliothek nachgeschlagen werden. • Der zweite Teil gibt ausführlichere Informationen zu den größeren Bibliotheken. • Im dritten Teil folgen die Spezialbibliotheken mit Adresse, Telefonnummer und – soweit vorhanden – Homepage. Damit kann sich der Leser über Öffnungszeiten und Nutzungsmodalitäten informieren.
Das Hepatitis C Virus (HCV) ist Auslöser einer oftmals chronisch verlaufenden Leberentzündung mit einem erhöhten Risiko für die Entwicklung einer Leberzirrhose und deren Folgen. Die weltweite Prävalenz der Hepatitis C beträgt ca. 3%; allein in Deutschland treten jährlich mehr als 5000 Neuinfektionen auf. Das HCV lässt sich aufgrund phylogenetischer Untersuchungen in mindestens 6 Genotypen und jeweils mehrere Subtypen einteilen, wobei der HCV Subtyp 1b in Europa am häufigsten vorkommt. Die Hepatitis C Forschung wurde lange Zeit durch das Fehlen eines geeigneten Zellkulturmodells erschwert. Mit der Etablierung eines stabil replizierenden Zellkulturmodells in humanen Hepatomazellen 1999 durch Lohmann et al. wurden erstmals molekularbiologische Untersuchungen in grossem Umfang möglich. Die seither existierenden Zellkulturmodelle haben jedoch den Nachteil, dass nicht definiert ist, wie sich das Isolat, aus dem das Replikon geschaffen wurde, klinisch verhält. Unter einer Interferon-basierten Therapie sprechen manche Patienten mit einer dauerhaften Negativierung der HCV RNA Konzentration an (sustained responder, SR), während bei anderen sowohl während als auch nach Therapieende weiterhin HCV RNA im Blut nachweisbar ist (non-responder, NR), obwohl beide Patienten mit demselben Subtyp von HCV infiziert sind und dieselbe Therapie erhalten. Die Ursachen für dieses unterschiedliche Therapieansprechen sind basierend auf Mutationsstudien von HCV Isolaten von Patienten mit unterschiedlichem Therapieansprechen zumindest teilweise genomisch bedingt. Daher wurden in der vorliegenden Arbeit zwei Konsensusklone zur Einbringung in ein replikatives Zellkulturmodell aus HCV Subtyp 1b Isolaten geschaffen, deren klinisches Verhalten unter Therapie klar charakterisiert ist. Dazu wurde Serum von je einem Patienten herangezogen, der unter definierten Studienbedingungen als SR oder NR bekannt war. Aus den Sera wurde die Virus-RNA extrahiert und mit Hilfe eines eigens dafür entwickelten RT-PCR-Protokolls und anschließender Klonierung in E. coli vervielfältigt. Um zufällige Mutationen und seltene Quasispezies auszuschließen, wurde dann nach vollständiger Sequenzierung von jeweils vier Einzelklonen mittels gezielter Mutagenese und Umklonierung eine Konsensussequenz geschaffen, die einen Durchschnitt der am häufigsten vorkommenden Quasispezies darstellt. Diese Konsensusklone wurden in einen Vektor zur Herstellung von RNA Transkripten eingefügt, so dass die Transkripte direkt zur Einbringung als Replikons in Zellkulturen genutzt werden können. Mit diesen klinisch charakterisierten Isolaten kann nun erstmals nach Unterschieden geforscht werden, die ursächlich für Therapieerfolg oder –misserfolg sein könnten. So können eventuell neue Therapieformen gefunden oder bereits vor Beginn einer Therapie eine Aussage zur Prognose getroffen werden.
Diese Studie untersuchte die relevanten Eigenschaften von Location-based Services, welche von prospektiven Nutzern erwartet werden, um mit der Nutzung dieser neuen Dienste zu beginnen. Dabei modellieren wir die Einflußfaktoren nach der Theorie der Diffusion von Innovationen und überprüfen diese durch eine empirische Befragung. Die Ergebnisse sind im folgenden Text dargestellt. Die wesentlichen Ergebnisse waren: • Die individuelle Nützlichkeit eines Angebots ist der stärkste Einflußfaktor auf die Adoption. • Überzeugende Datenschutzkonzepte stehen an zweiter Stelle. • Benutzerergonomie bei der Dienstenutzung sowie die leichte Verständlichkeit und Kommunizierbarkeit der Dienste und ihrer Anwendung sind wesentlich. Eine Einführung in die Diffusionstheorie und weitere Details zur Studie finden Sie im Text.
Der "Schwangerschaftstumor", auch als Granuloma gravidarum bezeichnet, ist nicht neoplastischer, eher hyperplastischer Natur. Aufgrund seines schnellen Wachstums wird er häufig als malignes Geschehen mißgedeutet. Der Schwangerschaftstumor ist ein entzündliches Geschehen, welches durch lokale Reizfaktoren ausgelöst wird. Das Besondere hier ist, daß aufgrund der veränderten Hormonlage während der Schwangerschaft die Bereitschaft der Gingiva erhöht wird, auf die genannten Faktoren zu reagieren. Mit dieser Hyperplasie vergesellschaftet ist häufig eine Gingivitis in der Schwangerschaft. Aus dieser Erkenntnis leitet sich auch die Therapie des Schwangerschftstumors ab, welche primär darin besteht, die Reizfaktoren zu eliminieren und für eine gute Mundhygiene zu sorgen. Erreicht wird dies durch Zahnreinigungsmaßnahmen und Mundhygieneinstruktionen zur Optimierung der häuslichen Zahnpflege. Persistiert der "Tumor", kann auch chirurgisch interveniert werden. In einer eigenen Erhebung konnten 2 Verdachtsfälle eines Schwangerschaftstumors der Gingiva festgestellt werden.
Die Dissertation geht der Frage: Was ist Bildung? aus kulturtheoretischer Perspektive nach und diskutiert kritisch die vorherrschenden universalistischen Annahmen. Ausgangspunkt dieser auch empirisch angelegten Untersuchung waren zunächst unsystematische Beobachtungen über die Bedeutung von Bildung in Indien. Ein erster Fokus ist auf die Frage gerichtet, welche Sinnzuschreibungen mit dem Begriff Bildung korrespondieren und wie das konstitutiv reflexive Verhältnis von Sinn und Kontext bzw. Kultur zu fassen ist. Theoretisch wird von einem sinntheoretischen Modell ausgegangen - vor allem in den systemtheoretischen Neufassungen von Niklas Luhmann. Auch die Ausführungen über kompatible Kulturkonzepte orientieren sich an dem systemtheoretischen Paradigma. Das von Luhmann entwickelte Konzept der Semantik wird als Erklärungsansatz aufgenommen und im Anschluss daran die Frage spezifiziert, welche Verknüpfungen und funktionalen Zusammenhänge zwischen der mit dem Begriff education verbundenen „gepflegten Semantik“ und dem mit ihr strukturell gekoppelten Sozialsystem identifiziert und rekonstruiert werden können. Indien bietet sich wegen der traditionell exponierten gesellschaftlichen Rolle von Bildung für eine Analyse des engen Zusammenhangs von Semantik und Sozialstruktur in besonderer Weise an. Erinnert sei hier nur an die historisch signifikante Bedeutung der Brahmanenkaste. Die semantischen Konstrukte über Bildung, die sich in einem urbanen, indischen Mittelschichtkontext zeigen, so ein Ergebnis, weisen auf ein zunehmendes Misstrauen gegenüber den etablierten und traditionellen Erziehungs- und Sozialisationsformen hin, mit Folgen für die Selbst- und Fremdkonstruktion sowie auch für generelle Biographisierungsprozesse. In die Semantik sind Formen eingelagert, die die sozialen Inklusions- und Exklusionsprozesse entscheidend beeinflussen. Die Dignität dieser Semantik wird in Anlehnung an Jürgen Schriewer et. al. und allgemein an das Konzept der Externalisierung als ‚indischer Weg’ der Entwicklung interpretiert. Das Misstrauen gegenüber den traditionellen Erziehungs- und Bildungsmustern lässt sich strukturell abstrakter als Transformationsprozess von der Sanskritization zu einer Educationization beschreiben. Unter Sanskritization wird dabei in Anlehnung an Srinivas eine traditionelle Mobilitätsform von Gruppen im hierarchischen Kastensystem verstanden. Die Educationization impliziert ähnlich wie Sanskitization eine starke Differenzformel mit Orientierungswert unter anderem für soziale wie personale Beobachtungen, Wahrnehmungen und Beurteilungen. Sie ist jedoch ein Instrument, das besser an die Anforderungen einer modernen Gesellschaft angepasst zu sein scheint und gegenüber traditionelleren Formen wie Sanskritization neue und angemessenere Anschlussmöglichkeiten bietet. Die damit verbundenen Veränderungen der indischen Gesellschaft, die von den einen als Modernisierung gefeiert und von anderen als Erosion der bestehenden Kultur scharf kritisiert werden, hinterlassen aber Spuren, die in unterschiedliche Richtungen weisen.
Die Präsenz in den Hauptversammlungen der großen deutschen Aktiengesellschaften ist seit Jahren rückläufig. Die durchschnittliche Hauptversammlungspräsenz bei den 30 DAXnotierten Unternehmen lag 2005 nur noch bei 45,87 %, gegenüber immerhin 60,95 % im Jahr 1998. Im Zusammenhang mit den Initiativen institutioneller Anleger bei der Deutschen Börse AG im Sommer diesen Jahres hat die Besorgnis zugenommen, Minderheiten könnten die Abwesenheit von mehr als der Hälfte der Stimmberechtigten dazu nutzen, in den Hauptversammlungen verstärkt Einfluss auf weitreichende Unternehmensentscheidungen auszuüben, um Sondervorteile zu erzielen. Unabhängig davon ist jedenfalls zu berücksichtigen, dass bei geringer Hauptversammlungspräsenz unter Umständen eine kleine Kapitalminderheit Entscheidungen trifft, bei denen sie nicht von denjenigen, die diese Entscheidungen gleichfalls betrifft, kontrolliert und, falls erforderlich, korrigiert wird. Um dem Problem sinkender Hauptversammlungspräsenzen zu begegnen, werden auf nationaler wie internationaler Ebene verschiedene Maßnahmen erwogen. Im Zusammenhang mit der Vereinfachung der Vertretung der Aktionäre in der Hauptversammlung wird vorgeschlagen, über den in § 134 III S. 3 AktG bereits vorgesehenen Stimmrechtsvertreter der Gesellschaft (sog. Proxy-Stimmrecht) hinaus einen von der Gesellschaft unabhängigen Stimmrechtsvertreter gesetzlich vorzusehen. Im Übrigen gehen die Empfehlungen von der verstärkten Nutzung neuer technischer Kommunikationsmittel bei der Stimmabgabe (Stichwort „virtuelle Hauptversammlung“) bis zur verstärkten Einführung von Namensaktien, um die Kommunikation mit den Aktionären zu erleichtern. Als Antwort auf den zunehmenden Einfluss internationaler Investoren, die derzeit aus Zeit- und Kostengründen, wegen sprachlicher Probleme, zu knapp bemessener Einladungsfristen oder Störungen des Informationsflusses zwischen ihnen und der Gesellschaft regelmäßig nicht an den Hauptversammlungen europäischer Aktiengesellschaften teilnehmen, arbeitet die Europäische Kommission zudem an einem Richtlinienentwurf, der die grenzüberschreitende Stimmrechtsausübung fördern soll. Im Zusammenhang hiermit sind auch auf die Bemühungen der Europäischen Kommission zu sehen, mittelfristig eine verstärkte Offenlegung der Anlage- und Abstimmungsstrategien institutioneller Investoren zu erreichen. Hierdurch soll eine intensivere Mitwirkung dieser Aktionärsgruppe in den Angelegenheiten der Gesellschaft gewährleistet werden. Die verstärkte Teilnahme bzw. die Offenlegung des Abstimmungsverhaltens von Investmentfonds, Versicherungen und Pensionskassen ist auch Inhalt von Empfehlungen nationaler sowie internationaler Organisationen. Bereits in der letzten Legislaturperiode hat die Arbeitsgruppe Finanzmarktgesetzgebung des Justiz- und Finanzministeriums den Vorschlag eines sog. Dividendenbonus für diejenigen Aktionäre erwogen, die ihr Stimmrecht in der Hauptversammlung ausüben. Im Anschluss daran entwickelte sich eine lebhafte Diskussion, in der sich sowohl Stimmen in der Literatur als auch Interessenverbände für die Einführung eines finanziellen Anreizsystems für Aktionäre in Form eines Dividendenbonus aussprachen. Vorbildfunktion für eine entsprechende Regelung in Deutschland wird dabei der spanischen Hauptversammlungspraxis zugesprochen. Dort geben die meisten großen Unternehmen des spanischen Standardwerteindex Ibex 35 einen finanziellen Anreiz für die Hauptversammlungspräsenz. Die Zahlungen liegen zwischen zwei und zehn Cent pro Aktie. Hierdurch konnte das Interesse am Besuch der Hauptversammlung generell gesteigert werden. Der Energiekonzern Endesa schaffte es mit einem Bonus von zwei Cent, die Präsenz von 37 % auf 66 % nahezu zu verdoppeln. Diese Erfolge in Spanien sind darauf zurückzuführen, dass die dortigen Depotbanken durch die Auszahlung der sog. prima de asistencia dazu veranlasst wurden, sich im Dienste einer bestmöglichen Wahrnehmung der Interessen ihrer Kunden auch ohne ausdrückliche Aufforderung um eine entsprechende Stimmrechtsvollmacht zu bemühen. Im Folgenden wird versucht darzulegen, wie die Regelung eines finanziellen Anreizes zur Stärkung der Hauptversammlungspräsenzen sinnvoll gestaltet werden könnte und welche gesetzgeberischen Schritte notwendig sind, um die Zahlung eines Bonus für die Präsenz in der Hauptversammlung zu ermöglichen.
Die Auswertung der Stratigraphien und Keramikinventare des Final Stone Age aus dem südwestlichen Tschadbecken führte zu einer zeitlichen Gliederung der Inventare. Durch die vorgestellten Analysen zu Merkmalen der Keramikform, -technik und -verzierung wurden zwei Stilgruppen - der ältere und der jüngere Gajigannastil - definiert und beschrieben. Für die jüngere Gajiganna Stilphase war eine weitere Unterteilung in drei Stufen möglich, die die keramische Entwicklung zwischen 1.500 BC bis ca. 800 BC gliedern. Das gelang bisher noch nicht mit Keramik der älteren Stilphase. Die Analyse der Grabungsprofile brachte Hinweise zu Speichergruben, ermöglicht Spekulationen über Lehmbauten in Fundplätzen der jüngeren Gajigannaphase und läßt Rückschlüsse auf eine stärkere Geländeprofilierung als die heute anzutreffende zu. Die Einordnung der begangenen Plätze in die Stilgruppen zeigte keine wesentlichen Unterschiede bei der Wahl der Siedlungsplätze. Die Randlage zu den vermutlich nicht nur saisonal gefluteten Tonebenen ist für beide bezeichnend. Die Siedlungsplätze boten in dieser Lage einige Vorteile. Die Sandgebiete dienten als Weiden für Rinder. Fischfang konnte an den Ufern der überschwemmten Gebiete betrieben werden, die ebenfalls ein reiches Reservoir an Wildpflanzen boten, die das Nahrungsangebot ergänzten. Ein Vergleich der Inventare mit anderen westafrikanischen Fundplätzen zeigt, daß die ältere Keramikphase der Gajiganna-Gruppe in einen überregionalen Verzierungstil eingebettet ist, der durch Winkelbänder und dreieckige Einstiche charakterisiert wird und sich über ein weites Gebiet zwischen Sudan im Osten und Niger im Westen spannt. Die hier vorgestellte Keramik der Phase I ist der südlichste Vertreter dieses Verzierungshorizontes. Die jüngere Stilphase konnte bisher nur kleinräumig nachgewiesen werden. Ihr Verbreitungsgebiet scheint auf das Tschadbecken beschränkt zu sein. Das mag entweder im gegenwärtigen Forschungsstand oder in einer um die Mitte des zweiten Jahrtausends beginnenden Regionalisierung der Keramikstile begründet sein. Die einzelnen Ergebnisse flossen in eine modellhafte Abhandlung zur Besiedlungsgeschichte des südwestlichen Tschadbeckens ein. Diese wäre unvollständig gewesen ohne die Ergebnisse der Archäobotanik und der Archäozoologie. Der Nachweis von domestizierter Hirse in den Fundplätzen der jüngeren Gajiganna-Gruppe ab der Stufe 2b ist ein wichtiges Ergebnis, das dazu beiträgt, die Veränderungen zu erfassen, die sich hinter dem Stilwechsel in den Keramikinventaren verbergen. Es scheint so, als hätte sich eine Verschiebung in der Gewichtung von Viehzucht zu Ackerbau vollzogen. Eine Veränderung des Siedlungsverhaltens mit engerer Bindung an die genutzte Fläche könnte eher die Vorbedingung als die Folge gewesen sein. Größere Platzkontinuität ist bereits in Phase 2a zu vermuten, sichtbar gemacht durch die hier erstmalig auftretenden komplexen Stratigraphien und wahrscheinlich begründet durch die verstärkte Nutzung von Wildgetreide. In Phase 2b wird domestiziertes Pennisetum bei einer weitgehend seßhaften Bevölkerung eingeführt. Kein radikaler Wechsel ist in den Strategien der Subsistenzwirtschaft zu beobachten. Stattdessen führt ein allmählicher Prozeß über einige hundert Jahre vom Viehzüchter zum Ackerbauern. Die Beziehungen zwischen den Fundstellen nördlich der Mandaraberge und denen im Gebiet um Zilum einerseits und den hier vorgestellten Fundstellen andererseits deuten auf eine regional in randliche Siedlungsgebiete verschobene Weiterentwicklung bis in die Eisenzeit, während die ehemaligen Kerngebiete wahrscheinlich von anderen Siedlern aus den Firki-Ebenen heraus besiedelt wurden. Offen bleiben müssen Fragen zu Hausbau, Siedlungsstruktur und Größe der Nutzflächen, die jeweils zu einer Siedlung gehörten. Auch fehlen noch hinreichende Daten, um die Beziehungen der Siedlungen untereinander zu erfassen und eventuell vorhandene Netzwerkstrukturen auszuarbeiten. Hier ergeben sich weitere Forschungsfelder, die zu neuen Erkenntnissen zur Stellung des Gajigannakomplexes im Kontext der westafrikanischen Prähistorie führen werden.
Die Inhibition des Natrium-Protonen-Austauschproteins, Subtyp-1 (NHE-1), stellt möglicherweise ein wichtiges Prinzip zur Behandlung der Herzhypertrophie und damit der frühen Herzinsuffizienz dar. Als Ausgangspunkt dieser Arbeit konnte gezeigt werden, dass der oral bioverfügbare und selektive NHE-1-Inhibitor Cariporide dabei u.a. in einem transgenen Tiermodell wirkt, bei dem die Hypertrophie nicht durch Myokardinfarkt, sondern mittels transgener Überexpression des beta-1-adrenergen Rezeptors erzeugt wurde, die Hypertrophie-Entwicklung verhinderte. Um die Wirkung und vor allem den Wirkmechanismus von NHE-1-Inhibitoren näher zu untersuchen, wurde in der vorliegenden Arbeit ein zelluläres Modell der alpha-1-adrenergen Hypertrophie-Induktion in adulten Kardiomyozyten aus Rattenherzen aufgebaut und mittels gängiger Parameter wie Zellvolumen, Protein und RNA-Neusynthese validiert. Dabei konnte ein klassenspezifischer Hemmeffekt aller eingesetzten NHE-1-Inhibitoren auf die untersuchten Hypertrophie-Parameter gezeigt werden. Interessante molekulare Mechanismen der Hypertrophie-Inhibition durch spezifische NHE-1- Inhibitoren konnten in der vorliegenden Arbeit aufgedeckt werden. Nach alpha-1-adrenerger Stimulation und gleichzeitiger NHE-1-Inhibition waren nur wenige Gene in ihrer Expression deutlich differentiell reguliert, darunter der Angiotensin-II AT-1 Rezeptor und die sogenannte Rho-kinase (ROCK). Aus dieser Erkenntnis heraus ergeben sich neue mögliche Ansatzpunkte zum Wirkmechanismus von NHE-1-Inhibitoren. Im Gegensatz zu Befunden bei Herzischämie scheint es bei der Herzhypertrophie im vorliegenden Modell keine Kopplung zwischen dem NHE-1 und einem weiteren Austauschprotein, dem Natrium-Calcium-Austauscher, zu geben. Die Hypertrophie der adulten Kardiomyozyten ließ sich nicht durch einen selektiven Hemmstoff dieses Austauschers, SEA0400, hemmen. Bei näherer Untersuchung auf Translationsebene zeigten sich überraschende Ergebnisse, die für eine Hemmung der Hypertrophie-Entwicklung in Anwesenheit eines NHE-1-Inhibitors verantwortlich gemacht werden könnten. So war auf der einen Seite die Translokation von in adulten Kardiomyozyten exprimierten PKC-Subtypen (delta und eta) vom Zytosol an die Plasmamembran durch die NHE-1-Inhibition signifikant beeinflusst. Auf der anderen Seite war die Phosphorylierung bestimmter NHE-1-aktivierender Kinasen über den gesamten betrachteten Zeitraum verstärkt vorhanden. Diese Ergebnisse legen nahe, dass neben möglichen Autoregulationseffekten in der Zelle, ausgelöst durch eine NHE-1-Inhibition, eine weitere Wirkkomponente eine Rolle bei der Beeinflussung intrazelluläre membranabhängiger Translokation spielen könnten.
Die vorliegende Arbeit befasste sich mit der Entwicklung und der Aufbau einer neuartigen Fingerdriftröhren-Struktur als Teil des neuen Vorbeschleunigers COSY-SCL am Kernforschungszentrum in Jülich. In dieser Arbeit wird die Entwicklung der Spiralresonatoren beschrieben, die als Nachbeschleuniger direkt hinter den RFQs zum Einsatz kommen sollen. Als mögliche Option zur Verbesserung der Strahlqualität wurden Fingerdriftröhren vorgeschlagen. Mit Hilfe dieser Struktur ist es möglich, mit geringer zusätzlicher Leistung eine Fokussierung des Ionenstrahls in der beschleunigenden Struktur zu erreichen. Dies war bisher nur bei niedrigen Energien mit der RFQ-Struktur möglich. Bei höheren Energien ist man stets auf magnetische Quadrupollinsen angewiesen. Dies führt jedoch gerade in einem Geschwindigkeitsbereich bis ca. 10 % der Lichtgeschwindigkeit zu Problemen, da die zur Verfügung stehenden Abmessungen zu gering sind. Nachdem zunächst das COSY-SCL Projekt vorgestellt wurde und die grundlegende Theorie für RFQ und Driftröhrenbeschleuniger behandelt wurde, wurden in Kapitel 5 Rechnungen zur Strahldynamik mit dem Programm RFQSIM vorgestellt. Aufgrund der hohen benötigten Gesamtspannung fiel die Entscheidung, einen Vierspaltresonator mit einer geerdeten Mitteldriftröhre aufzubauen. Durch diese Veränderung wurde es möglich, die Feldstärken in den einzelnen Spalten gleichmäßiger zu verteilen und niedriger zu halten, und die benötigte Verlustleistung zu minimieren. Die Teilchendynamik in einem Beschleunigungsspalt mit Fingerelektroden wurde mit einem neuen Transportmodul in RFQSIM untersucht, das den Transport geladener Teilchen durch beliebige dreidimensionale Elektrodenkonfiguration ermöglicht. Mit Hilfe der Fingerdriftröhren ist es möglich, die transversale Ausdehnung des Strahls am Ausgang des Nachbeschleunigers zu verringern und die Anpassung an einen folgenden Beschleuniger zu vereinfachen, ohne das große Einbußen bezüglich der Effektivität der Beschleunigung in Kauf genommen werden müssen. Um die HF Eigenschaften der beiden Beschleunigerstrukturen zu vergleichen, wurden sie mit dem MWS Programm numerisch berechnet. Um genauere Aussagen über die Eigenschaften des elektrischen Feldes zu machen, wurde eine Multipolanalyse der Felder durchgeführt. Damit lässt sich eine Aussage über die Stärke der Fokussierung und mögliche Feldfehler machen. Dabei zeigte sich, dass die auftretenden Feldfehler vernachlässigbar klein sind und sogar störende Effekte unterdrückt werden. Abschließend wurde der Aufbau des Resonators und den daran durchgeführten Messungen auf Meßsenderniveau behandelt. Resultat dieser Untersuchungen ist eine Struktur, die sehr gut und effektiv als Nachbeschleuniger hinter dem RFQ für COSY-SCL eingesetzt werden kann. Durch den Einsatz der Fingerdriftröhren kann mit einer einzelnen Struktur sowohl die Aufgabe der Beschleunigung als auch der Fokussierung bei mittleren Teilchenenergien bewältigt werden. Der neue fokussierende Spiralresonator entspricht in seinen Eigenschaften einer RFQ-Struktur für höhere Teilchengeschwindigkeiten. Die Ergebnisse dieser Arbeit zeigen, wie attraktiv eine solche Lösung mit Fingerdriftröhren ist. Deshalb ist geplant, in einem nächsten Schritt Strahltests durchzuführen, da die beschriebene Driftröhrenstruktur mit ihren Eigenschaften sehr gut für die Beschleunigung von Ionen in dem Geschwindigkeitsbereich zwischen RFQ- und IH Struktur geeignet ist und ein Einsatz z.B. in dem FLAIR Projekt möglich wäre.
In der vorliegenden Arbeit wird das Auslesekonzept der Driftkammern untersucht und seine Integration in das HADES Datenaufnahmesystem beschrieben. Bedingt durch das mehrstufige Triggersystem und die hohen Anforderungen an die Geschwindigkeit des Systems wurden Methoden zur Datenreduktion entwickelt. Dadurch ist es möglich, die Daten von allen 27 000 Kanälen innerhalb von 10 µs nach dem Trigger auszulesen. Die Daten werden innerhalb von ungefähr 40 ns nach dem Signal der zweiten Triggerstufe weitertransportiert. Im Rahmen der Untersuchungen zur Überwachung der Driftkammerdaten, die im zweiten Teil der Arbeit beschrieben werden, wurde mit der verwendeten Methode zur Bestimmung der intrinsischen Auflösung eine deutliche Verschlechterung Auflösung der Kammern festgestellt, von 120 µm im November 2001 auf über 200 µm im September 2003. Als Ursache hierfür wurde zum einen die geänderte Kalibrationsmethode ausgemacht, die die Laufzeiten der Signale nicht mehr berücksichtigt, zum anderen eine Änderung der Driftgeschwindigkeit aufgrund einer nicht optimalen Hochspannung. Die Methode zur Bestimmung des physikalischen Zentrums der Kammern erlaubt eine Aussage über die Position der Kammern relativ zur Sollposition. Die dabei gefundenen Verschiebungen entlang der z - Achse stimmen für einen Teil der Sektoren mit den im Rahmen des Alignments ermittelten Werten für die Verschiebung des Targets überein. Für die anderen Sektoren ergeben sich zusätzlicher Verschiebungen um 2 bis 6 cm. Das Di - Leptonen - Spektrometer HADES (High Acceptance Di -Elektron-Spektrometer) am Schwerionensynchrotron der Gesellschaft für Schwerionenforschung (Darmstadt) beginnt nun mit detaillierten Studien leptonischer Zerfälle von Vektormesonen in Kern - Kern - Stößen mit Projektilenergien von 1 bis 2 GeV / Nukleon. Dabei liegt der Schwerpunkt auf der Untersuchung von Zerfällen, die in der Phase hoher Dichte (ungefähr 3 · p..0) und hoher Temperatur stattfinden. Es wird erwartet, daß sich aus der dabei zu beobachtenden Massenverteilung der unterhalb der Schwelle produzierten leichten Vektormesonen r, o und ph ein Hinweis auf die partielle Wiederherstellung der im Vakuum gebrochenen chiralen Symmetrie ergibt.
Band 1 beinhaltet die alphabetische Gliederung und Band 2 die Gliederung nach der ehemaligen Aufstellung des Kataloges der Bibliothek der deutschen Kolonialgesellschaft. Diese Bibliothek bildet heute die größte und wichtigste geschlossene Gruppe der Sammlung ist die Deutsche Kolonialbibliothek. Sie war im 2. Weltkrieg in einem Thüringer Bergwerk ausgelagert, und wurde nach dem Krieg mit nur relativ wenig Verlusten dem Haus übergeben. Das unschätzbare Grundmaterial der Kolonialbibliothek gab 1964 der Deutschen Forschungsgemeinschaft Anlaß, die Sondersammelgebiete "Afrika südlich der Sahara", "Ozeanien" und teilweise auch die "Allgemeine und vergleichende Völkerkunde" auf die Bibliothek zu übertragen. Dadurch wurde die zeitgerechte Basis zur ständigen Ausweitung der Bestände geschaffen. In der 2. Hälfte des 19. Jahrhunderts entstanden zahlreiche Vereine, die sich um die Betreuung deutscher Auswanderer sowie die Verbreitung kolonialer Ideen bemühten. 1887 verschmolzen die beiden wichtigsten konkurrierenden Vereinigungen, der Deutsche Kolonialverein und die Gesellschaft für Deutsche Kolonisation zur "Deutschen Kolonialgesellschaft" (DKG). Die Mitgliederzahl stieg von 14.800 am Anfang auf 42.600 im Jahre 1914. In den dreißiger Jahren schließlich wurden alle Institutionen der deutschen Kolonialbewegung unter dem Namen Reichskolonialbund zusammengefaßt. 1943 wurde der RKB wegen kriegsunwichtiger Tätigkeit aufgelöst. Die Deutsche Kolonialbibliotbek besteht aus den Bibliotheken mehrerer Kolonialverbände; den größten Bestand brachte die Bibliothek der Deutschen Kolonialgesellschaft ein. Die Kolonialbibliothek enthält etwa 18.000 Monographien zum Kolonialwesen sowie zahlreiche Zeitschriften, die in den allgemeinen Zeitschriftenbestand der StuUB überführt wurden. Der Originalkatalog der Bibliothek existiert noch in seiner alten Form; eine Konkordanz zwischen den Originalsignaturen und den Signaturen der Stadt- und Universitätsbibliothek ist vorhanden. Inhaltlich gliedert sich die Kolonialbibliothek in zwei Bereiche: Literatur zum allgemeinen Kolonialwesen (einschließlich Wirtschaft, Bergbau und Mission) und zu einzelnen Regionen (davon befassen sich ca. 40 Prozent mit Asien, der Südsee und Amerika und ca. 60 Prozent mit Afrika, davon wiederum etwa die Hälfte mit "Deutsch-Afrika"). Es handelt sich bei dem Material um amtliches Schrifttum der europäischen Kolonialmächte sowie um Amtsdrucksachen der Kolonien selbst. Zum anderen enthält die Bibliothek eine Literatursammlung zu allen Fachbereichen, bezogen auf das jeweilige kolonisierte Land: von der Geographie und Wirtschaft bis zur Völkerkunde, einschließlich Vokabelsammlungen und Texten in einheimischen Sprachen, sowie Trivialliteratur, sogenannte Kolonialromane. Die deutsche Kolonialzeit sowie die deutschen Kolonien sind hier in einer Vollständigkeit vertreten wie wohl kaum in einer anderen Bibliothek. Die anderen Kolonialmächte dürften nur jeweils im eigenen Land besser dokumentiert sein. Das Bildarchiv, das zusammen mit. der Bibliothek übergeben wurde, ist digitalisiert und über das Internet ansehbar. Da in der Bibliothek das Portugiesische Kolonialreich praktisch nicht berücksichtigt war, wurde 1973 eine ca. 4200 Titel zählende Sammlung zur portugiesischen Kolonisation in Afrika erworben. Das Bildarchiv ist im Internet verfügbar unter http://www.ub.bildarchiv-dkg.uni-frankfurt.de .
Aufgebautes Zwei-Farben Lasersystem: Das für diese Arbeit aufgebaute Zwei-Farben Lasersystem erfüllt im Hinblick auf Abstimmbarkeit wie auch auf die erreichbare Ausgangsleistung die für diese Arbeit gesetzten Ziele. Für weiterführende Experimente muss allerdings berücksichtigt werden, dass für eine Steigerung der Ausgangsleistung, wie auch eine weiterführende Stabilisierung weitere Untersuchungen nötig sind, bei denen aber das jetzige System als Grundlage dienen kann und die mit ihm gewonnenen Erkenntnisse berücksichtigt werden müssen. Auch die verwendete Nahfeld-Beleuchtung erfüllt vor allem mit der automatischen Steuerung verknüpft wertvolle Dienst bei der Charakterisierung der untersuchen LT-GaAs Photomischer. Dieses System ist allerdings nicht geeignet, als direkter Entwurf für das endgültige System des SOFIA- oder ALMA-Projektes anzusehen, was auch nie seine Aufgabe war. Numerische Simulation: Die in dieser Arbeit vorgestellte numerische Simulation des DC-Stromverhaltens stellt einen guten Ansatz dar, die Effekte, die durch eine inhomogene Beleuchtung der Photomischer bedingt durch die verwendete Glasfaser entstehen, quantitativ und qualitativ zu erfassen und sie mit realen Photomischern und den durchgeführten Messungen in Verbindung zu bringen. Durchgeführte Nahfeld-Messungen: Die in dieser Arbeit vorgestellten automatischen Nahfeld-Messungen über einen 1D- und 2D-Bereich ermöglichen mit Hilfe des aufgebauten Lasersystems die in dieser Arbeit untersuchten LT-GaAs Photomischer in ihrem Verhalten zu untersuchen, wie es auch möglich ist, ein vollständiges Kennlinien-Feld aufzunehmen.