Refine
Year of publication
- 2004 (1224) (remove)
Document Type
- Article (491)
- Doctoral Thesis (235)
- Review (107)
- Part of Periodical (97)
- Part of a Book (85)
- Working Paper (43)
- Book (41)
- Report (33)
- Conference Proceeding (21)
- diplomthesis (21)
Language
- German (1224) (remove)
Keywords
- Johann Wolfgang von Goethe (36)
- Frankfurt <Main> / Universität (29)
- Rezension (24)
- Anton Ulrich <Braunschweig-Wolfenbüttel (19)
- Herzog> / Octavia (19)
- Deutschland (18)
- Deutsch (15)
- Goethe, Johann Wolfgang von (15)
- Literatur (14)
- Vormärz (14)
Institute
- Medizin (124)
- Extern (60)
- Biochemie und Chemie (46)
- Rechtswissenschaft (45)
- Physik (32)
- Erziehungswissenschaften (30)
- Biowissenschaften (26)
- Präsidium (26)
- Universitätsbibliothek (23)
- Kulturwissenschaften (22)
Wer Musik macht, lebt glücklicher : Binding-Kulturpreis 2004 für Musikpädagogen Hans Günther Bastian
(2004)
In der vorliegenden Arbeit wurden Sekundärmetabolite aus marinen Wirbellosen der Nordsee, arktischen und antarktischen Gewässern untersucht. Ausgehend von Untersuchungen zur marinen chemischen Ökologie von Haliclona viscosa und physiologischen Effekten auf die Kieme der Krabbe Carcinus maenas wurden verschiedene Alkaloide und Cholesterole isoliert (siehe Abbildung 25). Vier unbekannte Alkaloide konnten erstmalig aus Haliclona viscosa isoliert werden. Sie leiten sich von 3-Alkylpyridin-Alkaloiden ab, die für Schwämme der Gattung Haliclona charakteristisch sind. Die Strukturaufklärung erfolgte durch den Einsatz von NMRSpektroskopie und Massenspektrometrie. Die symmetrischen bzw. pseudo-symmetrischen Eigenschaften erschwerten im besonderen Maße die Strukturaufklärung. Die Isolation von Haliclamin C und D sowie Viscosalin ermöglichte es, daß für sie ökologische Funktionen nachgewiesen werden konnten [33, 34], die dem Schwamm Haliclona viscosa in seinem Habitat Vorteile im Kampf um das Überleben bringen. Viscosamin ist das erste natürlich vorkommende zyklische Trimer eines 3-Alkylpyridin-Alkaloids, daß aus einer marinen Umgebung stammt. Es schließt eine Lücke zwischen monomeren, dimeren und polymeren 3-Alkylpyridin-Alkaloiden. Aus dem bisher noch nicht chemisch untersuchten Borstenwurm Laetmonice producta, konnte Homarin isoliert werden [81-84]. Homarin zeigte einen bisher unbekannten physiologischen Effekt auf die Kieme eines potentiellen Räubers [35]. Ob Homarin aufgrund seiner physiologischen Wirkung den Borstenwurm vor z.B. räuberischen Krebstieren schützen kann, muß noch mit weiteren Versuchen geklärt werden. Enthält 3 Art. aus versch. Zeitschr.: 1 Christian A. Volk and Matthias Köck: Viscosamine: The First Naturally Occuring Trimeric 3-Alkyl Pyridinium Alkaloid ; 2 Christian A. Volk, Heike Lippert, Ellen Lichte, and Matthias Köck: Two New Haliclamines from the Arctic Sponge Haliclona viscosa, European Journal of Organic Chemistry 2004, im Druck ; 3 Christian A. Volk and Matthias Köck: Viscosaline: New 3-Alkyl Pyridinium Alkaloid from the Artic Sponge Haliclona viscosa, Organic & Biomolecular Chemistry 2004, im Druck
Das E-Finance Lab publiziert jeweils quartalsweise einen digitalen sowie einen gedruckten Newsletter, die abwechselnd alle sechs Wochen erscheinen. Der digitale Newsletter gibt einen kurzen Überblick über ausgewählte Forschungsarbeiten und nutzt den Einsatz von Hyperlinks zu weiterführenden Informationen. Der gedruckte Newsletter "EFL quarterly : an E-Finance Lab publication" hingegen beschreibt kompakt und ergebnisorientiert einzelne Forschungsprojekte. S.a. http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:hebis:30:3-15886
Glutamat ist der häufigste Neurotransmitter im menschlichen Hirn. Die Konzentration des Glutamats in der extrazellulären Flüssigkeit wird durch Glutamat-Transporter (Sekundärtransporter) kontrolliert. Liegt es in zu hoher Konzentration im synaptischen Spalt vor, kommt es zur Schädigung von Nervenzellen, ein Prozess, der als Exzitotoxizität bezeichnet wird. Eine Fehlfunktion oder fehlerhafte Produktion der Glutamat-Transporter im zentralen Nervensystem wird bei verschiedenen Krankheiten, wie der amyotrophen Lateralsklerose, der Ischämie, der Epilepsie, der Schizophrenie und der Alzheimer-Krankheit vermutet. Ziel dieser Arbeit war die Funktions- und Strukturanalyse der Glutamat-Transporter GLT-1 aus Rattus norvegicus und GltP aus E. coli, um die Familie der Glutamat-Transporter und die Entstehung der mit diesen Transportern in Verbindung gebrachten Krankheiten besser zu verstehen. Um die für diese Analysen gebrauchten Mengen an Protein herzustellen, mussten die Proteine heterolog produziert werden, da sie in natürlichen Geweben nicht in ausreichender Menge vorkommen. In dieser Arbeit wurde Glutamat-Transporter GLT-1 aus Rattus norvegicus funktional mit dem Semliki Forest Virus Expressionssystem überproduziert. Dazu wurden verschiedene Vektorkonstrukte hergestellt. Die routinemäßige Überproduktion des Transporters wurde im 8 l - Maßstab durchgeführt. In Zellen, die für die Produktion von GLT-1 mit rekombinanten, aktiven SF-Viren infiziert wurden, konnte eine sehr hohe Aktivität des Glutamat-Transporters nachgewiesen werden. Die Menge des hergestellten GLT-1 wurde in Bindungsexperimenten mit (2S,4R)-4-Methylglutamat quantifiziert: jede Zelle enthielt 3,5 x 106 Transporter: 61,04 pmol GLT-1/mg Gesamtprotein. Das entspricht einer Ausbeute von etwa 2-3 mg/8 l Zellkultur. Die hier durchgeführte Überproduktion des GLT-1-Glutamat-Transporters ist die erste Überproduktion eines eukaryotischen Sekundärtransporters mit dem Semliki Forest Virus Expressionssystem, bei dem große Mengen an aktivem Protein hergestellt werden konnten. Zudem ist die Ausbeute an funktionalem GLT-1 mit 61 pmol/mg Gesamtprotein verglichen mit den in der Literatur vorliegenden Daten zur Überproduktion eukaryotischer sekundärer Transporter mit anderen Expressionssystemen die höchste, die bis dato erreicht werden konnte. Der größte Anteil des heterolog produzierten GLT-1 war glykosyliert. Die gelelektrophoretische Analyse des aufgereinigten Transporters ergab zwei Banden, die ein apparentes Molekulargewicht von etwa 70-75 kDa und etwa 53-58 kDa hatten. In einer Western-Blot-Analyse konnten beide Banden des GLT-1-Transporters mit einem anti-His-Antikörper und einem anti-GLT-1-Antikörper nachgewiesen werden. Durch Deglykosylierung mit PNGase F und einer Trennung beider Banden durch Lektin-Affinitätschromatographie konnte gezeigt werden, dass es sich bei der 70-75 kDa-Bande um die glykosylierte Form und bei der 53-58 kDa-Bande um die nicht glykosylierte Form des Glutamat-Transporters handelte. Es wurde gezeigt, dass zwischen der Aktivität des GLT-1 und dessen Glykosylierung kein Zusammenhang besteht. Denn beide Formen lagen als vollständige, funktionale Transporter vor und transportierten nach Rekonstitution in Liposomen Glutamat. Der prokaryotische Glutamat-Transporter GltP aus E. coli wurde in dem E. coli-Stamm C43 (DE3) überproduziert. Die Ausbeute war etwa 2 mg pro Liter Kultur. Die Funktionalität des Transporters nach Rekonstitution in Lipidvesikel wurde durch spezifische Aufnahme von Glutamat gezeigt. Für die Solubilisierung beider Transporter aus den Zellmembranen wurden verschiedene Detergentien getestet. GltP ließ sich am besten mit DM oder DDM aus der Membran extrahieren, für die Solubilisierung des GLT-1 wurde mit großer Effizienz DDM oder CYMAL-7 eingesetzt. GltP und GLT-1 wurden mit einer Ni2+-NTA-Affinitätschromatographie in großer Menge und hoher Reinheit angereichert werden. Die Aufreinigungsprozedur beeinträchtigte nicht die Funktionalität des prokaryotischen GltP. Bei dem eukaryotischen Transporter GLT-1 war nach der Ni2+-NTA-Säule keine Transportaktivität mehr messbar. Durch Zusatz von Asolectin in den Wasch- und Elutionspuffern während der Aufreinigung konnte die Funktionalität des Transporters jedoch erhalten werden. Aufreinigungen mit anderen Lipiden unter anderem in Kombination mit Cholesterin lieferten einen Glutamat-Transporter, der in seiner Konformation stabilisiert, jedoch nach Rekonstitution nicht aktiv war. Eine weitere Steigerung der Ausbeute an aktivem GLT-1 konnte durch den Einsatz von Reduktionsmitteln, wie DTT oder b-Mercaptoethanol, die die Aggregation des Transporters verhinderten, erreicht werden. GltP katalysiert den elektrogenen Transport von Glutamat bzw. Aspartat unter Symport von mindestens zwei Protonen. GLT-1 transportiert ein Molekül Glutamat zusammen mit drei Na+-Ionen und einem Proton im Austausch gegen ein K+-Ion. Durch Transportmessungen konnte der hochspezifische Glutamat-Transport der aufgereinigten Transporter belegt werden. Der Glutamat-Transport des in Liposomen rekonstituierten GltP zeigte eine klare Abhängigkeit von einem anliegenden Protonengradienten. Aufgereinigtes und rekonstituiertes GLT-1 transportierte nur Aspartat bzw. Glutamat, wenn ein Na+ und ein K+-Gradient vorhanden waren. Die Aspartat- bzw. Glutamat-Aufnahme konnte bei beiden Transportern durch den kompetitiven nichttransportablen Inhibitor (2S,4R)-4-Methylglutamat blockiert werden. Der Assoziationsgrad der Glutamat-Transporter GltP und GLT-1 und das Gleichwicht zwischen den verschiedenen oligomeren Zuständen wurde in dieser Arbeit eingehend mit biochemischen Methoden untersucht: 1. „Cross-linking“-Studien, 2. Blaue Nativgelelektrophorese, 3. Analytische Ultrazentrifugation, 4. Laserlichtstreuung, 5. Gelfiltrationschromatographie. Die dabei erhaltenen Ergebnisse bewiesen eine tetramere Assoziierung beider Proteine. Die Gelfiltrationsexperimente zeigten, dass die Transporter in Detergenzlösung in unterschiedlichen Assoziationsgraden vorliegen. Das Gleichgewicht zwischen den oligomeren Formen war reversibel und abhängig von der Art und Konzentration des Detergenz, der Proteinkonzentration und der Temperatur. Zur Untersuchung der Struktur der Glutamat-Transporter wurden vor allem mit GltP zahlreiche 2D-Kristallisationsexperimente durchgeführt. Trotz Variation aller denkbar möglichen Parameter konnten keine Kristalle erhalten werden. Das beste Ergebnis war ein guter Einbau des Proteins in Lipidvesikel (etwa 80%). Da keine Kristalle erhalten wurden, wurde für beide Proteine eine Einzelpartikelanalyse durchgeführt. Dabei wurde nach zweidimensionaler Alignierung und Klassifizierung die „random conical tilt“-Methode angewendet. Die daraus resultierenden dreidimensionalen Dichtekarten des GltP und GLT-1 waren sehr ähnlich und wiesen vier nicht exakt symmetrische Massen in annähernd quadratischer Anordnung auf. Die Auflösung war 26 Å bzw. 36 Å. Die Größe der Einzelpartikel (für GltP: Höhe 37 Å, Breite 75 Å bzw. 86 Å, Länge 100 Å). ihre annähernd quadratische Anordnung und ihre Symmetrie lassen vermuten, dass es sich dabei um Tetramere der Glutamat-Transporter handelt, die aus zwei nicht symmetrischen Dimeren zusammengesetzt sind. Die hier präsentierten Daten sind die ersten zur dreidimensionalen Struktur von Glutamat-Transportern. Schließlich wurde nachgewiesen, dass der in BHK-Zellen heterolog exprimierte Glutamat-Transporter GLT-1 vorwiegend in „lipid rafts“ lokalisiert ist. Die Größe der „rafts“, die anhand der Größe der „Proteininseln“ in Gefrierbrüchen bestimmt wurde, war etwa 200 nm im Durchmesser. Die „GLT-1-Inseln“ bzw. „lipid rafts“ konnten durch das teilweise Entfernen von Cholesterin aus der Membran zerstört werden. Damit ging eine Reduktion der Glutamat-Transporter-Aktivität von etwa 20% einher. Es ist das erste Mal, dass „lipid rafts“ durch die natürliche Assemblierung von Proteinen mit Hilfe von Gefrierbruchanalysen und Elektronenmikroskopie beobachtet wurden.
Antiaging ist en vogue. Viele Menschen nutzen diesen Begriff, verstehen darunter jedoch ganz unterschiedliche Dinge. Das Spektrum reicht von Gymnastik für ältere Menschen bis hin zu Maßnahmen der plastischen Chirurgie im Sinne einer »Schönheitschirurgie «, von sinnvollen und richtigen Angeboten bis hin zu Dingen, deren Nähe zur Scharlatanerie aus Sicht der Schulmedizin nicht zu verkennen ist. Dieser Artikel soll einen Überblick geben über die Aspekte des Antiaging, die einer Betrachtung aus Sicht der wissenschaftlich orientierten Medizin zugänglich sind.
Die vorliegende Arbeit setzt sich mit den Auswirkungen der Blutkomponenten (neutrophile Granulozyten und Seren) von mit HLM operierten Patienten auf die interzellulären Kontakte in cerebralen mikrovaskulären Zellverbänden auseinander. Dabei wurden Blutkomponenten sowohl von Patienten mit langen (> 80 min) als auch mit kurzen (< 80 min) HLM-Zeiten isoliert. Das Ziel war herauszufinden, welche der Blutkomponenten für die Veränderungen der Integrität und der Morphologie der Zell-Zell-Kontakte verantwortlich sind und dadurch pathologische Störungen der Blut-Hirn-Schranke verursachen können. Die Untersuchungen wurden mit einem BHS-Modell aus cerebralen mikrovaskulären Endothelzellen [BCEC] vom Schwein durchgeführt. Dabei wurde in vitro nach Behandlung des BHS-Modells mit den entsprechenden Blutkomponenten die Integrität der interzellulären Kontakte durch TEER-Messungen untersucht und die morphologischen Veränderungen sowie die Expression der zellkontaktbildenden Moleküle (VE-Cadherin, β-Catenin und Occludin) beobachtet. Es stellte sich heraus, dass Patientenseren, die zu unterschiedlichen Zeitpunkten der Herzoperationen isoliert wurden, keinen Einfluss auf die interzellulären Kontakte der BCEC-Kulturen ausüben. Dagegen führten die Kokultivierungen der BCEC mit den neutrophilen Granulozyten [PMN], die zu den gleichen Operationszeitpunkten isoliert wurden wie die Seren, zu Veränderungen innerhalb der Zell-Zell-Kontakte sowohl auf funktioneller (TEER-Abnahme) als auch auf morphologischer Ebene. Unabhängig von der Dauer der HLM-Zeiten und den PMNEntnahmezeitpunkten wirkte sich die Zugabe von PMN herzchirurgischer Patienten durch die TEER-Reduktion negativ auf die Integrität der BCEC-Kulturen aus, wobei PMN, die während des herzschirurgichen Eingriffes isoliert wurden, zu etwas stärkeren aber nicht signifikanten TEER-Abnahmen führten als die preoperativ (vor Narkose) isolierten. Auf morphologischer Ebene konnte man ebenfalls durch die Zugabe von PMN herzchirurgischer Patienten verschiedene Veränderungen der interzellulären Kontakte in BCEC-Kulturen beobachten. Die Patienten-PMN führten unabhängig von den Operationszeitpunkten, an denen sie isoliert wurden, und der Länge der HLM-Zeiten zu einer Ausstreckung der BCEC und somit zu einer Zellformveränderung sowie zu einer Verminderung des membranassoziierten β-Catenin- und Occludin-Anteils und einer Umwandlung des „zickzack“ Membranmusters in ein glattes, fast linienförmiges Muster. Zusätzlich konnte man mit Hilfe der Western-Blot-Analyse eine Abnahme der β-Catenin-Expression (AJ-Protein) in BCEC-Kulturen feststellen, die mit während und nach HLM-Einsatz isolierten PMN kokultiviert wurden. Dabei stammten die isolierten PMN von herzchirurgischen Patienten mit langen HLM-Zeiten aber auch von älteren (77 und 79 Jahre) mit kurzen HLM-Zeiten, was auf eine Abhängigkeit des durch die Patienten PMN verursachten negativen Expressionseffektes vom Patientenalter und der Dauer der HLM-Einsatzzeit deutete. Einen Einfluss der Patienten PMN auf die Expression von VE-Cadherin und Occludin konnte nicht festgestellt werden. Durch die Charakterisierung der Konzentrationsverläufe von neurologischen Markern in herzchirurgischen Patientenseren konnte eine Korrelation zwischen der Dauer der HLM-Einsätze und der NSE- und S-100B-Konzentration in Patientenseren fesgestellt werden. Pathologische Werte der beiden neurologischen Marker konnten jedoch nur bei Patienten mit HLM-Zeiten von mehr als 80 Minuten gemessen werden. Im tierexperimentellen Modell wurde dann die Modifikation der Blut-Hirn-Schranken-Permeabilität im Rahmen von herzchirurgischen Eingriffen mit HLM untersucht. Durch quantitativen Nachweis im Hirngewebe von intravenös appliziertem Evan's-Blue Farbstoff konnte eine erhöhte Permeabilität der Blut-Hirn-Schranke bei den mit HLM operierten Tieren festgestellt werden. Eine Hirnödembildung war jedoch 6 Stunden nach Experimentende mit Hilfe von MRT-Untersuchungen in keinem der untersuchten Fällen zu beobachten. Zusätzlich zu den oben genannten Experimenten wurde die stabilisierende Eigenschaft von Interferon-β [FN-β] gegenüber dem Blut-Hirn-Schranke-Modell untersucht. Dabei führte die Behandlung der konfluenten BCEC-Kulturen mit IFN-β verschiedener Konzentrationen zu hohen TEER-Anstiegen, was auf eine Stabilisierung der interzellulären Kontakte und somit der Integrität und der Barriereeigenschaften der konfluenten BCEC-Kulturen hinwies.
Mit dieser Arbeit ist gezeigt worden, wie vielfältig die Produkte bzw. Dienste im Mobilfunkbereich sind. Der eigentliche Schwerpunkt lag auf der Fragestellung, wie die Mobilfunk-Dienste im Internet bepreist werden. Die Untersuchung der verschiedenen Mobilfunktarife im Internet hatte das Ziel, die grundlegenden Preisparameter für diese Tarife zu identifizieren, zu diskutieren und zu modellieren. Das oberste Ziel bei der Modellierung war die Erstellung eines flexiblen Tarif- und Abrechnungsmodells. Zu diesem Zweck wurden die Vorteile, die XML-Schema und XML-Netze bieten, zum Ausdruck gebracht. Dabei wurde das methodische Vorgehen in den Vordergrund gestellt und nicht die Abbildung des tatsächlichen Marktgeschehens. Zunächst wurde in dieser Arbeit kurz das Internet und die speziellen Eigenschaften des Internets behandelt. Dabei wurde festgestellt, dass sich das Internet auf Grund seiner Eigenschaften besonderes für digitale Produkte eignet. Die digitalen Produkte und deren Eigenschaften wurden untersucht und daraus ergab sich, dass die digitalen Produkte eine vorteilhafte Kostenstruktur aufweisen; nämlich vernachlässigbar niedrige Reproduktionskosten. Unter anderem ist festgestellt worden, dass für die Nutzung der digitalen Produkte für Konsumenten deren Verbreitungsgrad wichtig ist. Gerade hier kann das Internet dank seiner Eigenschaften diese Anforderung besser als ein anderer Vertriebskanal unterstützen. Schließlich lassen sich aus dem Zusammenspiel der Interneteigenschaften und der Merkmale der digitalen Güter gewisse ökonomische Gesetzmäßigkeiten ableiten. Diese verschaffen einem Unternehmen langfristig Vorteile gegenüber der Konkurrenz. Der Schwerpunkt dieser Arbeit liegt aber bei einer speziellen Gruppe der digitalen Produkte, nämlich der Produkte bzw. Dienste im Mobilfunkbereich. Mobilfunk ist eine wichtige und weitverbreitete Art der Mobilkommunikation. Auf dem deutschen Mobilfunkmarkt wurde gerade die 4. Generation der Mobilfunkstandards – UMTS - eingeführt. Allerdings wird UMTS noch einige Zeit brauchen, um sich auf dem Markt richtig zu etablieren. Damit bleibt der GPRS immer noch der führende Standard auf diesem Markt. Der meist genutzte Dienst im Mobilfunk ist immer noch der „Sprach-Dienst“. Der Mobilfunk bietet neben der „Sprache“ eine ganze Reihe weiterer Dienste an. Durch die neuen Technologien ist der Trend in Richtung Datenübertragung über Mobilfunk stark am Aufholen. Die zur Verfügung stehenden Dienste hängen mit den Mobilfunkstandards zusammen. Daher ist es möglich, dass bei der Änderung der Standards auch die zur Verfügung stehenden Dienste angepasst werden. Ein wichtiger Punkt am Bespiel von Mobilfunk als digitales Produkt bzw. Dienstleistung war die Wahl der richtigen Preisstrategie. Die meisten Netzbetreiber entschieden sich für die Strategie differenzierter Preise. Damit können sie unterschiedliche Zahlungsbereitschaften ihrer Kunden relativ gut ausschöpfen. Hierzu wurden die Vielfältigkeit der Möglichkeiten und die Vorteile, die die Preisdifferenzierungsstrategie anbietet, dargestellt. Der sich anschließende Hauptteil dieser Arbeit ist die Parametrisierung und die Modellierung des Mobilfunktarifs und dessen Abrechnungssystems. Zur Modellierung wurden XML-Schema und XML-Netze gewählt. Das XML-Schema ermöglicht flexible Erstellung, Anpassung und Erweiterung von Tarifelementen. Außerdem ermöglicht XML Datenaustausch über Plattform unabhängige Protokolle. Die XML-Netze bieten durch ihre graphische Darstellung die Visualisierung der Abläufe und der ablaufrelevanten Daten. Die aktuellen Zustände können aufgezeigt, simuliert und analysiert werden. Außerdem ermöglichen sie die gute Umstrukturierung, Anpassung und Erweiterung des Abrechnungsprozesses. Bei der Erstellung des Abrechnungsmodells wurde von den Hauptbestandteilen eines beliebigen Abrechnungsmodells ausgegangen. Anschließend sind diese Bestandteile an die Anforderungen des Abrechnungsmodells für Mobilfunkverträge angepasst worden. Die jeweiligen Abrechnungsparameter wurden, wie z.B. Tarifdaten, mit der modifizierten XMLSchema dargestellt. Die Tarifdaten stellen die Vielfältigkeit der Parameter dar, die die Preise eines Mobilfunktarifes beeinflussen. Die Preisparameter wurden nach eingehender Untersuchung verschiedener Tarife181 der vier Netzbetreiber identifiziert. Dabei fiel auf, dass die Netzbetreiber in der Regel von vergleichsweise ähnlichen Parametern ausgingen. Damit haben auch die Tarife ähnliche Strukturen. Weiterhin führen stark differenziert Preise dazu, dass man nicht vom „schlechtesten“ oder vom „besten“ Tarif sprechen kann. Im Prinzip gibt es nur den „besten“ Tarif für ein bestimmtes Nutzungsverhalten. Außer Sprachkommunikation wurden in der Arbeit auch andere Kommunikationsarten vorgestellt. Dabei wurde eine neue Art des Bepreisens angesprochen, nämlich das Bepreisen nach Dienstqualität. Die darauf basierenden Preisstrukturen werden zukünftig sicherlich eine große Rolle spielen, da sie sich insbesondere für Dienste eignen, die vom UMTS unterstütz werden.
Anders als in seinen früheren Schriften, in denen er das Subjekt als ein reines, gesellschaftlichen Zwängen unterworfenes Produkt moderner Machtmechanismen betrachtete, betonte Foucault in seinem späteren Werk dessen Möglichkeit zu Selbstentwurf und Selbstgestaltung. Die Subjektkategorie ist unverzichtbar, wenn wir Ideen wie Gerechtigkeit oder Freiheit mit Leben füllen wollen, denn diese Ideen haben keinen Ort, wenn sie nicht im Menschen Ereignis werden.
Bei den ca. 3000 digitalisierten und bearbeiten Seiten des Deutschen Kolonial-Lexikons waren Fehler nicht zuvermeiden. Die auftretenden Fehler hatten nicht nur menschlichen, sondern auch technischen Ursprung. In allen Arbeitsschritten bei der Umsetzung von der anlogen in die digitale Form traten kontinuierlich Probleme auf, die zu Fehlern führten. Daher war Fehleranalyse ein wichtiges Instrument der Qualitätskontrolle.
Zum Geleit Die Bibliothek der ehemaligen Deutschen Kolonialgesellschaft und als Teil davon das „Koloniale Bildarchiv“ kamen kriegsbedingt in den Besitz und das Eigentum der Stadt- und Universitätsbibliothek Frankfurt am Main. Über ein inzwischen über zehn Jahre andauerndes Projekt konnte die Mehrzahl der historischen Bilder gerettet und erhalten werden, mehr noch, die Bildeinheiten stehen inzwischen weltweit im Netz. Das von der Deutschen Forschungsgemeinschaft sowie privaten Stiftungen geförderte Projekt dient der Sicherung historisch-kultureller Information, so wie sie auf den überlieferten Fotografi en der Kolonialgeschichte festgehalten ist. Die physische Form der Bilder ist im Original vielgestaltig; neben den Fotoglasplatten verschiedener Größe fi nden sich unterschiedliche Formen von Negativen sowie Positivabzüge, darunter auch Filme aus leicht entzündlichem Nitromaterial. Die Bildeinheiten werden alle nach dem gleichen Schema durch Konversion auf moderne Medien verfügbar gemacht. Nach der Langzeitsicherheitsverfilmung auf Spezialfi lm durch eine ausgewiesene Dienstleistungsfi rma wird die Information digital abgenommen und auf eine CDROM übertragen, von dort gelangen die Bilder in einen Server, der auch die Erschließungselemente, hier verbale Deskriptoren (Schlagwörter) enthält. Inzwischen sind ca. 60 000 Bildeinheiten digitalisiert und nahezu vollständig über den Server im Internet verfügbar. Die Stadt- und Universitätsbibliothek Frankfurt a. M. führt das Projekt in Zusammenarbeit mit der Deutschen Forschungsgemeinschaft und der Hochschule für Technik und Wirtschaft (FH) in Dresden durch. Die Bibliothek wird dabei in fi nanzieller Hinsicht durch die Adolf-Messer-Stiftung sowie die Marga- und Kurt-Möllgaard Stiftung in Frankfurt a.M. zusätzlich und in beträchtlicher Höhe unterstützt. Das Material des bereits 1993 begonnenen Projekts wird z. Zt. durch eine Kooperation mit der Sam Cohen Bibliothek im namibischen Swakopmund um ca. 15 000 Einheiten erweitert. Weitere Kontakte bestehen in Namibia zur dortigen Deutschen Botschaft, zur Nationalbibliothek, zum Nationalarchiv und der Wissenschaftlichen Gesellschaft in Windhuk. Unter dem Titel „Deutsch-Südwestafrika. Fotos aus der Kolonialzeit 1884 – 1919“ erschien zur Buchmesse 2001 im Sutton Verlag ein 144 Seiten umfassender Bildband (ISBN 3-89702-346-6). Die Fotografien illustrieren die Lebensumstände der Kolonialherren und Kolonisierten in allen Facetten. Verkehr und Wirtschaft, Kirchen und Krankenhäuser, Bergbau und Großwildjagd vor imponierenden Kulissen ebenso wie das Überleben in der wasserlosen Wüste. Weitere Bildbände dieser Art, z.B. über die Kolonialzeit in Ostafrika sind geplant. Bestandteil des mit Swakopmund zur Zeit durchgeführten Teilprojektes ist auch die vollständige Digitalisierung des bekannten, drei Bände umfassenden „Koloniallexikons“, welches jetzt ebenfalls über das Internet konsultiert werden kann. Allen am Projekt beteiligten Personen und Institutionen ist aus Sicht der Stadt- und Universitätsbibliothek Frankfurt am Main sehr zu danken, den Stiftungen für ihre anhaltende fi nanzielle Förderung und der Hochschule für Technik und Wirtschaft Dresden (FH), insbesondere dort dem Fachbereich Vermessungswesen / Kartographie (Prof. Dr. Uwe U. Jäschke) für seine jahrelange tätige Kooperation. Die Arbeit wäre jedoch nicht möglich und so erfolgreich gewesen, wenn nicht Frau Dr. phil. Irmtraud-D. Wolcke-Renk, die langjährige Leiterin der Abteilung „Afrika, Asien, Judaica“ bei der Frankfurter Universitätsbibliothek, schon früh ihr Herz für das Gesamtunternehmen „Koloniales Bildarchiv“ entdeckt hätte. Ihrem dienstlichen und auch starkem privaten Einsatz ist es in besonderem Maße zuzuschreiben, dass die historischen Bilder heute der Wissenschaft zur Verfügung stehen. Daher gebührt ihr anlässlich ihres Ausscheidens aus dem aktiven Dienst im Juni des Jahres 2004 besonderer Dank. Ltd. BDir. Berndt Dugall Direktor der Stadt- und Universitätsbibliothek Frankfurt am Main Vorwort Das „Digitalisierte koloniale Bildprojekt“ motiviert und fasziniert seine Bearbeiter auch noch im fünfzehnten Jahr. Dabei fi ng alles eigentlich ganz harmlos an. Die Frage im Afrikalesesaal der Stadt- und Universitätsbibliothek Frankfurt am Main (STUB) nach Fotos, um eine Dissertation zu bebildern, führte mich in ein Fotolager des Frobenius-Institutes. Hier lagen, verpackt in unzähligen Kisten und Kästchen, Fotoglasplatten, Filmnegative, Dias und Papierabzüge. Der Zahn der Zeit hatte kräftigt an ihnen genagt und sie schienen zu rufen: „Rette mich!“ Nach einem Gespräch mit Frau Dr. Wolcke-Renk wurde der Plan gefaßt, diese Fotos zu sichern und zu archivieren. Wir hatten keine Vorstellung, welche Arbeit wir uns damit vorgenommen hatten. Eine Grobsichtung und Erfassung des Bestandes war schnell geschehen, ein Forschungsantrag gestellt und abgelehnt, zahlreiche Entwürfe und Gutachten geschrieben, bis endlich die Deutsche Forschungsgemeinschaft einen Antrag zur Sicherheitsverfilmung genehmigte. Damit waren die Grundvoraussetzungen für ein erfolgreiches Projekt geschaffen. Sicherheitsverfilmung, Digitalisierung, Internetpräsentation, digitales Koloniallexikon, die Verfilmung des Fotobestandes der Sam Cohen Bibliothek in Swakopmund/Namibia und die Einbeziehung zahlreicher kleiner Sammlungen und Bestände in unser Projekt sind die Höhepunkte unserer fünfzehnjährigen Arbeit. Ohne die Unterstützung durch die Leitung der Stadt- und Universitätsbibliothek Frankfurt am Main, den Ltd. Bibliotheksdirektor Berndt Dugall und seinen Stellvertreter Dr. Wilhelm Schmidt, hätte das Projekt nicht so viele Verlängerungen erhalten. Der Hochschule für Technik und Wirtschaft Dresden (FH), insbesondere dem Fachbereich Vermessungswesen/Kartographie, ist für die Bereitstellung der technischen Ausstattung und der Arbeitsmöglichkeiten zur Erstellung der Internetpräsentation und des digitalen Kolonial-Lexikons zudanken. Die Diplom-Ingenieure Kati Goldmann und Stefan Hempel sowie die Studentinnen Andrea Füssel, Denise Turza und Kathleen Thiele waren hier für die technische Umsetzung verantwortlich. Für den Mut und die Bereitschaft, das Fotomaterial aus Swakopmund nach Deutschland zu schicken, danken wir dem Team der Sam Cohen Bibliothek unter der Leitung des leider viel zu früh verstorbenen Michael Weber. Die Organisation des Transports lag in den Händen von Frau Angelica Flamm-Schneeweiß, die die Deutsche Botschaft in Windhuk und die Deutsch-Namibische Gesellschaft in Göttingen zur Unterstützung und Hilfeleistung motivieren konnte. In Frankfurt wurde die Sicherheitsverfilmung des gesamten Bestandes und der zahlreichen Spenden und Leihgaben organisiert und die formale und wissenschaftliche Erschließung durchgeführt. Zahlreiche wissenschaftliche Hilfskräfte waren hier tätig. Die EDV-Abteilung der STUB ist verantwortlich für den Internetzugang des Projektes. Herr Eberhard Pietzsch hat jederzeit ein offenes Ohr für unsere Wünsche gehabt. Wenn Frau Dr. Wolcke-Renk nun in den wohlverdienten Ruhestand tritt, können wir nur hoffen, daß es in bezug auf unser Projekt noch einige Jahre ein Unruhestand sein wird. Denn soviel auch in den letzten Jahren erarbeitet worden ist, es ist noch genügend Arbeit für weitere Jahre vorhanden. Dresden im Juni 2004 Prof. Dr. Uwe Ulrich Jäschke
Einleitung Traumatische Rupturen der thorakalen Aorta sind Folge einer vehementen, stumpfen Gewalteinwirkung. Vom Unfallmechanismus liegt in den meisten Fällen ein horizontales oder vertikales Dezelerationstrauma, oft in Kombination mit einer Thoraxkompression, vor. Als typischer Unfallhergang ist hier an erster Stelle der Verkehrsunfall mit Frontalzusammenstoß zu nennen. Der klinische Ausprägungsgrad der Verletzung reicht von kleinen Einrissen der Intima bis zur vollständigen Ruptur der thorakalen Aorta. Vor allem kleinere Verletzungen können zunächst unentdeckt bleiben und mit Latenz symptomatisch werden. Material und Methoden Über die internistische Notaufnahme wurde uns 8/2003 ein 36jähriger Mann mit dem klinischen Bild einer akuten, arteriellen Ischämie beider Unterschenkel vorgestellt. Anamnestisch war ein 3 Monate zurückliegender Autounfall mit Becken-, Unterschenkel- und Rippenserienfraktur eruierbar, ansonsten lagen keine Erkrankungen oder klinische Auffälligkeiten vor. In der bereits durchgeführten Angiographie zeigte sich ein frischer thrombembolischer Verschluß beider Aa. popliteae (beidseits Segment I) sowie eine Embolie der A. profunda femoris rechts. Es erfolgte die sofortige transfemorale Embolektomie rechts, die beidseitige transpopliteale Embolektomie sowie die transtibiale anteriore und posteriore Embolektomie links mit nachfolgender intraoperativer Lysetherapie. Bei Reverschluß links mußte am 1. postoperativen Tag neuerlich eine transpopliteale Embolektomie durchgeführt werden. Im weiteren Verlauf erfolgte eine Emboliequellensuche mittels Echokardiographie und Computertomographie. Ergebnisse Das Revaskularisationsergebnis war rechts sehr gut, links befriedigend bei deutlich limitierter peripherer Ausstrombahn. Im Rahmen der Emboliequellensuche zeigte die Computertomographie der Aorta eine fokale Ruptur der Aorta thoracica „loco typico“ mit adhärenter Thrombusauflagerung. Eine weitere Emboliequelle ließ sich nicht finden. In Allgemeinnarkose wurde die Läsion durch eine endovaskuläre Implantation eines Stentgrafts über einen femoralen Zugang überstentet. Die radiologische Kontrolle im follow up belegte die persistierende Ausschaltung der fokalen Aortenruptur, ein Endoleak lag nicht vor. Schlussfolgerung Der klinische Ausprägungsgrad einer thorakalen Aortenruptur kann stark variieren. Insbesondere kleinere Läsionen können -wie in diesem Fall- mit erheblicher Latenz symptomatisch werden. Bei arterieller Embolie mit positiver Anamnese eines Dezelerationstraumas ist die Abklärung der Aorta obligat. Die endovaskuläre Stentgraftimplantation stellt bei nachgewiesener thorakaler Aortenruptur eine effektive Therapie dar.
Propagandakarten, auch als politische, geopolitische, Agitations- oder Suggestivkarten bezeichnet, sind kartenrelevante Darstellungen, die durch gezielte Konstruktion und spezielle Inhalte eine emotionale Wirkung beim Kartennutzer hervorrufen wollen. Zum Teil können auch sogenannte Pressekarten in diese Kartenkategorie fallen. Wie bei allen Bezeichnungen ist aber zu beachten, daß zeitliche und räumliche Einschränkungen gemacht werden müssen: nicht jede Pressekarte ist eine Propagandakarte.
Welche Schätze in Bibliotheken verborgen sind, entdeckt man oft nur bei besonderen Anlässen. Einen derartigen Anlaß stellt vielleicht der aktuell erstellte Katalog der Deutschen Kolonialbibliothek dar. Die Kolonialbibliothek gelangte nach dem Zweiten Weltkrieg auf abenteuerliche Weise zur Stadt- und Universitätsbibliothek Frankfurt a.M., wo sie heute beheimatet ist. Sie besteht aus den Bibliotheken mehrerer Kolonialverbände, die 1936 zum Reichskolonialbund zusammengefaßt wurden. Den größten Bestand brachte die Bibliothek der 1882 gegründeten Deutschen Kolonialgesellschaft ein. Während die 18.000 Monographien der Kolonialbibliothek als geschlossener Bestand erhalten blieben, sind die ebenfalls enthalten Zeitschriften in den allgemeinen Bestand der Universitätsbibliothek überführt worden.
Vom analogen Foto zum digitalen Image : die Sicherung historischer Fotos durch HERRMANN & KRAEMER
(2004)
Die fototechnische Realisierung des Projektes und die Schaffung einer digitalen Benutzerausgabe bei Wahrung aller Bildinformationen gestaltete sich durchaus anspruchsvoll: handelt es sich doch um einen hinsichtlich Vorlagenart, Erhaltungszustand und Verwahrungsform in jeder Weise sehr differenzierten Bestand. Die Dokumente, Fotografi en und Negative befinden sich nicht nur im Besitz der StUB. In das Projekt einbezogen wurden auch Bestände aus der Sam-Cohen-Library in Swakopmund und viele engagierten Privatpersonen stellten Alben, Filme und vereinzelt sogar Wandkarten und gerahmte Bilder zur Verfügung. Speziell die „externen“ Bestände hatte man aus verständlichen Gründen nur für einen begrenzten Zeitraum zur Verfügung. Zugleich existierte bislang noch kein langzeitarchivbeständiges Sicherungsmedium, weshalb dem Sicherungsgedanken – auch angesichts eines Brandes, den es bei Sam Cohen gegeben hat – verständlicherweise größte Bedeutung beigemessen wurde.
Im Rahmen der Sicherungsmaßnahmen des Bildbestandes der Deutschen Kolonialgesellschaft (DKG) an der Stadt- und Universitätsbibliothek Frankfurt am Main galt es eine geeignete Datenverwaltung bzw. eine geeignete Datenpräsentation zu entwickeln. Während der Sicherungsverfi lmung des Bildbestandes der DKG entstand die Idee einer Onlinedatenbank zur Bildrecherche. Obwohl das Internet zu dieser Zeit schon seinen 27sten Geburtstag gefeiert hatte, war die Allgemeinheit mit dieser Technologie noch nicht sehr vertraut. Die Stadt- und Universitätsbibliothek Frankfurt am Main und die Hochschule für Technik und Wirtschaft Dresden (FH) begannen diese Idee in die „Virtuelle Realität“ des World Wide Web umzusetzen. Das „Digitalisierte koloniale Bildarchiv“ ging erstmals im Herbst 1999 ans Netz.
In Amerika wird Crack, eine rauchbare Form von Kokain, seit Mitte der 1980er Jahre konsumiert. In Deutschland wähnte man sich vor dieser »Ghetto-Droge« sicher. Doch seit Mitte der 1990er Jahre gibt es auch in Frankfurt und Hamburg Crack-Szenen. In der Main-Metropole war es zunächst eine kleine, von den Heroin-Süchtigen getrennte Raucherszene, aber schon 2002 hatte Crack das Kokain-Pulver völlig verdrängt und sogar das Heroin als bisher meistgebrauchte Droge auf den zweiten Rang verwiesen. Heute konsumieren 60 Prozent der Frankfurter Szene-Junkies mehrmals in der Woche Heroin, aber über 80 Prozent – oftmals dieselben Drogenabhängigen – auch mehrmals in der Woche Crack. Da bei dieser Droge der Kick zwar stark, aber nicht nachhaltig ist und die Junkies sich deshalb nie gesättigt fühlen, treibt die Abhängigen eine enorme Unruhe. Beobachtungen und Interviews mit Betroffenen zeigen, wie sich der Konsum dieser Droge verschärfend auf das Leben der Junkies und damit auf die gesamte Szene auswirkt.
Umzug des Fachbereichs Physik steht bevor : das Stern-Gerlach-Zentrum für experimentelle Physik
(2004)
7 Zusammenfassung und Ausblick 7.1 Synthese des PNA-Bausteine Primäres Ziel der Diplomarbeit war die Synthese von 6-Aminochinolin-2(1H)-on (3) und dessen Kupplung über die Carbonsäure (4) mit dem PNA-Grundgerüst (6). ... Das Chinolin (3) wurde durch eine dreistufige Synthese aus para-Phenylendiamin (2) erhalten und als Pikrat gefällt. Über eine Ionenaustauschsäule wurde das Hydrochlorid des Chinolins (3b) gewonnen. Durch Charakterisierung des RNA-Liganden mittels FRET konnte ein IC50-Wert des Chinolin Hydrochlorids (3b) von 46 μmol ermittelt werden. Das kupplungsfähige Essigsäurederivat (4) wurde über den tert-Butylesters (87) des Chinolins (3) gewonnen. ... Die literaturbekannte zweistufige Synthese des PNA-Rückgrats (5) geht vom Ethylendiamin ... 7.2 Synthese des PNA-Monomers Das Ziel die Synthese des PNA-Monomers (6), konnte durch Kupplung des Essigsäurederivats (4) und des PNA-Rückgrats (5) mittels DIC/HOBt erreicht werden. ... Das PNA-Monomer sollte in weiterführenden Arbeiten durch kombinatorische Chemie in ein Tripeptid eingebaut werden. Dazu wäre es jedoch notwendig, die tert-Butyl-Schutzgruppe durch Säurezugabe abzuspalten, um die Carbonsäure (88) zu erhalten, die als PNA-Monomer in ein Tripeptid eingebaut werden kann. Es wurde jedoch eine Zersetzung des PNA-Monomers in das Hydrochlorid des Chinolins (3b) und zwei Fragmenten des Fmoc-geschützten Grundgerüsts nachgewiesen. 7.3 Alternative Methoden ... Auf einem anderen Weg konnte das Anhydrid (8) aus Ethylendiamin (9) in vier Syntheseschritten dargestellt werden, das mit dem Chinolin (3) gekuppelt werden konnte. Die resultierende Carbonsäure (10) wurde durch weiterführende Arbeiten in ein Tripeptid eingebaut. Nach der Abspaltung vom Harz und der Entschützung des Tripeptids fand eine intramolekulare Cyclisierung statt, wobei das Chinolin (3) als Abgangsgruppe nachgewiesen wurde. In nachfolgenden Arbeiten sollten die Eigenschaften von Iminochinolin (93) als RNA-Ligand bestimmt werden. Der Syntheseweg sollte über eine dreistufige Synthese vom Chinolin (3) ausgehend zum Iminochinolin (93) führen. Es konnte im Rahmen dieser Arbeit gezeigt werden, dass der erste Schritt, die Darstellung des Chlorochinolins (91), gelingt. 7.4 Ausblick Das erwähnte Iminochinolin (93) sollte in nachfolgenden Arbeiten ebenfalls auf seine Eigenschaft als RNA-Ligand untersucht werden. Die PNA-Monomere ließen sich nur mit geringen Ausbeuten kuppeln. In der Literatur zur Darstellung von PNA-Monomeren werden unterschiedliche Kupplungsreagenzien, wie EDC/HOBt, BOP/HOBt, TOTU oder PyBOP, für die PNA-Grundgerüste angegeben. Um bessere Ausbeuten zu erreichen, ist eine systematische Untersuchung der optimalen Kupplungsbedingungen vorzunehmen. Um die Zersetzung des PNA-Monomers (6) bei der Abspaltung der tert-Butylschutzgruppe zu verhindern, ist nach alternativen PNA-Rückgraden zu suchen. Methyl- oder Ethylester statt tert-Butylester wären durch Verseifung mit Natriumhydroxid in einem Wasser/Dioxan-Gemisch in das jeweilige Carboxylat zu überführen. Aufgrund der niedrigen Ausbeute des Tripeptids (4)-(D)Arg-(D)-Arg-CO-NH2 (96) soll versucht werden die Kupplungsausbeute durch Vermeidung möglicher Nebenreaktionen zu erhöhen. Eine mögliche Nebenreaktion ist die Cyclisierung der zu kuppelnden Carbonsäure (4) mit einer weiteren Carbonsäure (4), die vermieden werden kann durch die Einführung einer Boc-Schutzgruppe am sekundären Amin. Eine Kupplung mit der Boc-geschützten Carbonsäure (97) verspricht bessere Kupplungsausbeuten. ... In vorangegangenen Arbeiten[74][75] konnten das Lactam (98) mittels Heck- oder Suzuki-Reaktion nicht an das Vinylglycinderivat (99) gekuppelt werden. ... Als alternative Kupplungsmethode wird gerade in einer Doktorarbeit die „chiral pool“- Synthese mit Glutaminsäure (101) untersucht, die in die halogenierte Spezies (102) überführt werden soll. Die Kreuzkupplungsreaktion erfolgt durch eine Fe(acac)3 vermittelte Grignard-Reaktion...
Die Konvergenz von Medien, Telekommunikation sowie Informationstechnologie führt zu einer gesteigerten Interaktion zwischen den Computergeräten dieser drei Wirtschaftssektoren. Zugleich steigt die Anzahl mutierender Würmer, Viren und Trojanische Pferde, wie z.B. Varianten der Bagle- und Sober-Würmer oder der Netsky- und MyDoom-Viren, im Tagesrhythmus und bedrohen die Sicherheit von Computerplattformen. Die Daten der Systeme sind daher potenziellen Risiken ausgesetzt. Um dieser steigenden Bedrohung zu entgegnen, entwickelt die industrielle Initiative „Trusted Computing Group“ (TCG), ehemals „Trusted Computing Platform Alliance“ (TCPA), einen Standard, welcher die Sicherheit der verschiedenen Gerätetypen verbessern soll. Abbildung 1 dokumentiert dabei die Sicherheitsmängel, welche durch die verschiedenen Typen der Attacken oder den entdeckten Missbrauch veranschaulicht werden. Speziell Viren und der Missbrauch der Netzwerkzugänge innerhalb des Unternehmens können aus der Abbildung 1 als häufigste Ursache entnommen werden. Verlust des Laptops, nicht autorisierte Zugriffe durch Insider und Denial of Service Angriffe folgen auf den weiteren Plätzen. Die Gesamtkosten der Computerkriminalität sind zwar unter das Niveau vom Jahre 2000 gefallen, speziell von 2002 auf 2003 haben sich diese mehr als halbiert, obwohl seit 1999 besonders die Urheberrechtsverletzungen proprietärer Informationen stetig angestiegen sind. Der Verlust proprietärer Informationen steht mit 21 Prozent nicht direkt im Vordergrund der obigen Abbildung. Allerdings schlägt der Diebstahl von proprietären Informationen mit 35 Prozent der Gesamtkosten der Computerkriminalität zu buche und führt damit die geschätzten Verluste aus Abbildung 2 an. Auf Platz zwei folgen Denial of Service Angriffe, die Kosten von ca. 65,6 Millionen Dollar verursachen. Viren, Missbrauch des Netzes durch Insider sowie finanzieller Betrug folgen auf weiteren Plätzen. In der Studie vom Computer Security Institute werden die Bestrebungen der TCG, vertrauenswürdige Plattformen herzustellen, als mögliche Lösung des Problems des Diebstahls von proprietären Informationen betrachtet. Deren Effekte werden sich voraussichtlich in fünf bis zehn Jahren auf die Computersicherheit bemerkbar machen. Auch das „Federal Bureau of Investigation“ (FBI) hat mittlerweile eine Initiative zusammen mit der Entertainment- und Softwareindustrie gegen den Diebstahl von urheberrechtlich geschütztem Material abgeschlossen, da die Verluste in der Summe mehrere Billionen Dollar verursachen. Die beiden ersten Abbildungen in Verbindung mit dem dazugehörigen Zahlenmaterial belegen die Diskrepanz der TCG. Dazu stützt sich die TCG auf die steigende Anzahl an Attacken und Missbräuche, ohne die geschätzten Verluste der einzelnen Attacken zu berücksichtigen. Gerade die enorme wirtschaftliche Bedeutung von Information und deren Missbrauch offenbart allerdings einen möglichen Antrieb, die Sicherheit bestehender Rechnersysteme zu verbessern. Diese Erkenntnis ist jedoch nicht übereinstimmend mit der Triebkraft der TCG, die ihre Initiative auf die steigende Anzahl an Schwachstellen stützt, um vermutlich ihre eigentlichen Beweggründe zu verschleiern. Ziel dieser Arbeit ist zum einen den technischen Standard der TCG sowie mögliche Umsetzungen vorzustellen und zum anderen die Standardisierung unter ökonomischen Ansichten zu untersuchen, um sie anschließend zu bewerten. Dazu wird im zweiten Kapitel ein erster Einblick über das Standardisierungsgremium, deren Beweggründe sowie den historischen Kontext zwischen TCPA und TCG gegeben. Das dritte Kapitel dient als Grundlage und Einführung in die Informationsökonomie, um die Komplexität und Zusammenhänge hinsichtlich der Standardisierung und abschließenden Bewertung in den folgenden Kapiteln besser zu erfassen. Neben der Technologie und Information spielt die Auswahl der Erlöse in Verbindung mit der Preisdiskriminierung eine wichtige Rolle. Bezüglich der Standardisierung und Bewertung haben Lock-in sowie Wechselkosten erhebliche Auswirkungen auf die Kon-sumenten. Das gilt ebenfalls für die Größenvorteile, vor allem auf die Netzwerkexternalitäten. Die Standardisierung der TCG wird im vierten Kapitel ausführlicher behandelt, wobei Standards definiert, abgegrenzt und klassifiziert werden. Zudem wird die koope-rative Standardisierung in Form einer Allianz sowie die daraus folgende Problematik des Umgangs mit geistigem Eigentum eingegangen. Das fünfte Kapitel geht direkt auf die technischen Spezifikationen der TCG ein, erklärt das Grundkonzept vertrauenswürdiger Plattformen und behandelt als Schwerpunkt die Komponente des „Trusted Platform Modules“ (TPM) sowie dessen Implementierung in einen Computer. Im Anschluss daran werden im sechsten Abschnitt technischen Umsetzungen auf praktische Anwendungen und Szenarien vorgestellt. Dazu werden als Erstes verfügbare Umsetzungen sowie die Hardwarearchitektur am Beispiel von Intel LaGrande dargestellt, worauf die anschließenden Softwareanwendungen unter den beiden Betriebssystemen Windows und Linux aufbauen. Das siebte Kapitel behandelt die Bewertung der kooperativen Standardisierung und zeigt die Zusammenhänge zwischen Hardwarekompatibilität und Netzwerkexternalitäten auf. Darüber hinaus wird die Adoption dieser neuen Technologie unter statischen und dynamischen Ansätzen berechnet und abschließend die Schwächen und Risiken dieser neuen Technologie erläutert.
In dieser Diplomarbeit wurde zunächst eine Einführung in das Gebiet der Unifikationstheorie gegeben, um dann zum Teilgebiet des Kontextmatchings zu kommen. Dieses wurde in das Gesamtgebiet der Unifikation eingeordnet. In Anlehnung an [Schm2003] wurde die Komplexität einiger Einschränkungen des Kontextmatchings betrachtet. Insbesondere wurde ein Algorithmus zur Lösung linearer Kontextmatchingprobleme in polynomieller Zeit vorgestellt. Es folgte die Einführung des Transformationsalgorithmus aus [Schm2003] zur Lösung allgemeiner Kontextmatchingprobleme, wobei nach und nach verbesserte Transformationsregeln für einzelne spezielle Problemsituationen vorgestellt wurden. Über [Schm2003] hinausgehend wurden die Regeln Split: Korrespondierende Lochpfade und Konstantenelimination vorgestellt. Im Rahmen der Diplomarbeit wurden die genannten Algorithmen in der funktionalen Programmiersprache Haskell implementiert, wobei auf eine einfache Erweiterbarkeit um neue Transformationsregeln sowie alternative Heuristiken zur Auswahl der in einem Schritt anzuwendenden Transformationsregel geachtet wurde. Die Implementierung (und damit auch die in ihr implementierten Algorithmen) wurde mit Hilfe von zufällig erzeugten Termen auf ihre Leistungsfähigkeit getestet. Hauptaugenmerk lag dabei darauf, inwiefern sich Regeln, die über die Basisregeln aus Tabelle 3.4.1 hinausgehen, positiv auf die Anzahl der Transformationsschritte auswirken. Das Ergebnis ist beeindruckend: durch die Einführung komplexerer Transformationsregeln ließen sich in unseren Testfällen bis zu 87% der Transformationsschritte einsparen, im Durchschnitt immerhin noch 83%. Speziell komplexere Kontextmatchingprobleme mit einer größeren Anzahl an Kontextvariablen profitieren hiervon. Insbesondere die Erkennung korrespondierender Positionen in Verbindung mit der Regel Split führte zu erheblichen Verbesserungen. Die implementierten Algorithmen zur Erkennung korrespondierender Positionen stellen teilweise nur ein notwendiges Kriterium für die Existenz korrespondierender Löcher dar. Dies kann zu fehlerhaften Erkennungen solcher Positionen führen. Wie sich in unseren Tests zeigte, scheint das jedoch kein gravierendes Problem zu sein, da die entsprechenden Split- Transformationen ohnehin äußerst sparsam eingesetzt werden.
Wir haben ein Softwaresystem entwickelt, das in der Lage ist, Beschreibungen von Termersetzungssystemen höherer Ordnung, deren Reduktionsregeln auf einer strukturellen operationalen Semantik basieren, einzulesen und zu interpretieren. Das System ist dabei fähig, Reduktionskontexte für die Redexsuche zu benutzen, die entweder vom Benutzer definiert werden können oder automatisch anhand der strikten Positionen berechnet werden. Außerdem dürfen Kontexte und spezielle Definitionen für Term-Mengen, die wir Domains nennen, in den Reduktionsregeln verwendet werden. Mit dem resultierenden Reduktionssystem-Format können wir somit nicht nur den „lazy“ Lambda-Kalkül, den Call-by-Value Lambda-Kalkül und verwandte, um Konstruktoren und Fallunterscheidungen erweiterte Kalküle, wie die in Kapitel 4 vorgestellten Kernsprachen KFP und PCF, darstellen, sondern auch den (in Abschnitt 4.3 vorgestellten) Call-by-Need Lambda-Kalkül, welcher sich durch die Verwendung von Kontexten innerhalb der Regeln deutlich von den anderen Kalkülen abhebt. Allerdings hält sich der Call-by-Need Lambda-Kalkül damit nicht an das in Kapitel 5 vorgestellte GDSOS-Format, das u.a. sicherstellt, dass Bisimulation eine Kongruenz ist. Wir haben dabei in Abschnitt 5.3.3 bewiesen, dass sich ein GDSOS-Reduktionssystem in ein äquivalentes strukturiertes Auswertungssystem nach Howe übersetzen lässt. Unser System ist in der Lage, die GDSOS-Bedingungen zu prüfen und gibt eine Warnung aus, falls eine der nötigen Bedingungen nicht erfüllt ist (wobei aus dieser auch gleich der Grund des Verstoßes hervorgeht). Wie wir gesehen haben, ist unser System nicht nur befähigt, die einzelnen Reduktionsschritte für kleinere Bespiele ordnungsgemäß auszuführen, sondern es ist durchaus in der Lage, auch aufwendigere KFP-Ausdrücke, wie in unserem Quicksort- Beispiel, auszuwerten.
The volume changes of lithium and sodium under pressure are discussed with respect to the packing density of the atoms and their valence. In densely packed Li I (bcc), Li II (fcc), and Li III (alpha-Hg ype), valence increases from 1 at ~ 5 GPa to ~ 2.5 at 40 GPa. The maximum valence 3 is attained in Li IV (body-centered cubic, 16 atoms per cell, packing density q = 0.965) at 47 GPa. In densely packed Na I (bcc) a linear increase of valence from 1 at ~ 10 GPa to 2.9 at 65 GPa is found which continues in Na II (fcc) up to 4.1 at 103 GPa.
In der vorliegenden Arbeit ist es gelungen, hinreichend ebene Goldoberflächen als Substrate für Self-assembled Monolayers durch Aufdampfen auf Glimmer herzustellen und herauszuarbeiten, unter welchen Bedingungen sich die Struktur dieser Goldschichten für die Aufbringung der Monolagen verbessern lässt. Hervorzuheben ist hierbei, dass das Erhitzen des Glimmers während des Aufdampfvorgangs die Rauigkeit der Goldoberfläche reduziert. Vier unverzweigte Alkanthiole (HS-C10H20-CH3, HS-C15H30-CH3, HS-C17H34-CH3 und HS-C10H20-COOH) wurden in vier verschiedenen Konzentrationen in Ethanol gelöst und auf das Substrat aufgebracht. Die Thiole unterschieden sich in Kettenlänge (11, 16 und 18 C-Atome) sowie in der Kopfgruppe (CH3 und COOH). Die entstandenen Filme wurden ebenso wie die verwendeten Goldoberflächen mit dem Rasterkraftmikroskop im Tappingmode, im Contactmode und zum Teil im Frictionmode sowie unter Ethanol vermessen. Zwei Spitzen des Rasterkraftmikroskops wurden durch das Aufbringen einer Monolage (HS-C15H30-CH3 und HS-C10H20-COOH) funktionalisiert. Alle Monolagen wurden mit diesen Spitzen vermessen. Die gewonnenen Abbildungen lassen bis zu einem gewissen Punkt Rückschlüsse über die Beschaffenheit der Self-assembled Monolayers und ihre Eigenschaften zu, dies gilt vor allem für die Messungen im Frictionmode und die Abbildungen, die mit funktionalisierten Spitzen erzielt wurden. Da die Monolagen offensichtlich ohne sichtbare Fehlstellen ausgebildet wurden, fällt es schwer, die Abbildung der Filme von denen der Goldoberflächen eindeutig zu unterscheiden, auch wenn die ausgewerteten Linienprofile zeigen, dass die Rauigkeit der Oberfläche durch die Aufbringung von Monolagen verringert wird. Für zukünftige Messungen sollten die Monolagen vor der Vermessung durch Micro-Printing strukturiert werden. Zwischen Monolagen und funktionalisierten Spitzen wurden Kraft-Abstandskurven und Force-Volume-Abbildungen unter Laborbedingungen aufgezeichnet. Die ermittelten Werte liegen um Größenordnungen über den Werten aus der Literatur, was sich durch den auf den Monolagen unterschiedlich starken Wasserfilm, und den daraus resultierend, wirkenden Kapilarkräften bei der Messung erklären lässt. Diese Messungen sollten unter Flüssigkeit wiederholt werden, um aussagekräftige Ergebnisse zu erzielen. Es gelang dennoch durch diese Messungen, die Existenz der Monolagen auf Substrat und Spitze eindeutig nachzuweisen.
Das Ziel der vorliegenden Studie bestand darin, die klinische Bewährung von Kompositfüllungen (Klasse I und II) des Materials Herculite® XRV (Kerr, Karlsruhe, D) im Seitenzahnbereich an einem ausreichend großen Patientenkollektiv (n = 109) mit 176 Füllungen über einen Nachbeobachtungszeitraum von insgesamt 36 Monaten zu untersuchen. Die Füllungsqualitäten wurden in vivo, mittels klinischer Untersuchung, Abformung und intraoraler Fotografie, als auch nach Abformung in vitro, anhand von Replikamodellen nach bestimmten Parametern bewertet. Als klinisch durchgehend akzeptabel kann man die Auswertungen der Anatomischen Form, der Farbanpassung, der Oberfläche und der Oberflächenqualität bezeichnen. Der Gesamtnotendurchschnitt lag hier zwischen 1,35 und 2,18. Materialüberschüsse im Sinne einer positiven Stufe spielten primär in den mesialen und distalen Füllungsarealen eine Rolle. Mesial fand sich ein sprunghafter Anstieg von Note 4-Füllungen von 6,7% (6 Monate) auf 29,4% (36 Monate). Eine analoge Situation zeigte sich im distalen Bereich. Trotzdem lag hier ein klinisch guter Gesamtnotendurchschnitt von 2,11 nach 36 Monaten vor. Gute Gesamtbewertungen erhielten auch die klinischen Parameter des abrasionsbedingten Materialverlustes. Zwar zeigte sich nach 36-monatiger Liegedauer ein Anstieg von Füllungen, die mit der Note 4 bewertet werden mussten; z. B. okklusale Füllungsareale: Hier wiesen nach 18 Monaten nur 2,47% die Note 4 auf, nach 36 Monaten erhöhte sich dieser Prozentsatz auf 15,52%. Die Gesamtdurchschnittsnote (6, 18 und 36 Monate) war aber auch hier mit 1,55 durchaus klinisch akzeptabel. Nach 6 Monaten wurden unabhängig von der Lokalisation noch zwischen 43,3 – 45,9% aller Füllungen mit der Note 1 versehen, d. h. die Füllungsränder als sehr gut eingestuft. Im letzten Untersuchungsintervall (36 Monaten) war der Anteil von Füllungsrändern, die mit "sehr gut" bewertet wurden, zwischen 0,0 – 3,7% gesunken. Es zeigte sich hier eine signifikante Verschlechterung der Füllungsrandsituation, sie sich in der Gesamtnote von 2,53 nach drei Jahren widerspiegelt. Die Randverfärbung wies nach einer Liegedauer von 36 Monaten eine Gesamtnote von 1,71 auf. Auch hier ein Ergebnis, das durchaus klinisch akzeptabel ist. Klinisch inakzeptabel war die Beurteilung des approximalen Kontaktpunktes. Hier war während des gesamten Beobachtungszeitraumes, ein hoher Anteil an Note 4-Bewertungen für den mesialen (bis zu 54,4%) und distalen Kontaktpunkt (bis zu 46,2%) festzustellen. Insgesamt fielen die Beurteilungen des mesialen Kontaktpunktes schlechter aus als die des distalen. Die klinische Untersuchung der Gingiva zeigte bei allen Untersuchungsintervallen (6, 18 und 36 Monaten) gute Ergebnisse. Gingivale Verhältnisse, die mit Note 4 eingestuft werden mussten (starke Entzündungszeichen) fanden in größerer Häufigkeit nach 18-monatiger Liegedauer. Nach 36 Monaten wurde wieder ein Rückgang des Anteils der Note 4-Bewertungen festgestellt. Die Gesamtdurchschnittsnote beträgt 1,47. Die vorliegende Studie belegt die Anwendbarkeit des Kompositmaterials Herculite® XRV (Kerr, Karlsruhe, D) bei Klasse I- und II-Restaurationen im Seitenzahnbereich, dokumentiert aber auch die nach wie vor, noch vorhandenen Problembereiche wie z. B. approximaler Kontaktpunkt, Materialüberschuss. Werden alle Voraussetzungen zur Verarbeitung berücksichtigt, können Komposite im okklusionsgetragenen Bereich ihren Einsatz finden. Allerdings müssen verarbeitungstechnische Parameter wie: - Kavitätendesign, - exakte marginale Adaption, - Kofferdam, - korrekte Anwendung des adäquaten Schmelz-Dentin-Haftvermittlers, - korrekte Applikations- und Polymerisationstechnik, - hygienefähige Verhältnisse und - sehr gute Mundhygiene bzw. Motivation konsequent bei der zahnärztlichen Behandlung berücksichtigt werden. Wenn diese Parameter beim Legen von Kompositfüllungen ihren festen Platz gefunden haben, kann den wenigen, in dieser Studie gefundenen "Problembereichen", erfolgreich entgegengewirkt werden.
The volume changes of solid iodine under pressure are discussed with respect to the packing density of the atoms and to valence. The packing density of solid iodine which is 0.805 under ambient pressure increases to 0.976 in monoatomic iodine-II, 0.993 in iodine-III, and 1 in fcc iodine-IV. Simultaneously, the valence increases from 1 in the free molecule to 1.78 in the crystal structure under ambient pressure, 2.72 – 2.81 in iodine-II, 2.86 – 2.96 in iodine-III, and 3 in fcc iodine-IV. The valence then remains constant up to about 180 GPa and rises moderately to 3.15 at the highest investigated pressure of 276 GPa. Parameters for calculating bond numbers, valences and atomic volumes of densely packed halogens, hydrogen, oxygen, and nitrogen are given.
Mitte März 2003 löste die WHO einen weltweiten Alarm aus, nachdem sich eine neuartige, schwere und unter bestimmten Umständen hochansteckende Atemwegserkrankung scheinbar unaufhaltsam über weite Teile der Welt auszubreiten schien. Am 15. März desselben Jahres landeten die ersten Patienten mit Verdacht auf Schweres Akutes Respiratorisches Syndrom (SARS) in Frankfurt und wurden auf die Isolierstation des Universitätsklinikums aufgenommen. Auslöser war ein zuvor nicht bekanntes Coronavirus, das heute als SARS-CoV bezeichnet wird. Derzeit laufen Untersuchungen zur Biologie und Epidemiologie des neuen Erregers, zu antiviralen Hemmstoffen sowie zu Desinfektions- und Inaktivierungsmöglichkeiten und neuen Therapieoptionen. Daneben wird analysiert, wie sich das öffentliche Gesundheitswesen auf eine mögliche Wiederkehr vorbereiten muss. SARS ist ein Beispiel dafür, wie schnell sich eine Infektionskrankheit in der modernen Welt international ausbreiten kann und wie wichtig in einem solchen Falle eine gut koordinierte internationale Kooperation ist. Frankfurter Forscher berichten.
Ziel der vorliegenden Arbeit ist die Untersuchung der zuvor nicht bekannten Beeinflussung der Aktivität von bestimmten Antibiotika durch unterschiedliche Testnährmedien. Zu diesem Zweck wird die Aktivität von Moxifloxacin, Linezolid, Penicillin G, Oxacillin und Cefuroxim gegen Bakterienisolate der Spezies S. aureus, S. pneumoniae, E. faecalis und E. faecium in Bouillon und Blut getestet. Des Weiteren wird die Aktivität von Moxifloxacin und Linezolid gegen intrazellulär in humanen Granulozyten vorliegende Bakterienisolate der oben genannten Spezies geprüft. Die Ergebnisse und daraus folgende Empfehlungen lauten wie folgt: 1. Moxifloxacin und Linezolid haben eine gute Aktivität gegen die in dieser Studie untersuchten Bakterienisolate, unabhängig von der Empfindlichkeit oder Resistenz dieser Isolate gegen andere Antiinfektiva. Diese neuen Antibiotika könnten somit zur Behandlung von Infektionen mit Erregern der Spezies S. pneumoniae, S. aureus, E. faecalis und E. faecium zum Einsatz kommen. 2. Die Aktivität eines Antibiotikums kann in Bouillon und in Vollblut unterschiedlich sein. Moxifloxacin, Penicillin G und Oxacillin haben in Bouillon eine größere Aktivität als in Vollblut. Die Wirksamkeit von Linezolid und Cefuroxim sind sowohl in Bouillon als auch in Blut etwa vergleichbar. Da der Behandlungserfolg von der Aktivität eines Antibiotikums am Wirkort abhängt, sollte die Aktivität im entsprechenden Nährmedium getestet werden, um einem möglichen Therapieversagen vorzubeugen. 3. Moxifloxacin und Linezolid haben eine Wirksamkeit gegen intrazellulär in Granulozyten vorliegende S. aureus und Enterokokken-Isolate. Deshalb könnten sowohl Moxifloxacin als auch Linezolid für die Therapie von Infektionen mit intrazellulär vorliegenden S. aureus, E. faecalis und E. faecium dienen. Bei Verwendung von Moxifloxacin muss jedoch der intrazelluläre Aktivitätsverlust berücksichtigt werden und daher eine höhere Dosierung verabreicht werden.
In der vorliegenden klinischen Studie wurde der Zusammenhang zwischen Hämatokrit und Mikrozirkulation bei Diabetikern mit und ohne Mikroangiopathie untersucht und in Relation gesetzt zu anderen Risikofaktoren, für die bereits eine Beeinflussung der Mikrozirkulation bei Diabetikern nachgewiesen wurde. Die Untersuchung erfolgte mittels Laser Doppler Fluxmetrie, Laser Doppler Scan und Laser Doppler Anemometrie. Als weiteres Ziel sollten diese erprobten Methoden bezüglich der Aussagekraft für die Fragestellung unserer Studie eingeordnet werden. Es zeigte sich, dass der Hämatokrit signifikant negativ mit der Ruhedurchblutung (für Mean DC: p<0,01, β = -0,411) der Hand und des Fußes (für Mean Flux: p<0,001, β=-0,531; für Mean DC: p<0,05, β= -0,359) korreliert. Dieser Einfluss lässt sich mit dem Laser Doppler Scan am Besten nachweisen. Eine signifikant positive Korrelation (p<0,05, β= 0,284) des Hämatokrits mit der Dauer der Hyperämie gemessen an der Hand besteht in der Laser Doppler Fluxmetrie, jedoch nicht in der Anemometrie. Die These, dass ein höherer Hämatokrit zu einer schlechteren Mikrozirku-lation beiträgt, wird durch eine höchst signifikante negative Korrelation der Zeit bis zum Erreichen der Maximalgeschwindigkeit mit dem Hämatokrit (p<0,001, β= -0,497) in Frage gestellt. Ob dieses Ergebnis tatsächlich neue Erkenntnisse bringt oder durch Begleitumstände beeinflusst wurde, sollte in weiteren Untersuchungen geklärt werden. Auch im Vergleich mit anderen Risikofaktoren findet sich der starke Einfluss des Hämatokrit vor allem auf die Ruhedurchblutung. Für die Dauer der Hyperämie in der Single Point Messung zeigt sich ebenfalls ein großer Einfluss von Laktatdehydrogenase (LDH) und Body Mass Index (BMI) (LDH: β= -0,311, BMI: β= -0,310, p<0,05). Unsere Ergebnisse stärken die Vermutung, dass multifaktorielle Ursachen für Änderungen der Mikrozirkulation verantwortlich sind. Der Hämatokrit spielt hierbei eine wichtige Rolle, mit der man sich weiterhin befassen und in größer angelegten Studien unter Ausschluss von Beeinflussung durch andere Variablen noch genauer untersuchen sollte. Bezüglich der beiden Messverfahren Anemometrie und Laser Doppler Fluxmetrie bleibt festzuhalten, dass es sich um ergänzende Methoden handelt. Der Laser Doppler Image Scan ist als Standardmethode für die Erfassung der Ruhedurchblutung anzusehen, während die Fluxmetrie und die Anemometrie beide verlässlich mit Provokationstests anzuwenden sind. Sie messen in verschiedenen Ebenen des Kapillarsystems und produzieren dadurch unterschiedliche Ergebnisse. Es konnte in der vorliegenden Studie nachgewiesen werden, dass ein deutlicher Einfluss des Hämatokrits auf die Mikrozirkulation besteht. Um aus unseren Ergebnissen klinische Konsequenzen für die Behandlung von Diabetikern zu ziehen, muss man sich vor allem der Frage des Zusammenhanges auf Höhe des nutritiven Kapillarsystems ausführlicher widmen und die Ursache der Veränderungen der Time to Peak in weiteren Studien abklären.
Installment Optionen
(2004)
Die vorliegende Arbeit beschäftigt sich im Wesentlichen mit Installment Optionen und deren Bewertung und Hedgemöglichkeiten. Installment Optionen werden vor allem im internationalen Treasurymanagement eingesetzt und dienen der Absicherung von Wechselkursrisiken. Die Besonderheit besteht darin, daß ein Konzern die Optionsprämie über mehrere Zeitpunkte aufteilen kann, zu denen er jeweils entscheidet, ob die Absicherung überhaupt noch benötigt wird. Dies könnte unter Umständen nicht mehr der Fall sein, wenn das zugrunde liegende internationale Geschäft des Konzerns wider Erwarten nicht zustande gekommen ist. Der exakte Wert einer Installment Option im Black-Scholes Modell besteht aus einem Ausdruck von Mehrfachintegralen, wohingegen die Anwendung verschiedener Bewertungsmethoden auf diesen approximierte Werte liefert. Die Untersuchung des Verhaltens mehrerer bekannter Methoden und die Entwicklung einer neuen Bewertungsformel für Installment Option ist Inhalt dieser Arbeit. Weiterhin wird die kontinuierliche Version der Installment Option betrachtet und für diese ein neuer Hedge bewiesen.
In Publikationen zur Frauenliteratur der Weimarer Zeit finden sich, direkt oder mittelbar formuliert, zwei Thesen: Dass zum einen die politisch engagierte Frau in den Romanen eine selten anzutreffende Figur sei und dass zum anderen die Schriftstellerinnen jener Zeit sich politisch eher rückwärtsgewandt verhalten und geäußert hätten. In einer differenzierten Untersuchung wird mit einer Fülle von Beispielen belegt, dass tatsächlich aber vom Ersten Weltkrieg bis zum Ende der Republik zahlreiche Schriftstellerinnen die politischen Vorkommnisse beobachteten, direkt kommentierten oder literarisch ausgestalteten. Den Begriff „rückwärts gewandt“ problematisierend wird erläutert, dass diese Einstufung weder ohne weiteres bestätigt noch verneint werden kann, da Wertbegriffe wie „fortschrittlich“ oder „reaktionär“ nicht eindeutig und zweifelsfrei definiert werden können.