Refine
Year of publication
- 2010 (1747) (remove)
Document Type
- Article (567)
- Doctoral Thesis (276)
- Part of Periodical (216)
- Part of a Book (208)
- Contribution to a Periodical (144)
- Review (117)
- Book (88)
- Report (37)
- Working Paper (37)
- Conference Proceeding (12)
Language
- German (1747) (remove)
Has Fulltext
- yes (1747) (remove)
Keywords
- Filmmusik (95)
- Deutsch (64)
- Literatur (39)
- Rilke, Rainer Maria (36)
- Rezension (22)
- Deutschunterricht (21)
- Übersetzung (21)
- Film (18)
- Fremdsprachenlernen (17)
- Rezeption (16)
Institute
- Präsidium (235)
- Medizin (177)
- Extern (149)
- Gesellschaftswissenschaften (71)
- Geschichtswissenschaften (46)
- Biowissenschaften (43)
- Biochemie und Chemie (39)
- Kulturwissenschaften (38)
- Rechtswissenschaft (32)
- Pharmazie (27)
In dieser Arbeit geht es um eine theaterwissenschaftliche Analyse ausgewählter Stücke des Theaterregisseurs und Autors René Pollesch. Bei den Stücken handelt es sich um die Heidi Hoh-Trilogie (1999-2001), Insourcing des Zuhause (2001), Der Leopard von Singapur (2003) und Cappuccetto Rosso (2005). Die Sujets und Stilmerkmale des Theaters von Pollesch werden dabei mittels der Theorien des Philosophen Jacques Rancière als Elemente eines politischen Theaters interpretiert, dem es wesentlich darum geht, alle Formen der Regelhaftigkeit, der symbolischen Ordnung oder der etablierten Sichtbarkeit durch Unterbrechung der Regel, Aufhebung der Ordnung, Sichtbarmachung des Unsichtbaren oder Verstimmlichen des Stimmlosen, aber auch durch Formen einer subversiven Wiederholung und Aneignung kritisierter Sicht- und Sprechweisen zu provozieren. Um das Politische bei Pollesch zu erkunden, werden Rancières Theorietexte „angewandt", indem sie während der analytischen Betrachtung der Pollesch-Abende in ästhetische Strategien umgewandelt werden. Dies geschieht auf drei Ebenen: 1: Darstellungsform, 2: Arbeitsweise, 3: Die auf der Bühne sichtbar agierenden Subjekte. Rancière erscheint mit seinem Konzept einer gegebenen gesellschaftlichen Ordnung als „Aufteilung des Sinnlichen" ideal geeignet, um das Politische auf eben diese drei genannten Ebenen aufzuspüren. Sein Modell von Politik, so zeigt diese Arbeit, erlaubt damit die ästhetische Praxis René Polleschs auf verschiedenen Ebenen als politisch zu kennzeichnen, aber es führt auch auf einige Aporien, denen diese Praxis gerade in ihrem politischen Anspruch ausgeliefert ist.
Lorenz von Stein und die Französische Revolution : Zeitgeschichte als Theorie der Gesellschaft
(2010)
Dynamische Proteininteraktionen sind die Grundlage biologischer Prozesse, ihr korrekter Ablauf ist essentiell für die intakte Physiologie aller Organismen. Die Aufklärung der Struktur und Funktion von Proteinen inklusive ihrer komplexen Interaktionen, ist entscheidend für das Verständnis biologischer Prozesse. Methoden zur Untersuchung von Protein-Interaktionen sind in der Regel auf die Modifikation von Proteinen angewiesen. Zum Einen ist die selektive Markierung von Proteinen mit spektroskopischen Sonden – insbesondere mit Fluorophoren – ein wichtiger Ansatz zur in vivo und in vitro Interaktionsanalyse. Zum Anderen gewinnen festphasenbasierte Analysemethoden zunehmend an Bedeutung. Multivalente Chelatoren (MCH) bieten vielseitige Möglichkeiten, rekombinante Proteine reversibel an spektroskopische Sonden oder Oberflächen anzubinden und haben dadurch ein enormes Potential für Anwendungen zur funktionalen Charakterisierung von Proteinen. Ziel dieser Arbeit war es, die Energetik und Dynamik der Interaktion von MCH mit Oligohistidinen zu charakterisieren, um diese insbesondere zur Organisation von Proteinen in Mikro- und Nanostrukturen einzusetzen. Die Interaktion der MCH mit Histidin-Tags unterschiedlicher Länge und Sequenz wurde in Lösung und an Oberflächen charakterisiert. Es zeigte sich, dass die zunehmende Länge und die Redundanz auf Seiten des Histidin-Tags in einer erhöhten Affinität resultierten. Das Einführen einzelner Spacer-Aminosäuren resultierte hingegen in einer drastischen Reduktion der Komplexstabilität. Ein Alanin-Scanning zeigte, dass vor allem die zentralen Histidine besonders wichtig für eine stabile Bindung sind. Dieser Effekt lässt sich dadurch erklären, dass es sich bei der MCH-Oligohistidin-Interaktion um einen äußerst dynamischen Prozess handelt, bei dem die Metallkoordinationsstellen mit ständig wechselnden Histidinen interagieren. Diese Permutation erhöht die Entropie des Komplexes, und ist somit Grund für die erhöhte Affinität mit steigender Redundanz des Histidin-Tags. Anhand von Chelator-Dichte-Arrays konnte gezeigt werden, dass die Stabilität der Bindung von Histidin-getagten Proteinen nicht nur mit der Multivalenz der Chelatoren, sondern auch mit der MCH-Dichte ansteigt. In Kompetitionsexperimenten mit Hexa- und Dekahistidinen auf den MCH-Dichte-Arrays wurden veränderte Stabilitäten beobachtet. Die Stabilität von H6 ver5. veringert sich in Anwesenheit von H10, wobei sich die scheinbare Affinität von H10 in Anwesenheit von H6 erhöht. Dies wird auf die gleichzeitige Interaktion mit verschiedenen MCH-Molekülen auf der Oberfläche, die Oberflächenmultivalenz, zurückgeführt. Um diesen Effekt anhand von MCHMolekülen mit definiertem Abstand zu untersuchen, wurde ein Tris-NTABiotin-Konjugat (BTTris-NTA) hergestellt und auf Streptavidin-Oberflächen bzw. fluoreszenzmarkiertem Streptavidin eingesetzt. Echtzeit TIRFS-RIf-Kompetitionsexperimente zeigten eine veränderte Bindungskinetik für H6 in Anwesenheit von H10, welche darauf zurückzuführen ist, dass H6 aktiv durch H10 verdrängt wird. Dieser Effekt ist offenbar auf die dynamische Interaktion des Oligohistidins mit multiplen Chelatoren auf der Oberfläche zurückzuführen, welche den aktiven Austausch von H6 gegen H10 ermöglicht. Sowohl auf Oberflächen als auch in Lösung wurden für die Interaktion von Streptavidin-gebundenem BTTris-NTA mit Oligohistidinen um Faktor 3-5 erhöhte Affinitäten, im Vergleich zu freiem Tris-NTA, festgestellt. Interaktionsanalysen in Lösung zeigten maximale Komplex-Stöchiometrien von 1:2 für die Interaktion von Streptavidin-BTTris-NTA mit Oligohistidinen. Diese Stöchiometrien sowie die erhöhte Affinität lassen sich durch die gleichzeitige Interaktion von zwei benachbarten an Streptavidin gebundenen BTTris-NTA-Molekülen mit einem Oligohistidin erklären. Die räumliche Nähe der Tris-NTA-Moleküle erhöht die Redundanz auf Seiten des Chelators, was sich wiederum positiv auf die Entropie auswirkt und damit zu einer erhöhten Affinität führt. Diese Ergebnisse bestätigen den postulierten Effekt der Oberflächenmultivalenz. Es wurde gezeigt, dass BTTris-NTA die reversible Biotinylierung Histidingetagter Proteine ermöglicht, und damit eine Brücke zwischen den zwei am meisten eingesetzten Werkzeugen der Biochemie, dem Histidin-Tag und dem Biotin-(Strept)Avidin-System, schlägt. BTTris-NTA findet in verschiedenen Bereichen Anwendung: zur Umwandlung kommerzieller (Strept)Avidin-Oberflächen in Tris-NTA-Oberflächen, in Phage-Display-Screenings und Western Blot Analysen sowie zur Markierung von Rezeptoren auf Zelloberflächen. Die Biotinylierung über BTTris-NTA ermöglicht es zudem, auch Proteine geringer Konzentrationen (<10 nM) effizient auf Streptavidinoberflächen zu immobilisieren. Diese Selbstassemblierung Histidin-getagter Proteine wurde zur Organisation von Proteinen auf Oberflächen in Mikro- bis Nanometer-Dimensionen genutzt.
Tauopathien sind eine Gruppe von neurodegenerativen Erkrankungen zu denen auch die Alzheimer Demenz zählt, die als gemeinsames pathologisches Merkmal die intrazelluläre Akkumulation von neurofibrillären Bündeln (NFTs) aufweisen. Diese bestehen aus hyperphosphoryliertem Tau-Protein, das hierdurch seine physiologische Funktion, die Assemblierung von Mikrotubuli zu fördern und diese zu stabilisieren, verliert. Der genaue Mechanismus, der bei diesen Erkrankungen zur Neurodegeneration führt und mit Demenz, Parkinsonismus und motorischen Störungen einhergehen kann, ist bisher weitgehend ungeklärt. Da mitochondriale Dysfunktion bei vielen neurodegenerativen Erkrankungen eine entscheidende Rolle spielt, wurde in der vorliegenden Arbeit anhand eines Zellmodells zum Einen der Effekt durch die Überexpression von gesundem Wildtyp-Tau (hTau40) und zum Anderen die Auswirkungen der P301L-Mutation, wie sie auch bei der frontotemporalen Demenz mit Parkinsonismus (FTDP-17) auftritt, auf die mitochondriale Morphologie und Funktion untersucht. Die grundlegende Charakterisierung deckte eine weitreichende Einflussnahme von Tau auf den Energiestoffwechsel der Zellen auf. Die Überexpression von Tau führt zu einer verminderten Expression der Komplexe I, II und IV sowie einer veränderten Aktivität der mitochondrialen Atmungskettenkomplexe I-III. Zudem weist die verminderte Aktivität der Citrat-Synthase auf eine Beeinträchtigung des Citratzyklus hin. Der maßgebliche Unterschied zwischen den Tau überexprimierenden Zellen besteht in dem deutlich erniedrigtem Gehalt (NADH:HAR-Aktivität) und der drastisch erniedrigten Aktivität (NADH:DBQ-Aktivität) von Komplex I in den TauP301L-Zellen, wohingegen die hTau40-Zellen trotz eines vermindertem Gehalts im Vergleich zu den Kontroll-Zellen eine deutlich erhöhte Aktivität (DBQ/HAR-Aktivität) aufweisen. Diese gegensätzliche Aktivität von Komplex I führt zu weitreichenden Veränderungen der Zellphysiologie, was sich am deutlichsten in der daraus resultierenden metabolischen Aktivität (NADH-Spiegeln), den ATP-Spiegeln und dem mitochondrialen Membranpotential zeigt. Diese Parameter sind in den hTau40-Zellen aufgrund der hohen Komplex I-Aktivität erhöht und in den TauP301L-Zellen entsprechend erniedrigt. Ebenso spiegeln sich diese funktionellen Parameter in der veränderten Morphologie, Dynamik sowie der Ultrastruktur der Mitochondrien wieder. Die Cristae-Struktur sowie die Dichte der Matrix lassen eindeutige Rückschlüsse auf die aus den unterschiedlichen Komplex I-Aktivitäten resultierenden ATP-Spiegel zu. Weiterhin gibt es in der Literatur Hinweise, dass zum Einen die Transportrichtung der Mitochondrien von der Affinität der Motormoleküle von dem ATP-Gehalt der Mitochondrien abhängig zu sein scheint und zum Anderen, dass die Hemmung von Komplex I zu einem retrograden Transport und perinukleären Morphologie der Mitochondrien führt. Dies konnte ebenfall in den TauP301L-Zellen gezeigt werden. Zusätzlich sind hier die mitochondriale Bewegung sowie die Dynamik (Fusion und Fission) verringert. Interessanterweise spiegeln viele der funktionellen und strukturellen Veränderungen der TauP301L-Zellen den Alterungsprozess wieder, da es im Alter zu einer erhöhten Rate an oxidativen mtDNA-Schäden, einer verminderten Aktivität von Komplex I sowie zu einer verringerten Effektivität und Kapazität der oxidativen Phosphorylierung kommt, die in niedrigeren ATP-Spiegeln resultiert. Anhaltspunkte aus der Literatur bringen auch die morphologischen und dynamischen Veränderungen der Mitochondrien mit dem Alterungsprozess in Verbindung, wodurch das in dieser Arbeit verwendete Zellmodell anscheinend den Alterungsprozess widerspiegelt, der bei vielen neurodegenerativen Erkrankungen den Hauptrisikofaktor für die Erkrankung darstellt. Die Mutation P301L führt weiterhin dazu, dass die Zellen eine erhöhte Vulnerabilität gegenüber sekundären Insulten aufweisen. Obwohl die Toxizität der einzelnen Stimuli – seien es nun Inhibitoren der einzelnen Atmungskettenkomplexe oder oxidativer sowie nitrosativer Stress – sich unterschiedlich auf die gemessenen physiologischen Parameter der Zellen auswirkte, so zeigt sich durchgängig bei den TauP301L-Zellen ein stärkerer Abfall der metabolischen Aktivität und der ATP-Spiegel. Zudem führte die Überexpression von hTau40 zu einer geringeren Vulnerabilität gegenüber den sekundären Insulten. Trotz der geringen Auswirkungen von oligomerem und fibrillärem Aß1-42 auf die mitochondriale Funktion der SH-SY5Y Zellen kann nicht ausgeschlossen werden, dass in vivo nicht doch ein Teufelskreislauf besteht, sodass sich die Toxizität von Aß und Tau potenziert. Insgesamt machen die Ergebnisse dieser Arbeit deutlich, dass mitochondriale Dysfunktion auch bei Tauopathien eine entscheidende Rolle in der Pathogenese spielt und sich hierdurch neue Aspekte zur therapeutischen Intervention ergeben.
Teerfleckenpilze (Ascomycota, Phyllachorales) kommen weltweit vor, haben aber einen deutlichen Verbreitungsschwerpunkt in den Tropen. In dieser Studie wird die Diversität der Phyllachorales in Panama untersucht und taxonomische Grundlagenforschung durch molekulare Untersuchungen und ökologische Beobachtungen ergänzt. Arten der Phyllachorales bilden schwarz glänzende Flecken oder Krusten auf Blättern und Stängeln von Pflanzen. Die Fruchtkörper dieser Mikropilze sind meistens in das Wirtsgewebe eingesenkt, können aber auch oberflächlich angelegt sein. Die Größe der teerfleckenähnlichen Infektionen variiert zwischen 0,2 mm bis zu mehreren Zentimetern. Teerfleckenpilze mit eingesenkten Fruchtkörpern entwickeln in den meisten Fällen schildförmige, epidermale Deckstrukturen oberund/oder unterhalb der Perithecien. Die unitunicaten Asci können einen kleinen apikalen Ring besitzen, der sich in Jodlösung nicht blau färbt. Die hyaline Ascosporen sind meistens glatt und können von einer schleimigen Hülle umgeben sein. Die assoziierten Andromorphstadien sind durch fadenförmige Spermatien gekennzeichnet. Nur wenige morphologische Merkmale werden als verlässlich betrachtet und stehen für die Bestimmung von Arten zur Verfügung. Derzeit sind 1.226 Arten von Phyllachorales weltweit beschrieben. Puerto Rico gilt als eines der am besten untersuchten Länder in Bezug auf Teerfleckenpilze. Ungefähr 100 Arten sind derzeit von Puerto Rico bekannt, weitere Erstnachweise werden erwartet. Im Gegensatz dazu wurden in Panama bisher nur wenige mykologische Untersuchungen durchgeführt. Zwischen 1927 und 1991 wurden nur 39 Teerfleckenpilze nachgewiesen, obwohl die Landfläche Panamas achtmal größer ist als die von Puerto Rico und eine fast viermal höhere Pflanzendiversität aufweist. Aufgrund der Vielzahl potentieller neuer Wirtspflanzen in Panama und des von Teerfleckenpilzen bevorzugten tropischen Klimas wird eine weitaus höhere Anzahl an Arten der Phyllachorales erwartet. Zwischen 2005 und 2008 wurden mehreren Exkursionen in den Provinzen Bocas del Toro und Chiriquí durchgeführt, um die tatsächliche Diversität pflanzenparasitischer Mikropilze in Panama zu untersuchen. Über 1.000 Belege wurden von insgesamt vier Wissenschaftlern während 7 Sammelreisen von jeweils 2‐4 Wochen gesammelt. 185 Belege zeigen mehr oder weniger deutliche Symptome von Teerfleckenkrankheit und entsprechen 42 Arten der Phyllachorales, die bisher noch nicht für Panama bekannt sind. 81 Teerfleckenpilze aus Panama werden in dieser Arbeit mit detaillierten Beschreibungen, Zeichnungen und Fotos vorgestellt. Von den 66 bis zur Art bestimmten Phyllachorales werden 27 erstmalig für Panama, 19 für Zentralamerika und 3 für die Neue Welt genannt. Die Erstnachweise von Camarotella costaricensis, Coccodiella miconiicola, Ophiodothella galophila, Phyllachora amphibola, Ph. engleri und Ph. zanthoxylicola wurden bereits vorab publiziert. 21 Arten werden hier zum ersten Mal vorgestellt: Catacauma paramoense, Coccodiella miconiae, Ophiodothella cuervoi, Phyllachora acaciae subsp. pusaethae, Ph. acalyphae, Ph. araliarum, Ph. balansae, Ph. buddleiae, Ph. cynodontis, Ph. galavisii, Ph. gouaniae, Ph. leeae, Ph. meliosmae, Ph. microtheles, Ph. ocoteae, Ph. paraguaya, Ph. phyllanthophila var. phyllanthophila, Ph. puncta subsp. dalbergiicola, Ph. ruelliae, Ph. serjaniae und Ph. smilacicola. Zusätzlich konnte erstmals der Hyperparasit Perizomella inquinans auf Ph. ocoteae für Panama und der Teerfleckenpilz Ph. guazumae für Costa Rica nachgewiesen werden. Von den 15 bisher noch unbestimmten Teerfleckenpilzen sind 9 Arten der Gattungen Camarotella und Phyllachora wahrscheinlich neu für die Wissenschaft und 6 Arten müssen bis zur Bestimmung noch weiter untersucht werden. 10 Taxa wurden aufgrund von Synonymisierung, Zitierungsfehlern oder mangelhaftem Material ausgeschlossen. Für eine sichere Bestimmung der Arten aus Panama wurden alle weltweit bekannten Teerfleckenpilze auf nah verwandten Wirtspflanzen miteinander verglichen. Dazu wurden intensive Literaturrecherche und detaillierte lichtmikroskopische Studien durchgeführt. 190 Typen und autoritative Belege wurden zusätzlich aus 22 Herbarien weltweit ausgeliehen und untersucht. Dabei wurden einige Gruppen von Teerfleckenpilzen auf bestimmten Wirtsfamilien teilweise überarbeitet und Schlüssel für die Bestimmung der jeweiligen Arten erstellt. Ein Vergleich der charakteristischen Merkmale wird als tabellarische Übersicht in den Anmerkungen vorgestellt. Aufgrund der intensiven taxonomischen Arbeit konnten 7 neue Synonyme aufgedeckt werden. Catacauma contractum ist ein Synonym von Ph. gouaniae, Ph. clypeata von Ph. paraguaya, Ph. insueta von Ph. serjaniae, Ph. paulliniae von Ph. galavisii und Ph. swieteniae von Ph. balansae. Für Ph. roureae werden gleich zwei neue Synonyme vorgeschlagen, Ph. connari und Ph. panamensis. Einige der untersuchten Herbarbelege waren nur bruchstückhaft vorhanden oder in sehr schlechtem Zustand. Viele Belege konnten aufgrund mangelnder Informationen nicht gefunden oder wegen sehr langen Lieferungszeiten oder fehlender Kooperationen noch nicht untersucht werden. Die Erstbeschreibungen vieler Arten in der Literatur sind lückenhaft und für die wenigsten Arten sind Abbildungen vorhanden. Dadurch ist eine sichere Artbestimmung ohne Untersuchung des zugehörigen Herbarmaterials oft unmöglich. In dieser Arbeit werden alle 81 untersuchten Teerfleckenpilze mit detaillierten Beschreibungen, Zeichnungen und Fotografien dargestellt, um zukünftige Bestimmungsarbeiten zu erleichtern. 16 Teerfleckenpilze wurden im Rahmen dieser Arbeit zum ersten Mal illustriert: Catacauma paramoense, Ophiodothella cuervoi, O. galophila, Phyllachora acaciae var. enterolobii, Ph. acalyphae, Ph. araliarum, Ph. bonariensis, Ph. engleri, Ph. galavisii, Ph. leeae, Ph. meliosmae, Ph. ocoteae, Ph. ruelliae, Ph. smilacicola, Ph. verbesinae und Polystigma pusillum. Darüber hinaus wurden Ph. acaciae subsp. pusaethae, Ph. cecropiae, Ph. leptochloae, Ph. puncta subsp. dalbergiicola und Ph. weirii in ihrer Darstellung vervollständigt. Für einige Arten werden bislang unveröffentlichte morphologische Merkmale vorgestellt, z.B. chondroide Hyphen, Schleimhüllen oder Andromorphstadien, und die mögliche Verwendung dieser Merkmale zur Artabgrenzung diskutiert. Zusätzlich zu den morphologischen Merkmalen werden molekulare Daten hinzugezogen. Zu Beginn dieser Arbeit standen Sequenzen von nur acht verschiedenen Arten der Phyllachorales s.str. zur Verfügung, davon 3 aus der Gattung Phyllachora. Aufgrund der Tatsache, dass Arten der Phyllachorales auf lebendes Pflanzenmaterial angewiesen sind, ist es bisher noch nicht gelungen, diese Pilze in Kultur zu halten. Die Isolation von DNA‐Material aus eigenen Herbarbelegen oder von auf Silicagel getrockneten Proben erwies sich als wenig erfolgreich. Es war notwendig, das frisch gesammelte Material direkt vor Ort in Panama zu verarbeiten. Die Extraktion von reinem und geeignetem Pilzgewebe stellte sich aufgrund der sehr geringen Fruchtkörpergröße und der engen Anhaftung an das Pflanzengewebe als sehr mühsam dar. Trotzdem wurden 10 neue DNA‐Sequenzen, die jeweils für die kleine bzw. große ribosomale Untereinheit kodieren, von 7 Teerfleckenpilzen, Coccodiella miconiae, Coccodiella sp., Phyllachora engleri, Ph. graminis, Ph. leeae, Ph. ulei und Ph. zanthoxylicola, auf 10 verschiedenen Wirtspflanzen erfolgreich isoliert. Erste molekulare Untersuchungen mittels Maximum Likelihood, Maximum Parsimony und Bayesianischer Analyse eines kombinierten Datensatzes unterstützen die Zugehörigkeit der Phyllachorales zur Unterklasse Sordariomycetidae und deuten auf eine paraphyletische Entwicklung der Gattung Phyllachora hin. Die Typusart, Phyllachora graminis, könnte mit Arten der Gattung Coccodiella enger verwandt sein als mit anderen Arten der Gattung Phyllachora. Bisher fehlen aber noch entsprechende morphologische Merkmale die diese These unterstützen. Weitere Untersuchungen mit einem erweiterten Datensatz sollten unternommen werden. Aufgrund der biotrophen Lebensweise und der damit verbundenen engen Anpassung an die jeweilige Wirtspflanze wird eine hohe Spezifität der Teerfleckenpilze angenommen. Die Identifikation der Wirtspflanze bildet daher eine wichtige Grundlage bei der Bestimmung des Pilzes. Durch die Abwesenheit fertiler Strukturen, wie Blüten und Früchte, wurde eine eindeutige Bestimmung oft erschwert. Pflanzenspezialisten, Fachliteratur, Herbarmaterial und Internetdatenbanken wurden hinzugezogen, um eine möglichst genaue Bestimmung der Wirtspflanzen zu erreichen. Die 81 für Panama vorgestellten Teerfleckenpilze parasitierten auf ungefähr 93 verschiedenen Wirten aus 72 Gattungen und 43 Pflanzenfamilien. 73 Wirtspflanzen wurden bis zur Art bestimmt, 20 können mit Gattungsnamen angesprochen werden und sind von den bisher bestimmten Arten sicher verschieden. 5 Arten sind derzeit noch gänzlich unbestimmt. Von den 73 vollständig bestimmten Pflanzenarten werden 29 zum ersten Mal als Wirte für den entsprechenden Parasiten vorgestellt: Acalypha diversifolia für Phyllachora acalyphae, Anthurium concinnatum für Phyllachora engleri, Buddleja nitida für Phyllachora buddleiae, Cissus trianae für Phyllachora leeae, Croton draco und Croton hirtus für Phyllachora tragiae, Dalbergia brownei für Phyllachora puncta subsp. dalbergiicola, Dichanthelium acuminatum und Dichanthelium viscidellum für Phyllachora bonariensis Speg., Dicliptera iopus für Phyllachora ruelliae, Dioscorea trifida und Dioscorea urophylla für Phyllachora ulei, Entada polystachya für Phyllachora acaciae subsp. pusaethae, Inga punctata und Inga sierrae für Phyllachora amphibola, Luehea seemannii für Phyllachora paraguaya, Ocotea veraguensis für Phyllachora ocoteae, Oreopanax xalapensis für Phyllachora araliarum, Ossaea micrantha für Coccodiella miconiicola, Paspalum paniculatum und P. pilosum für Phyllachora paspalicola, Paullinia bracteosa für Phyllachora galavisii, Phyllanthus anisolobus für Phyllachora phyllanthophila var. phyllanthophila, Serjania atrolineata für Phyllachora serjaniicola, Serjania mexicana für Phyllachora serjaniae, Vaccinium floribundum für Catacauma paramoense und Ophiodothella cuervoi, Xylosma flexuosa für Trabutia xylosmae und Zanthoxylum melanostictum für Phyllachora zanthoxylicola. Teilweise wurden diese Erstnachweise schon vorab publiziert. Arten der Familien Fabaceae, Melastomataceae und Poaceae sind besonders häufig mit Teerfleckenpilzen infiziert und scheinen bevorzugte Wirtspflanzen für Arten der Phyllachorales zu sein. Für ökologische Studien wurden bestimmte Teerfleckenpilze an ausgesuchten Standorten wiederholt zu verschiedenen Jahreszeiten gesammelt und untersucht. Dabei zeigte sich, dass Arten der Ordnung Phyllachorales in zwei Habitaten besonders häufig anzutreffen sind: (1) in offenen, gestörten Gebieten mit Ruderalvegetation und deutlicher Trockenperiode sowie (2) in dichten, ungestörten Bergregenwäldern mit hoher relativer Luftfeuchtigkeit und kontinuierlichem Niederschlag. Eine hohe Pflanzendiversität korreliert nicht mit einer hohen Diversität an Teerfleckenpilzen. Vergleichende Untersuchungen zeigten, dass das Vorkommen von Arten der Phyllachorales wahrscheinlich stärker vom Vorkommen und der Dichte bevorzugter Wirtspflanzen abhängt als von ökologischen Faktoren wie z.B. Vegetationstyp, Höhenlage, relativer Lichtintensität, durchschnittlichem Jahresniederschlag oder jahreszeitlicher Temperaturentwicklung. Die in dieser Studie vorgestellten Teerfleckenpilze stammen aus nur 5 von 12 Provinzen Panamas: Bocas del Toro und Chiriquí im Westen sowie Colón, Kuna Yala und Panamá im Zentrum des Landes. Mithilfe einer Datenbank wurde eine Vielzahl verfügbarer Literaturdaten mit Internet‐Datensätzen ergänzt und daraus eine Verbreitungskarte von Arten der Phyllachorales in der Welt erstellt. Für viele Länder sind nur wenige oder gar keine Teerfleckenpilze bekannt. Das lückenhafte Vorkommen in Panama und anderen Ländern der Welt entspricht aber keinesfalls der natürlichen Verbreitung dieser Pilze, sondern gibt die unterschiedliche Intensität von Forschungsaktivitäten in Bezug auf die Teerfleckenpilze wieder. Weitere Erstnachweise und neue Arten der Ordnung Phyllachorales werden für Panama und die Welt erwartet, denn unser Wissenstand über diese Gruppe ist sehr lückenhaft und weite Gebiete sind bislang noch unzureichend untersucht.
Die beiden untersuchten Texte, Sophokles' Antigone und Gorgias von Platon, wurden in dieser Arbeit als Momentaufnahmen für verschiedene Formen, Gerechtigkeit im 5. und 4. Jahrhundert v. u. Z. zu denken, interpretiert, um so einen möglichst authentischen Eindruck von Gerechtigkeit zu jener Zeit zu erhalten. Die Methode der Begriffsgeschichte hatte vorgegeben, dass beide Texte zunächst unabhängig von einander untersucht und die Ergebnisse anschließend zusammengeführt werden sollten. In der Analyse fächerten die Quellen zunächst jeweils in sich ein breites Spektrum unterschiedlicher Auffassungen von Gerechtigkeit auf, die Verbindung beider Betrachtungen machte darüber hinaus Strukturen von Ähnlichkeit und Differenz sichtbar. Daraus ergab sich ein Schema, das die sehr unterschiedlichen Aspekte als verschiedene Eckpunkte eines Prozesses verstehbar machte, der vor dem Hintergrund des in der Einleitung gegebenen historischen Kontextes interpretiert werden konnte. In der Einführung wurde bald deutlich, dass die verschiedenen Vorstellungen von Gerechtigkeit immer auch die Themenkomplexe von Ethik und Moral, von Wahrheit und Wirklichkeit mit einschließen mussten. Mit Victor Ehrenberg ließ sich die Überlegung zu Gerechtigkeit in dem größeren Kontext des Bedeutungswandels von Themis über Dike zu Nomos verstehen. Diese erste Begriffsgeschichte des Konzepts „Gerechtigkeit“ bereitete die Analyse von Gerechtigkeit in den Quellen vor. Das Untersuchungsfeld konnte damit für den Zeitraum der Quellen auf den Begriff des „Nomos“ eingrenzt werden. Dass das besondere Spannungsverhältnis von Nomos und Physis bis in die unterschiedlichen in den Quellen vertretenen Positionen der Gerechtigkeit hineinwirken musste, zeigte sich dann später in der Quellenanalyse. ...
Im Mittelpunkt dieser Arbeit steht eine Untersuchung zum internationalen Talent-austausch, zur Mobilität und zur Ausbildung von medizinischen und natur-wissenschaftlichen Hochschulabsolventinnen und -absolventen des institutionellen BMEP-Programms (BMEP/Biomedical-Exchange-Program) während des Studiums und beim Übergang ins Berufsleben. Das transatlantische Biomedical Exchange Programm ist ein Programm zum Talentaustausch von Graduierten und Post-Graduierten mit den USA und verankert Innovations- und Wissenstransfer-Forschung von universitärer und industrieller Welt in der Life-Science-Industrie1). Das Programm wurde im Jahr 1979 von Prof. Dr. John Boylan, Prof. of Medical and Physiology an der University of New York, Buffalo und Medical School Farmington (Connecticut) und Prof. Dr. Hilmar Stolte von der Medizinischen Hochschule Hannover ins Leben gerufen. Es handelt sich um eine soziologische Aufgabenstellung mit der thematischen Zielsetzung im Bereich der Karriereforschung. Die Untersuchung hat geklärt, ob internationale Ausbildung und interdisziplinäres Wissen einen Wissensvorsprung bedingen, der sich im Hinblick auf internationale Karrieren und Führungspositionen in unserer heutigen Wissens-gesellschaft auswirkt. Um die Arbeit in den bestehenden Forschungskontext einzuordnen, ist es notwendig, sowohl soziologische als auch ökonomische Teilgebiete der Karriere-, Qualifikations- sowie Mobilitätsforschung zu berücksichtigen, was in den Kapitel 3 und Kapitel 4 dargestellt wird. Die Arbeit ist eine erstmalige empirische Untersuchung über das institutionelle, transatlantische und interdisziplinäre Biomedical-Exchange-Program (BMEP) zum Talentaustausch von medizinischen und naturwissenschaftlichen Studenten mit den USA auf der Ebene von universitärer und industrieller Welt. Um die Effektivität und Leistungsfähigkeit des institutionellen BMEP-Programms zu evaluieren, wurden je drei ehemalige Absolventen pro Jahrgang des Programms der Jahrgänge 1979-2004 mit Hilfe eines Fragebogens befragt. Die Untersuchung befasst sich schwerpunktmäßig mit den ursprünglichen Intentionen und Motiven der Teilnehmer, den Schwierigkeiten, die sich auf diesem Wege in die USA ergeben haben und den Absichten, die verwirklicht werden konnten. Sie fragt, ob erfolgreiche internationale Karrieren durch die Teilnahme am BMEP-Programm entstanden sind, sowie Unternehmertum, Selbständigkeit und internationale Science Frontier-Kontakte und ob im Laufe des Programms Publikationen entstanden sind. ....
Mikrozensus online
(2010)
Diese Arbeit untersucht, unter welchen Voraussetzungen Online-Befragungen effizient in die Datenerhebung des Mikrozensus zu implementieren sind. Zu konstatieren ist folgende Ausgangssituation: Seit nun mehr zehn Jahren gehören Online-Befragungen zu dem festen Repertoire der Umfrageforschung. Sowohl in der Markt- und Meinungsforschung, hier hat der Anteil von Online-Befragungen in Vergleich zu den etablierten Befragungsformen seit dem Jahre 2000 um rund 30 % zugenommen, als auch in der sozialwissenschaftlichen Forschung ist diese Form der Datenerhebung nicht mehr wegzudenken. Den großen Stellenwert, den Online-Befragungen mittlerweile in der Umfrageforschung erlangt haben, konnten sie bis dato in der amtlichen Statistik nicht erreichen. Zwar etablierten sich Online-Erhebungen auch hier im Rahmen des angestrebten Bürokratieabbaus, dies aber nur im Bereich der Unternehmensstatistiken. Einzig den Unternehmen stehen mit den beiden Internetportalen IDEV (Internet Datenerhebung im Verbund) und eSTATISTIK.core gegenwärtig zwei innovative Online-Meldeverfahren zur Verfügung, die im Zuge des angestrebten Bürokratieabbaus zur Entlastung der Unternehmen von ihren Aufgaben im Rahmen der amtlichen Statistik beitragen. Im Bereich der amtlichen Bevölkerungsstatistik findet diese Innovation ganz im Gegensatz zu der übrigen sozial-wissenschaftlichen Forschung wenig Anklang. Gleichwohl sind nicht nur Unternehmen, sondern auch Bürger durch die verpflichtende Teilnahme an amtlichen Statistiken in einem erheblichen Maße belastet. Zwar ist die Teilnahme bei den meisten bevölkerungsstatistischen Befragungen freiwilliger Natur, aber alleine der Befragungsumfang – ein Interview im Mikrozensus dauert beispielsweise für eine erwerbstätige Person ca. 30 Minuten – bedeutet für die betroffenen Haushalte einen beachtlichen Zeitaufwand der, wie diese Arbeit darlegt, durch Online-Befragungen spürbar zu vermindern ist. Will man die Anwendungsmöglichkeiten von Online-Befragungen für bevölkerungsstatistische Erhebungen wie den Mikrozensus sachgerecht beurteilen, ist zu berücksichtigen, dass Bevölkerungsbefragungen der amtlichen Statistik unter anderen Voraussetzungen stattfinden als nicht amtliche Befragungen. Zwar gelten für beide die gesetzlichen Datenschutzbestimmungen, die amtlichen Statistiken unterliegen aber überdies dem Legalitätsprinzip. Das Legalitätsprinzip, welches für jede durchzuführende Bundesstatistik ein eigenes Gesetz vorsieht, schafft nicht nur die rechtliche Grundlage für Bundesstatistiken, sondern reglementiert auch restriktive ihre Durchführung. Vor jeder Bundesstatistik steht somit ein Gesetz, dass den Befragtenkreis, den Berichtszeitraum, die Periodizität der Erhebung, die Erhebungsmethodik und insbesondere die Auskunftspflicht explizit anordnet. Es werden hiermit Rahmenbedingungen gesetzt, deren Erfüllung unabdingbar für den Einsatz von Online-Befragungen innerhalb der Mikrozensuserhebung sind. Außer den vorgefundenen gesetzlichen Rahmenbedingungen sind bei der Anwendung von Online-Befragungen auch die spezifischen Vorzüge und Probleme dieser Datenerhebungsmethodik zu bedenken, um diese substanziiert in einer Mikrozensuserhebung zum Einsatz bringen zu können. Als Vorteile von Online-Befragungen gelten gemeinhin die erweiterte Funktionalitäten in der Fragebogengestaltung. Diese reduzieren einerseits die oben beschriebene Belastung der Bürger bei einer Teilnahme an Befragungen, andererseits tragen sie zu einer nachhaltigen Steigerung der Datenintegrität bei. Ebenso ist mit Online-Befragungen durch den Wegfall von Interviewer- und Wegekosten eine augenfällig kosteneffizientere Erhebungsdurchführung möglich. Den beschriebenen Vorteilen stehen jedoch auch Schwächen, wie beispielsweise Stichprobenrepräsentativität oder Erreichbarkeit der Befragten gegenüber. Diese sind für eine effiziente Einbindung von Online-Befragungen in den Mikrozensus gleichwohl zu bedenken. Aufbauend auf einer ausführlichen Beschreibung der aktuellen Mikrozensuserhebung wird nach einer systematischen Darstellung der Vor- und Nachteile von Online-Befragungen ihre Umsetzung im Mikrozensus erörtert. Von großer Bedeutung für die Umsetzung Erhebung sind die bei der Durchführung entstehenden Kosten, die Stichprobengewinnung und deren Repräsentativität sowie im Falle des Mikrozensus die Einhaltung der Auskunftspflicht. Im Lauf der Arbeit wird gezeigt, dass Online-Befragungen als eigenständige Erhebungsmethodik angesichts der mangelnden Stichprobenrepräsentativität sowie des nicht flächendeckenden Internetzugangs der deutschen Bevölkerung nicht in der Lage sind, die im Mikrozensus etablierten Befragungsformen vollständig zu ersetzen. Ihr Einsatz als Ergänzung zu den beiden etablierten Erhebungsformen aber durchaus möglich und sinnvoll ist. Betrachtet man den Einsatz von Online-Befragungen im Mikrozensus unter ökonomischen Gesichtspunkten, so lassen sich im Hinblick auf die hohe Wiederverwertbarkeit von elektronischen Fragebögen in erheblichem Umfang Kosten bei der Erstellung von Erhebungsunterlagen einsparen. Auch lässt sich das Mahnverfahren, in das nicht auskunftsbereite Haushalte gelangen, sowohl zeitlich als auch personell rationeller gestalten. Für die Kontrolle der eingegangenen Erhebungsunterlagen ist angesichts der hohen Automatisierung von Online-Befragungen ein geringerer Arbeitsaufwand notwendig. Der ökonomische Aspekt bezieht sich nicht alleine auf die Durchführungskosten. Der Mikrozensus ist ein wichtiger nationaler Bestandteil der europäischen amtlichen Statistik. Wie die Arbeit nachweist verkürzt sich infolge der direkten Datenerfassung durch den Befragten und des geringeren Kontrollaufwands der erhobenen Daten die Zeit für die Datenaufbereitung. Damit ist eine schnellere Bereitstellung der Mikrozensusergebnisse für die Zwecke der nationalen und europäischen amtlichen Statistik möglich. Der Kosteneffizienz stehen naturgemäß in anderen Bereichen höhere Ausgaben gegenüber. So ist bei einer Einführung von Online-Befragungen mit Mehrausgaben in Rahmen der Hard- und Softwarebeschaffung zu rechnen. In Anbetracht der bereits vorhanden informationstechnologischen Ausstattung (Server, Laptops, IT-Fachkräfte) in den Statistischen Landesämter schlägt die Durchführung von Online-Befragungen mit einem geringen finanziellen Mehraufwand zu Buche. Auch ermöglichen Online-Befragungen, die bereits hohe Datenintegrität noch zu steigern. Neben den bereits in CAPI-Befragungen erprobten Verfahren wie Plausibilitätskontrollen oder der automatischen Filterführung, die fehlerhafte Dateneingaben vermeiden, lässt sich zur Sicherung der hohen Datenqualität das bereits seit Langem in der Dateneingabe verwandte Signierungsverfahren für die Erfassung von Beruf und Wirtschaftszweig verwenden. Übertragungsfehler, die infolge der manuellen Dateneingabe auftreten, sind damit weitgehend auszuschließen. Neben den beschriebenen ökonomischen Aspekten und dem der Datenintegrität ist es die Bürgernähe, welche eine Erweiterung des im Mikrozensus verwandten Methodenmixes um Online-Befragungen rechtfertigt. Durch das anspruchsvolle Frageprogramm, das im umfangreichen Selbstausfüllerbogen zu bearbeiten ist, sind die vom Mikrozensus betroffenen Haushalte durch ihre Teilnahme einer erheblichen zeitlichen Belastung ausgesetzt. Mit den erweiterten Funktionalitäten von Online-Fragebögen (z. B. automatische Filterführung und Signierungsverfahren) lässt sich die Bearbeitungszeit für die selbstausfüllenden Haushalte erheblich verringern. Dies wirkt sich nicht nur positiv auf die Datenqualität aus, sondern vermittelt auch ein Bild von der amtlichen Statistik als ein innovatives am Bürger orientierten Institution. Zusammenfassend kann festgehalten werden, dass Online-Befragungen dank der beschriebenen Vorteile eine sinnvolle Ergänzung zu den bereits etablierten Datenerhebungsverfahren im Mikrozensus bilden. Ihr Einsatz darüber hinaus auch in anderen bevölkerungsstatistischen Erhebungen sinnvoll sein kann.
Dass unser Lebensstil und Konsum auf Dauer das Klima bedrohen, die Vielfalt der Arten reduzieren, das Trinkwasser immer knapper werden lassen, ist der Bevölkerung durchaus bewusst. Doch nur eine Minderheit ist bereit, im Alltag auf das Auto zu verzichten, für Urlaubsreisen nicht das Flugzeug zu benutzen, ökologische Lebensmittel zu kaufen oder beim Kauf von Möbeln auf das Zertifikat »nachhaltige Holzwirtschaft« zu setzen. Wie lässt sich der Widerspruch zwischenWissen um den eigenen Ressourcenverbrauch und Sorge um die Umwelt einerseits und wenig nachhaltigem Konsumverhalten andererseits erklären?
Wer nutzt den Online-Gebrauchtwarenmarkt? : Umweltorientierte, Prosumenten und andere User auf eBay
(2010)
E-Learning ist das Thema zahlreicher Debatten. Die Beiträge in diesem Buch zielen darauf ab, die Diskussion zu intensivieren und zu vertiefen. Dabei fokussieren die Autoren die Bereiche Hochschule und Weiterbildung als wichtige Einsatzgebiete von E-Learning, mit dem Ziel einer Verbindung beider Bereiche. Dies geschieht aus Sicht der Wirtschaftsinformatik, der Erziehungswissenschaft und der Wirtschaftspädagogik.
Die Autoren zeigen in ihren Beiträgen, wie pädagogische Gesichtspunkte mit Fragen der Organisation und der Informationstechnik verknüpft werden können und leiten daraus Einsatzchancen für E-Learning-Konzepte ab.
Der Einsatz von E-Learning-Angeboten wird seit Mitte der 1990er Jahre intensiv diskutiert (Baumgartner et al. 2002, S. 13) und sowohl von der Industrie als auch von staatlichen Stellen gefördert (Kerres et al. 2005). Neben dem Wunsch nach genereller Modernisierung (Bachmann et al. 2004, S. 1) soll der Einsatz von E-Learning vor allem zu einer Verbesserung der Betreuungsintensität der Lernenden, insbesondere in Massenveranstaltungen an deutschen Hochschulen führen (Grüne et al. 2006; Hiltz 1995; Mathes 2002; Schwickert et al. 2005). E-Learning soll es ermöglichen, die Lernenden intensiver und individueller zu betreuen, und so zu einer Erhöhung des empfundenen Servicegrades beitragen (Alavi 1994; Schutte 1997).
Seit der Abschaffung der zentralen Vergabestelle für Studienplätze (ZVS) müssen Hochschulen solche vermuteten Wettbewerbsvorteile nutzen und sich aktiv um die Steigerung der Bewerberzahlen und die Zufriedenheit der Lernenden bemühen, was zu der Forderung führte, den Einsatz von E-Learning-Angeboten in der Hochschullehre auszudehnen (BLK 2002, S. 1; BMBF 2000). In der Folge wurden große Summen für die Entwicklung und die Implementierung innovativer E-Learning-Angebote bereitgestellt, ohne deren langfristigen Erfolg sicherstellen zu können (Marshall et al. 2004).
In diesem Beitrag untersuchen wir, wie eine nachhaltige Implementierung von E-Learning-Projekten in Hochschulen durch organisatorische Gestaltungsmaßnahmen gefördert werden kann. Die Untersuchung erfolgt aus dem Blickwinkel der Wirtschaftsinformatik, die sich mit dem Potenzial von Informations- und Kommunikationstechnik (IKT) für die Verbesserung von Geschäftsprozessen beschäftigt (Laudon et al. 2007; Lyytinen 1985; WKWI 1994)...
In diesem Beitrag untersuchen wir den Erfolg von E-Learning-Maßnahmen in einer Massenveranstaltung an der Goethe-Universität Frankfurt am Main. Mit Bezug auf das Modell von Seufert und Euler gehen wir auf die didaktische Dimension der Nachhaltigkeit von E-Learning-Aktivitäten ein (Seufert et al. 2003a, S. 6; Seufert et al. 2003b, S. 18f.). Die didaktische Dimension sehen Seufert und Euler als die zentrale und wichtigste Dimension der Nachhaltigkeit von E-Learning-Angeboten an. Der Einsatz von E-Learning-Maßnahmen muss sich daran messen lassen, ob er Lernziele besser erreicht als alternative, weniger aufwändige Lernszenarien (Seufert et al. 2004, S. 11)...
Dem vorliegenden Buch liegt die erkenntnisleitende Annahme zugrunde, dass der ebenso komplexe wie hybride Gegenstandsbereich „E-Learning“ keiner akademischen Fachkultur exklusiv zurechenbar ist oder ihr gar „allein gehört“. Aus diesem Umstand wird gewöhnlich die Notwendigkeit eines stärker inter- und multidisziplinär ausgerichteten Forschens und Arbeitens an den Hochschulen abgeleitet. Doch trotz schlüssiger Begründung der Notwendigkeit, den Blick über den Tellerrand der eigenen Disziplin zu richten und die Kooperation mit Vertretern anderer Fachkulturen zu verstärken, scheinen beim Thema E-Learning die Grenzen zwischen den Disziplinen besonders undurchlässig zu sein. So kommt es, dass die vielfach beschworenen Synergieeffekte im Prozess des wissenschaftlichen Forschens eher die Ausnahme als die Regel darstellen. In der Tat sollte man sich vor diesbezüglichen Illusionen hüten. Denn der Weg zu einer konstruktiven interdisziplinären Forschungs- und Gesprächskultur dürfte noch sehr weit sein, und es ist keineswegs absehbar, ob die damit verbundenen Erwartungen und Hoffnungen sich tatsächlich jemals erfüllen werden...
Das Ziel dieser retrospektiven Untersuchung ist, die medikamentöse Therapie des neonatalen Entzugsyndroms mittels Clonidin und Chloralhydrat mit der sehr häufig angewendeten Kombinationstherapie aus Morphin und Phenobarbital zu vergleichen. Im dem Zeitraum zwischen 1998 und 2008 wurden in unserer Klinik 133 Neugeborene mit einem neonatalen Entzugssyndrom behandelt. Bei allen Patienten handelte es sich um Neugeborene drogenabhängiger Mütter, welche während der Schwangerschaft mit Methadon substituiert wurden. Bei 29 Patienten wurde eine Therapie mit Clonidin und Chloralhydrat und bei 64 Patienten eine Entzugstherapie mittels Morphin und Phenobarbital durchgeführt. In der Clonidingruppe konnte eine signifikant kürzere Behandlungsdauer (Median: 14 d vs. 35 d) festgestellt werden. Entsprechend war auch die gesamte Aufenthaltsdauer in der Clonidingruppe deutlich kürzer (Median: 32 d vs. 44 d). Außerdem konnte in der Clonidingruppe ein deutlich milderer Verlauf der Entzugssymptomatik festgestellt werden.
Seit Implementierung eines Qualitätsmanagement-Systems nach DIN EN ISO 9001 führt die Klinik für Anästhesiologie, Intensivmedizin und Schmerztherapie am Klinikum der Johann Wolfgang Goethe-Universität in Frankfurt am Main kontinuierlich Maßnahmen zur Qualitätsverbesserung durch. Hierzu zählen als klassisches Element des Qualitätsmanagements Befragungen sogenannter interessierter Parteien. Neben den Patienten stellen, vor allem auf einer Intensivstation, die Angehörigen der Patienten, häufig in Funktion eines gesetzlichen Betreuers, wichtige Partner in der Therapie dar. Bisher sind jedoch für diese Zielgruppe keine validen Befragungsinstrumente vorhanden. Nach Eröffnung der neuen Intensivstation C1 im Jahr 2008 soll eine standardisierte Befragung der Angehörigen intensivpflichtiger Patienten bezüglich deren Erwartungen an das Personal und den Aufenthalt des Patienten auf der Intensivstation durchgeführt werden. Ebenso soll die vom Personal antizipierte Erwartungshaltung der Angehörigen erfasst und im Sinne des GAP-Modells von Parasuraman et al. evaluiert werden. Ziel der vorliegenden Arbeit ist es, ein geeignetes Befragungsinstrument (C1GAP) zu entwickeln und durch geeignete Pretests zu validieren. Nach Identifizierung übergeordneter Themenkomplexe für die Befragung wurde der erste Entwurf eines anonymen Fragebogens für Angehörige mit insgesamt 82 Items verteilt auf 8 Themenkomplexe erstellt. Hieraus wurden anschließend Fragebögen für die Personalgruppen des ärztlichen Dienstes, der Pflege und des Außendienstpersonals am Empfangsschalter erstellt. Zur Information der Teilnehmer über die Intention und den Ablauf der Befragung wurden ein Begleitschreiben des Institutsdirektors Prof. Dr. Dr. K. Zacharowski sowie ein Extrablatt mit Informationen zum Datenschutz beigefügt. Zur Validierung des Fragebogens wurden Pretests in Form von kognitiven Interviews durchgeführt. Aus den kognitiven Interviews ergaben sich neben einer überwiegenden Zustimmung zu Form und Inhalt der Befragung inhaltliche Verbesserungsvorschläge, die in der finalen Überarbeitung des Fragebogens umgesetzt werden konnten. Der validierte, endgültige Fragebogen für Angehörige enthält insgesamt 81 Items, welche auf die Themenkomplexe „Rahmenbedingungen“, „Kommunikation mit Ärzten“, „Kommunikation mit dem Pflegepersonal“, „Information über Behandlungsziele und -ablauf“, „Beteiligung bei Therapieentscheidungen“, „Beurteilung weiterer Betreuungsangebote“, „Verlegung und Entlassung“ sowie „Angaben zur Person“ verteilt sind. Die Fragebögen für die Personalgruppen der Ärzte, Pflegekräfte und des Servicepersonals enthalten zwischen 26 und 61 Fragen zu den genannten Themenkomplexen. Anders als durch reine Zufriedenheitsbefragungen können mit Hilfe des vorliegenden Fragebogens Daten über die Erwartungshaltung von Angehörigen intensivpflichtiger Patienten gewonnen werden und im Vergleich zur vom Personal der Intensivstation C1 antizipierten Erwartungshaltung der Angehörigen einer GAP-Analyse unterzogen werden. Diese Daten können im Rahmen der Qualitätssicherungsmaßnahmen an der Klinik für Anästhesiologie, Intensivmedizin und Schmerztherapie zur Optimierung der Arbeitsabläufe und Leistungsprozesse sowie zur Ressourcenallokation verwendet werden. So kann letztendlich die Versorgung unserer Patienten auf der Intensivstation C1 nachhaltig verbessert werden.
Der durchflusszytometrische Nachweis antigenspezifischer T-Lymphozyten über die
Zytokinproduktion nach Kurzeitstimulation ermöglicht Aussagen über die zelluläre
Immunität, was in bestimmten Patientenkollektiven wie z. B. stammzelltransplantierten
Patienten von großem Wert sein kann. Infektionen mit Herpesviren wie z.B. dem
humanen Zytomegalievirus (CMV) oder den Herpes-Simplex-Viren (HSV) können in
diesem Kollektiv zu schweren, zum Teil auch letal verlaufenden Erkrankungen führen.
Zwar wurde diese Methode inzwischen durch die Entwicklung kommerzieller Testkits
zum Nachweis dieser Lymphozyten direkt aus Vollblut vereinfacht. Dennoch ist die
Durchführung dieses Tests nur wenig standardisiert und sehr aufwendig. In dieser
Arbeit wurde die Methode der Bestimmung antigenspezifischer T-Lymphozyten aus
Vollblut daher im Bezug auf die Durchführbarkeit optimiert sowie die Anwendbarkeit
dieser Methode bei Patienten mit bestehender Lymphopenie evaluiert.
Im Einzelnen wurde zunächst die Messung antigenspezifischer CD4+ T-Lymphozyten
anhand des Superantigens Staphylokokkenenterotoxin-B (SEB) sowie der Herpesviren
CMV und HSV-1 eingeführt. Hierzu wurde die Spezifität der Lymphozytenreaktionen
im Hinblick auf den Immunstatus von Probanden getestet und die Reproduzierbarkeit
der Messergebnisse ermittelt. Zur Vereinfachung der Stimulation wurde der
Thermoblock eingeführt, der die Inkubation der Proben automatisch nach einer
vorgegebenen Zeitspanne beendet. Vergleichende Ansätze nach der herkömmlichen
Methode mit einer Inkubation im Brutschrank ergaben keine Differenzen zwischen den
Inkubationsmethoden hinsichtlich der Resultate. Weiterhin wurde versucht, die Proben
zu konservieren, um so das Zeitfenster zwischen Blutentnahme und Verarbeitung der
Blutprobe zu vergrößern. Hierfür wurden die Proben mit dem Reagenz CytoChex®
behandelt, einem Zellstabilisator, der der Konservierung von Leukozyten dient. Trotz
mehrfacher Abwandlung des Protokolls gelang es nicht, die Blutproben für die
antigenspezifische Stimulation zu konservieren.
Ein zentraler Teil dieser Arbeit befasst sich mit der Fragestellung nach der
Anwendbarkeit dieses Testes zum Nachweis CMV-spezifischer T-Lymphozyten im
Rahmen einer Lymphopenie. Dies wurde bei einem Kollektiv stammzelltransplantierter
Patienten untersucht. Es zeigte sich, dass in diesem Kollektiv der Test durchführbar ist,
wenn mindestens 1.000 CD8+ T-Lymphozyten bzw. 3.000 CD4+ T-Lymphozyten durchflusszytometrisch nachgewiesen werden konnten. Anhand dieses Kollektivs wurde
zuletzt die Effizienz dieser Methode durch Weglassen der Kontrollantigenmessungen in
bestimmten Fällen und Einführung eines Auswertungstemplates zur indirekten
Ermittlung CD4+ T-Lymphozyten aus der CD8+ T-Lymphozytenmessung gesteigert.
Zusammenfassend bringen die in dieser Arbeit vorgestellten Modifikationen der
Standardmethode eine deutliche Vereinfachung mit sich. Weiterhin wird es möglich,
auch im Rahmen einer Lymphopenie antigenspezifische T-Lymphozyten nachzuweisen.
Dies ermöglicht zumindest weitere Untersuchungen im Hinblick auf die Fragestellung
nach einer ausreichenden Immunantwort gegen CMV bei immunsupprimierten
Patienten. So können in Zukunft auch bei Patienten mit hohem Risiko für eine CMVReaktivierung
und Erkrankung Aussagen über die Immunsituation gemacht werden um
möglicherweise eine Verbesserung der diagnostischen und damit auch therapeutischen
Situation dieser Patienten zu erzielen.
Das Internet als Informationsmedium ist Plattform für eine nie dagewesene Menge an Information, die für einen einzelnen Menschen nicht mehr zu überblicken ist.
Moderne Web-Suchmaschinen greifen auf die Methoden des Information Retrieval zurück um einem NutzerWerkzeuge anzubieten die zu ihrem Informationsbedürfnis relevanten Dokumente im Internet zu finden. Visualisierungen können diese Dokumentenmenge effektiver durch den Nutzer verarbeitbar machen. Eine komplexe Suchanfrage zu formulieren oder ein Suchergebnis nach bestimmten Kriterien zu filtern ist jedoch heute noch denjenigen vorbehalten die bereit sind, die erweiterten Funktionen der Suchmaschinen zu lernen.
Der in dieser Arbeit vorgestellte Ansatz möchte durch die Kombination der Visualisierung, die einen effektiven Überblick über den Suchergebnisraum gibt, mit den mächtigen Filtermöglichkeiten moderner Suchmaschinen die einfache Filterung von Suchergebnismengen durch ein Direct Maniuplation Interface ermöglichen.
In den vergangenen Jahren wurden zahlreiche Stoffe als Photosensibilisatoren evaluiert, deren photodynamische Aktivität gegenüber den Pioniersubstanzen deutlich verbessert werden konnte. Vielen dieser Moleküle blieb jedoch aufgrund ihrer ungünstigen physikochemischen Eigenschaften oder der auftretenden Toxizität die Marktreife versagt. Nanopartikuläre Trägersysteme sind geeignet, Verträglichkeit und Effektivität der Photodynamischen Therapie zu verbessern sowie die Selektivität bei der Behandlung bestimmter Tumorspezies deutlich zu erhöhen. Um dieses Prinzip auf verschiedene Photosensibilisatoren anwenden zu können, wurden in der vorliegenden Arbeit Nanopartikel aus humanem Serumalbumin (HSA) durch Desolvatation hergestellt und die adsorptive, die inkorporative sowie die kovalente Bindung an das Trägersystem untersucht. ...
apl. Prof. Dr. Jörg W. Busch (Goethe Uni Frankfurt) hat bisher 2 Vorträge in Trebur gehalten. Der erste am 14. Oktober 2004 mit dem Titel "Trebur ein Königshof am Mittelrhein" und am 6. Oktober 2005 mit dem Titel "Die Pfalz Trebur unter Heinrich IV. vom Schauplatz großer Politik zum gemiedenen Ort" ...
Visualisierung von E-Mail-Traffic mit Schwerpunkt auf eine inhaltliche Analyse von Wortmustern
(2010)
E-Mail hat sich zu einem sehr wichtigen Kommunikationsmittel entwickelt, leidet aber aktuell unter einer massiven Verbreitung unerwünschter und unverlangter Inhalte. Diese können für einen Anwender nicht nur lästig sein, sondern auch die vorhandene Netz- und Speicher-Infrastruktur enorm belasten.
Die Notwendigkeit einer Filterung des E-Mail-Traffic hat zu einer Reihe recht unterschiedlicher Methoden geführt, die computergesteuert eine E-Mail auf ihren Spam-Gehalt untersuchen.
Die Motivation hinter dieser Arbeit ist zu prüfen, ob die besonderen Eigenschaften der visuellen Wahrnehmung eines Menschen als unterstützendes Mittel eingesetzt werden können, um E-Mail-Inhalte zu überprüfen und eventuell vorhandene Wort-Muster, die auf Spam deuten, sichtbar zu machen.
Um dieses Ziel zu erreichen musste zuerst eine geeignete Auswahl spamspezifischer Merkmale getroffen werden. Danach wurden Methoden des Text Minings angewendet, um aus dem Inhalt einer E-Mail strukturierte Daten zu gewinnen, die sich zur Repräsentation einer Nachricht eignen und als Grundlage für eine Visualisierung herangezogen werden können. Basierend auf den vorab ausgewählten Spam-Charakteristika wurdenWorteigenschaften mit Hilfe extern angebundener Wortlisten, regulärer Ausdrücke und unter Einsatz eines Wörterbuches überprüft, und die erhaltenen Ergebnisse flossen neben einer einfachen Gewichtung von Worthäufigkeiten in Form einer anwendungsspezifischen Gewichtung mit ein.
Es wurden anschließend zwei verschiedene Sichten konzipiert, um einem Anwender einen Einblick in die extrahierten Daten zu ermöglichen. Es hat sich herausgestellt, dass besonders Treemaps geeignet sind um die anfallenden Datenmengen kompakt abzubilden, aber gleichzeitig einen notwendigen Detailgrad auf einzelne Worteigenschaften gewährleisten.
Das Konzept wurde prototypisch unter Verwendung des Mailservers Mercury/32 sowie einer MySQL-Datenbank implementiert und konnte teilweise aufzeigen, dass es anhand der von der Engine generierten Strukturen möglich ist, spamspezifische Merkmale einer E-Mail unter Verwendung der gewählten Visualisierungstechniken auf eine Weise sichtbar zu machen, die einem Anwender eine Mustererkennung erlauben.
Die Diplomarbeit wurde als Gemeinschaftsarbeit angefertigt und konnte sinnvoll in zwei Bereiche aufgeteilt werden: Die Engine und die Visualisierung. Die konzeptuellen Überlegungen für das Thema sind größtenteils gemeinsam erfolgt, jedoch liegt der Schwerpunkt von Pouneh Khayat Pour im Bereich der Analyse und der von Yvonne Neidert in der Visualisierung.
Durchgeführte Arbeiten und Ergebnisse: Zur Erschließung des Themas Lebensmittelverpackungen im Chemieunterricht wurde zunächst eine grundlegende fachliche Recherche durchgeführt, um mögliche thematische Schwerpunkte zu identifizieren und Grundlagen für eine experimentelle Zugänglichkeit zu erarbeiten. Parallel hierzu wurde der derzeitige Stand der fachdidaktischen Forschung unter besonderer Berücksichtigung des Themas Lebensmittelverpackungen erhoben. Es zeigte sich, dass nur vereinzelt auf diese Themenstellung eingegangen wird. Dabei steht allerdings, wie etwa bei dem Recycling von Joghurtbechern, die stoffliche Weiterverwendung von Abfällen im Vordergrund, während die Anforderungen an die Eigenschaften einer Verpackung keine Rolle spielen. Daher erfahren Bau und Funktion unterschiedlicher Verpackungsmaterialien in der vorliegenden Arbeit eine besondere Berücksichtigung. Die vorliegende Arbeit umfasst im Wesentlichen zwei Schwerpunkte: - Die schulexperimentelle Erschließung des Themas Lebensmittelverpackungen für unterschiedliche Klassenstufen, - die exemplarische Ausarbeitung von Unterrichtseinheiten, die die Möglichkeit der Integration der Experimente in die Schulpraxis aufzeigen. Bei der experimentellen Entwicklung stand die Barrierefunktion der Lebensmittelverpackungen und im Hinblick auf die Verträglichkeit mit Lebensmitteln deren chemische Zusammensetzung im Vordergrund. Gesichtspunkte wie die mechanische Belastbarkeit, z. B. die Reißfestigkeit einer Verpackungsfolie, wurden erst in zweiter Linie erarbeitet. Die Struktur-Eigenschaftsbeziehungen wurden thematisiert. Zunächst wurde eine Versuchsreihe ausgearbeitet, die die Funktion von Aluminiumschichten in Lebensmittelverpackungen in das Zentrum der Betrachtung stellt. Hierbei konnte zur Bestimmung der Dicke einer Aluminiumschicht mit schulischen Mitteln ein Verfahren ausgearbeitet werden, in dem die Aluminiumanteile einer ausgemessenen Fläche einer Verpackung gelöst und anschließend über eine Titration bestimmt werden. Diese Versuchsreihe kann auf viele Beispiele angewandt werden und liefert zuverlässige Ergebnisse. Der Nachweis unterschiedlicher Kunststoffe in Lebensmittelverpackungen stand im Mittelpunkt einer zweiten Versuchsserie. Hierbei wurden Versuche zur Analyse von Verpackungsstoffen (Polyolefine und Polykondensate) entwickelt und zusammengestellt. Einfache Versuche zeigen die Möglichkeit zur Trennung der Schichten von Verbundfolien sowie die chemische Beschaffenheit der verwendeten Polymere. Es wird anhand der gewählten Beispiele auf die unterschiedlichen Eigenschaften von Folien, wie Sauerstoffdurchlässigkeit und Wasserdampflöslichkeit, eingegangen. Dabei wird die gezielte Kombination unterschiedlicher Folien berücksichtigt. Eine wesentliche Fragestellung bei der Auswahl von Lebensmittelverpackungen ist die Frage nach der Barrierewirkung gegenüber unerwünschten Stoffen, z.B. von Sauerstoff. Hierbei gelang es, eine Zink-Luft-Batterie so in eine geeignete Schaltung einzubauen, dass sie zum Nachweis des Sauerstoffdurchtritts durch eine Folie verwendet werden kann. Allerdings ist dieser bei üblicherweise verwendeten Folien so gering, dass im Sinne einer didaktischen Reduktion für einen Modellversuch Backpapier eingesetzt wird, um ein Experiment zu erhalten, das in einer Schulstunde durchgeführt werden kann. Eine weitere umfangreiche Versuchsserie wurde zur Durchlässigkeit von PET-Flaschen gegenüber Kohlenstoffdioxid entwickelt. Besonders interessant für Schülerinnen und Schüler sind dabei Experimente, die zeigen, dass PET Kohlenstoffdioxid in geringen Mengen speichert. Exemplarische Unterrichtsentwürfe zeigen, welche konkreten Möglichkeiten für die Umsetzung des Themas gegeben sind. Hierfür wurden exemplarisch Entwürfe zum Forschend-entwickelnden Unterrichtsverfahren, zum Analytisch-synthetischen Verfahren, zum Expertenunterricht, zur Chemie im Kontext, zum Wahldifferenzierten Chemieunterricht und zum Projektunterricht / projektorientierten Chemieunterricht ausgearbeitet. Insgesamt vermittelt die vorliegende Arbeit einen umfassenden Zugang zum Thema Lebensmittelverpackung im Chemieunterricht, wobei ausgehend von den fachlichen Grundlagen die schulexperimentellen Möglichkeiten und Wege der unterrichtlichen Umsetzung entwickelt wurden.
Entwicklung von normal- und supraleitenden CH-Strukturen für den 17 MeV EUROTRANS-Injektor-Linac
(2010)
In den letzten Jahrzehnten vergrößerten sich die Anwendungsgebiete von Hochfrequenzlinearbeschleunigern für Protonen und schwere Ionen, insbesondere im Nieder- und Mittelenergiebereich, permanent. Der überwiegende Teil dieser mittlerweile bewährten Aktivitäten lag im Bereich der Synchrotroninjektion oder der Nachbeschleunigung von radioaktiven Ionenstrahlen. Daneben existiert seit einiger Zeit eine starke Tendenz zur Entwicklung von Hochleistungslinearbeschleunigern, welche vor allem bei der Forschung an Spallationsneutronenquellen, in der Isotopenproduktion oder bei der Transmutation langlebiger Abfälle aus Spaltreaktoren Anwendung finden sollen. Die neu entwickelte CH-Struktur (Crossbar H-Mode) ist optimal für den Einsatz in derartigen Hochleistungsapplikationen geeignet. Sie ist die erste Vielzellenstruktur für den Nieder- und Mittelenergiebereich und kann sowohl normal- als auch supraleitend verwendet werden. Das europäische Programm zur Transmutation radioaktiver Abfälle, EUROTRANS, basiert auf einem Hochleistungslinearbeschleuniger, der einen intensiven Protonenstrahl bereitstellt. Dieser Strahl wird auf ein Flüssigmetalltarget geleitet, wodurch Spallationsneutronen entstehen, welche die Reaktion im Reaktorkern antreiben. Hierbei spricht man von einem sogenannten beschleunigergetriebenen System (ADS). Das zugehörige Refernzdesign des Instituts für Angewandte Physik propagiert einen aus normal- und supraleitenden CH-Strukturen bestehenden Injektor für den Bereich von 5–17 MeV. Im Rahmen der vorliegenden Arbeit wurden diesbezüglich zur Entwicklung von zwei normal- und vier supraleitenden CH-Kavitäten elektrodynamische Simulationsrechnungen in Bezug auf die folgenden Designkriterien durchgeführt:...
In den Vorlesungen zur Gouvernementalität skizziert Foucault die Art und Weise, in der im modernen Staat «aus der Distanz» regiert wird. Diese wird im Artikel dargestellt, materialistisch «geerdet», und es werden hierauf aufbauend die Begriffe Risiko und Versicherheitlichung diskutiert. Die Tauglichkeit dieser Herangehensweise wird anhand der aktuellen Grenz- und Migrationspolitik der EU illustriert, und es werden die in diesem Kontext produzierten Räume skizziert.
Erzählt wurde und wird überall. Erzählen ist eine Grundform unserer Wirklichkeitserfassung. Das Zentrum für Erzählforschung (ZEF) der Bergischen Universität ist deshalb interdisziplinär ausgerichtet. Drei Beispiele aus Kunstgeschichte, Journalismus und Rechtsprechung: Der Teppich von Bayeux (11. Jh.) benutzt bei seiner bildlichen Darstellung der Eroberung Englands durch den Normannen Wilhelm Abweichungen von der Chronologie, um die Sympathien der Betrachter zu lenken. Die pietätlose Hast des angelsächsischen Kontrahenten der Normannen, Harold, sich nach dem Tod seines Vorgängers krönen zu lassen, wird visuell durch die unmittelbare Konfrontation der Krönungsszene mit dem Bild des kranken Edward angezeigt. In solchen erzählerischen Kunstgriffen zeigt sich politische Wirkungsabsicht. Zweitens: Fußballspiele stellen den Live-Reporter vor große erzählerische Herausforderung. Er muss eine Geschichte erzählen, deren Ende er nicht kennt. Dafür verwendet er prospektiv Plotstrukturen, die dem disparaten Spielgeschehen Sinn verleihen, die aber auch gegebenenfalls ad hoc abweichendem Spielverlauf anzupassen sind. Drittens: Vor Gericht wird die Glaubhaftigkeit von Zeugenaussagen u. a. nach erzählerischen Kriterien wie Detaillierungsgrad und Inkontinenz beurteilt. Wer besser erzählt, gewinnt.
Bei der GSI – Helmholtzzentrum für Schwerionenforschung in Darmstadt wird im Rahmen des HITRAP-Projekts ein linearer Abbremser für schwere, hochgeladene Ionen für atomphysikalische Präzisionsexperimente in Betrieb genommen. Während der Inbetriebnahme wurden transversale Emittanzmessungen mit der Pepperpot- und der Multi-Gradienten-Methode durchgeführt, um die Emittanz des aus dem Experimentierspeicherring (ESR) extrahierten Strahls zu messen. Weiterhin wurde auch die Phasenraumverteilung des auf eine Zwischenenergie von 500keV/u abgebremsten Strahls hinter der IH-Struktur gemessen. Dazu wurden neue Auswertealgorithmen in die Analyse der digitalen Bilder integriert. Die longitudinalen Bunchstrukturmessungen des Strahls am Eintrittspunkt in den Abbremser und die Funktionsweise des Doppel-Drift Bunchers wird gezeigt. Die Konzeption und der Aufbau sowie die erste Inbetriebnahme einer neuartigen Einzelschuss-Pepperpot-Emittanzmessanlage für kleinste Strahlströme und -energien wird beschrieben, die es ermöglichen, den Strahl hinter den Abbremskavitäten zu vermessen. Zusätzlich wurden transversale Strahldynamikrechnungen durchgeführt, welche theoretische Grundlagen zur Inbetriebnahme von HITRAP lieferten. Es wird beschrieben, wie die gesamte Strahllinie vom ESR bis zum Radio-Frequenz Quadrupol nach der erfolgreichen Integration einer Abbremsroutine innerhalb des Softwarepakets COSY Infinity optimiert werden kann.
1987 überraschte der chinesische Künstler Xu Bing sein Pekinger Publikum mit einem Set von vier Büchern, die im Stil der kanonischen Bücher gestaltet waren und über tausendzweihundert chinesische Schriftzeichen enthielten. Obwohl auf den ersten Blick den alten chinesischen Zeichen täuschend ähnlich, unterschieden sie sich jedoch von ihnen in einigen wenigen Details, die entscheidend für das Verständnis waren. Xu Bings Idee bestand darin, einem alten Wörterbuch reale Zeichen zu entnehmen, sie in ihre Grundbestandteile zu zerlegen und sie wieder zusammensetzen, jedoch nicht so, wie sie vorher waren, sodass sie ihrer Bedeutung beraubt wurden. Angesichts dieser gekonnt inszenierten und verwirrenden Lektüreerfahrung stellt sich die Frage: Ist das überhaupt Literatur, wo es doch nichts zu lesen gibt? Diese Frage mag ungewöhnlich klingen und nicht wenige werden sie vielleicht sogar für falsch gestellt halten. Schließlich gilt Xu Bing als Künstler und nicht als Schriftsteller und seine ausgestellten Bücher sind in dem Ausstellungsraum eines Museums zu finden und nicht in einer Bibliothek. Und dennoch, so die Hypothese dieser Überlegungen, findet man in seinen Büchern etwas zur Darstellung gebracht, was nach Foucault so etwas ist wie der unsagbare Kern der Literatur. In Xu Bings Ausstellung geht es um die sichtbare Manifestation dessen, was Literatur im sprachontologischen Sinne begründet, um ihre Existenzbedingung: das Nichtsignifikative im Zeichen, das die Signifikation erst ermöglicht. In Analogie zu Blanchots Begriff "desoeuvrement" (vgl. Blanchot 1955, 48 f) könnte man von einer 'désignification' sprechen: Durch winzige Veränderungen am Gefüge der Striche wird dem Zeichen der Sinn entzogen. Doch wie lässt sich der Bezug dieses unlesbaren Buches, das aufgrund seiner Unlesbarkeit nur noch als Ausstellungsobjekt taugt, zum literarischen Buch herstellen?
Einen gegebenen Stoff erneut zu verfilmen, einen Erfolgsfilm zu verdoppeln, eine schon verfilmte Geschichte in anderem Milieu neu vorzustellen, sie zu variieren und sie auf die besonderen Gegebenheiten der dargestellten Welt hin anzupassen: Das ist Praxis des Films, wohl seit seinem Beginn. Daß immer die gleichen Stoffe den Anlaß boten zu immer neuen Versuchen, das Zeitgenössische oder das Ewig-Menschliche zu zeigen, zu präzisieren oder überhaupt erst zu finden, ist beileibe keine filmische Angelegenheit, sondern auch in der Literatur - und erst recht: in der Volksliteratur - gängige und bekannte Praxis. Man ziehe die verschiedenen Stoff- und Motivgeschichten zu Rate: Diese sind voller Hinweise auf Geschichten, die in immer neuen Annäherungen und Variationen erprobt wurden. Ein ‚Remake‘ ist, wollte man flapsig formulieren, ganz einfach eine Neuverfilmung eines schon verfilmten Stoffes. Bezugnahmen von Texten aufeinander gibt es viele - dazu rechnen u.a. Fortsetzungen, Parodien, Kompilationsfilme und lediglich im Titel auf ein Original anspielende Filme. Die Frage, was ein Remake ist, bleibt virulent: Wieviele stoffliche Ähnlichkeiten müssen zwei Filme aufweisen, daß man von einem ‚Remake‘ sprechen darf? Das texttheoretische Problem der sich Remake nennenden Ähnlichkeitsbeziehung von Filmen, die sich mehr oder weniger detailgetreu auf den Vorgänger beziehen und oft sogar denselben Titel tragen, ist unklar. Geht es um Ähnlichkeiten oder um die Beschreibung der Unterschiede im Gleichen - vieles spricht dafür, dass in einem historischen und in einem kulturwissenschaftlichen Interesse die Beschreibung der Differenzen wichtiger ist als die Feststellung der stofflichen, narrativen und dramatischen Nähe von zwei oder mehr Texten. In der Differenz manifestiert sich historischer Wandel und kulturelle Unterschiedlichkeit. In der Differenz manifestiert sich aber auch die Anpassungsleistung, weil nicht jede Neuadaption eines Stoffes das „Original“ nur ausbeutet, sondern es aktualisiert, neu ausrichtet, thematisch veränderte Akzente setzt.
Ausgehend von der These, dass insbesondere psychologisierende Filmmusik oft in einer changierenden Bedeutungsbeziehung zur Szene und den Figuren steht und dass das Akzeptieren von Musiken als Darstellung der inneren Realität von Figuren auf einem Prozess der Synthese diverser Kontextinformationen beruht, wird ein Modell der Perspektivität der Filmmusik und ihrer damit einhergehenden semantischen Aufladung vorgeschlagen und an einem Beispiel durchgespielt.
'One Plus One' entstand während einer über mehrere Monate verteilten Aufnahmestudio-Session der Rolling Stones im Juni und August 1968 in den Olympic Studios in London. Die Band kam ohne Vorbereitung ins Studio und entwickelte den Song 'Sympathy for the Devil' improvisatorisch im Laufe der Sessions. Die Arbeit am Stück begann mit einem Liedtext von Sänger Mick Jagger unter dem Arbeitstitel 'The Devil Is My Name'. Jagger hatte diesen Text unter dem Eindruck des Romans 'Der Meister und Margarita' des russischen Schriftstellers Michail Bulgakov verfasst - ein Buch, das er von seiner Partnerin Marianne Faithfull erhalten hatte. In Bulgakovs Roman stattet der Teufel dem Moskau der 1930er Jahre einen Besuch ab, in dessen Verlauf er viele Menschen tötet oder in den Wahnsinn treibt. Der Film zeigt die Arbeit an dem Song, der auf einem treibenden Samba-Rhythmus aufruht, in den verschiedenen Entwicklungsstufen, in immer neuen Ansätzen, sich dem späteren Format annähernd. Der Song wurde 1968 auf dem Studioalbum 'Beggars Banquet' als erstes von zehn Liedern veröffentlicht.
In diesem Aufsatz möchten wir Denk- und Deutungsmuster des mediengestützten Studiums und der mediengestützten Lehre herausarbeiten, welche die These einer qualitativ neuen Form der Bildung stützen2. Der Rahmen, in dem wir uns dabei bewegen, wird einerseits durch die Debatte um die Wissensgesellschaft und andererseits durch die Perspektive der kanadischen Medientheorie3 gekennzeichnet.
Unser Augenmerk gilt den Veränderungen in unserer Alltagskultur, den Deutungs- und Wahrnehmungsmustern und den entsprechenden Erwartungshorizonten, welche sich zunehmend unter den Bedingungen moderner Medientechnologien verändern. Besonders hervorheben wollen wir dabei den Zusammenhang von medientechnischen und kulturellen Modernisierungen. Fragen der Entwicklung und Nutzung neuer Medientechnologien wie dem Internet lassen sich so jenseits einer Sichtweise der Instrumentalisierung in den Blick nehmen. Wir werden uns bei den nachfolgenden Betrachtungen dazuhin auf das Feld der Hochschulen und die dort angesiedelten Fragen zur mediengestützten Lehre beschränken.
In erstem Teil der Arbeit wurde der Begriff Drehbuch in Hinsicht auf die Erstellung von eLearning Kursen erläutert und eLearning Inhalte auf ihre typischen Merkmale untersucht. Dabei war es wichtig zu verstehen, ob und wie die kooperative Arbeit an Inhalten in gängigen Textbearbeitungsprogrammen unterstützt wird und welche Vor- und Nachteile der jeweilige Editor aufweist. Wie sich herausgestellt hat, setzen bestehende Lösungen auf Auszeichnungen von Textbausteinen und der Kursstruktur mit Hilfe von speziellen Makros, so dass beim Transformieren des Kurses diese wiedererkannt werden können. Leider sind diese Lösungen auf einen bestimmten Editor spezialisiert und betrachten die kooperativen Aspekte der Arbeit an Inhalten nicht.
Da das Drehbuch in einem Textbearbeitungsprogramm erstellt wird, ist die Möglichkeit der Wahl von einem Editor für die Autoren vorteilhaft. Deshalb sieht der Lösungsansatz in meiner Arbeit vor, dass die Umsetzung des Drehbuches nicht auf einen bestimmten Editor beschränkt ist und dass für jeden Editor kooperative Bearbeitung ermöglicht wird. Dies wird zum einen durch Verwendung eines Versionskontrollesystems und zum anderen durch die kooperativen Eigenschaften der Editoren erreicht.
Das Transformieren eines Drehbuches zu einem eLearning Kurs wurde einheitlich gestaltet, da HTML als ein gemeinsames Format der Ausgabe von Editoren ausgewählt wurde. In der Implementierung des Lösungsansatzes konnte am Beispiel des Autorensprogramms LernBar die Unterstützung von bereits drei Editoren erreicht werden.
Einige Einschränkungen sind bei der Verwendung dieser Lösung zu beachten. Bei den Veränderungen in der HTML-Ausgabe der Editoren sind möglicherweise auch Anpassungen im Programm vorzunehmen. Die Verwendung von Tabellen impliziert, dass ihre Struktur durch den Autor nicht geändert wird, was durchaus auch versehentlich passieren kann. Bei der Erstellung von Tests ist eine umfassende Validierung empfehlenswert, damit die Tests wie erwartet durchgeführt werden können. Es wurden in der Implementierung nur einige Testtypen umgesetzt und möglicherweise sind einige Tests nicht für die Erfassung im Drehbuch geeignet. In dem Fall müssen sie in den verwendeten Autorenprogramm direkt erstellt werden.
Die rasante Entwicklung von Internettechnologien wird sicherlich neue Möglichkeiten sowohl für die kooperative Arbeit, als auch für Textbearbeitungsfunktionalitäten anbieten. Allein im Jahr 2010 wurden mehrere Neuerungen auf dem Markt von Online-Editoren eingeführt. Microsoft hat eine Online-Version1 von seiner Office-Suite veröffentlicht und damit eine neue Alternative zu Google Docs angeboten. In Google-Docs werden nahezu im monatlichen Takt neue nützliche Funktionen implementiert, die sowohl die Textverarbeitung als auch die Kooperation verbessern.
Im Rahmen dieser Bachelorarbeit werden verschiedene Non-Photorealistic Rendering Verfahren zur Darstellung von rekonstruierten Artefakten, im Bereich der Paläontologie, beschrieben und implementiert. Hauptsächlich arbeiten die vorgestellten Verfahren im zweidimensionalen Bildraum, um beispielsweise Kanten in Bildern zu detektieren. Hierbei bedienen wir uns sogenannter Normal- und Depthmaps, welche als Zwischenresultate dienen, um die nötigen Informationen zu sammeln, welche zur Erkennung von Kanten im Bild notwendig sind. Neben der Kantendetektion werden NPR Verfahren genutzt, um skizzenhafte Illustrationen zu erzeugen, welche per Hand gezeichnete wissenschaftliche bzw. technische Illustrationen nachahmen und somit (halb)automatisieren sollen. Mithilfe von (programmierbaren) Shadern werden dann spezielle Texturen auf die Oberflächen der Modelle gelegt, um eine skizzenhafte Darstellung zu erzeugen. Solche Verfahren erleichtern demnach die aufwändige Arbeit der Künstler, welche gewöhnlich viel Zeit für ihre Illustrationen benötigen.
Hrad Wartburg v Durynsku je jedním z nejvýznamnějších památníků německé kultury. Jeho jméno je spojeno s dějinami minnesangu stejně jako s historií německé reformace. Ve Wagnerově opeře 'Tannhäuser' se však tento hrad stává především symbolem, metaforou, za níţ se skrývá tradiční německá "Kultura" (tak jak ji definoval např. Thomas Mann ve svých 'Betrachtungen eines Unpolitischen'). Novější německé dějiny znají hned několik epoch, v nichţ hrály hodnoty reprezentované wagnerovským Wartburgem významnou roli – wilhelmovská "Druhá" stejně jako – ještě radikálněji – Hitlerova "Třetí říše". Cílem tohoto příspěvku je objasnit na příkladu německé literatury, jak "wartburské" tyto doby byly a jak reálné je zrcadlo, které Wagner se svým 'Tannhäuserem' nastavil (německému) světu.
In vielen Familien der Mittelschicht sind mittlerweile beide Ehepartner berufstätig. Das männliche Alleinverdiener-Modell verschwindet zwar nicht, aber nimmt ab. Die Arbeit zu Hause ist trotzdem noch ungleich verteilt und überwiegend Frauensache geblieben – wenn auch häufig unter neuen Vorzeichen: Oft übernehmen Migrantinnen, insbesondere aus Osteuropa, einen Teil der Care-Arbeit. Welche Konsequenzen hat dies für deren Familien?
In Auszügen rezipiert – Bemerkungen zu der Übersetzung von Max Frischs Tagebüchern ins Rumänische
(2010)
Romanian readers interested in Max Frisch’s literary diaries can find the Romanian translation of some heterogeneous notes or groups of notes, dispersed in different periodicals from 1972 to 2001, and the volume Journal (1984) including a selection of fragments from the diaries Tagebuch 1946-1949 and Tagebuch 1966-1971 translated by Corina Jiva. The present article emphasizes favorite as well as excluded thematic fields while making the selection and pinpoints the translator’s role as an authority endowed with preventive censorship.
In unserer Untersuchung wurde die systolischen und diastolischen Funktionsparameter sowohl bei gesunden Kindern als auch im Rahmen der Früherkennung toxischer Kardiomyopathien nach Anthrazyklintherapie mittels 3D- und 2D-Echokardiographie bestimmt. Wir konnten eine signifikante Abnahme der EF unter anthrazyklinhaltiger Chemotherapie durch beide Messverfahren nachweisen (2D: p= 0,013033; 3D: p = 0.001526). Jedoch zeigte sich keine Korrelation der Ergebnisse beider Verfahren (Bland-Altmann´s Korrelationskoeffizient r=0,1897, Student´s t-Test p<0,01). Die nach Teichholz ermittelte LVEF lag in der therapienaiven Gruppe um durchschnittlich 7% in der therapierten um 8% höher als in der 3D-Messung, hier zeigte sich nur bei zwei Kindern eine leichtgradige Einschränkung der EF und bei einem Kind eine höhergradige Einschränkung der EF nach Chemotherapie. Der Mittelwert der dreidimensional ermittelten LVEF lag in der mit Anthrazyklinen therapierten Gruppe nah am unteren Normwert. Bei neunzehn Kindern konnte eine leicht eingeschränkte linksventrikuläre Funktion nachgewiesen werden, bei einem Kind war sie höhergradig eingeschränkt. Es konnten also mit Hilfe der 3D-Echokardiographie signifikant mehr beginnende Einschränkungen der LVEF nachgewiesen werden (p=0,00520). Durch diese Ergebnisse wird die Relevanz guter Vorsorgeuntersuchungen vor und während anthrazyklinhaltigen Chemotherapien offenkundig. Mit Hilfe der 3D-Echokardiographie können schon frühzeitig beginnende Kardiomyopathien entdeckt und behandelt werden. Bei frühzeitigem Behandlungsbeginn können die Spätfolgen deutlich reduziert werden (70/71). Gerade im Kindesalter ist dies von großer Bedeutung, da die jungen Patienten die längste Zeit ihres Lebens noch vor sich haben und am meisten unter der stark eingeschränkten Lebensqualität bei Kardiomyopathie leiden. Einige Kinder mussten in der Vergangenheit nach anthrazyklinhaltiger Chemotherapie herztransplantiert werden (96). Als wesentliches Merkmal einer beginnenden Herzschädigung vor einer manifesten Einschränkung der linksventrikulären systolischen Funktion gilt die diastolische Herzfunktion. Wir konnten zeigen, dass signifikant mehr diastolische Funktionsstörungen (p= 0,011185) nach anthrazyklinhaltiger Chemotherapie als vor der Therapie auftraten, außerdem konnten wir in diesem Zusammenhang auch eine Dosisabhängigkeit mit linearem Trend nachweisen. Patienten, denen Dosen von 200-400 mg/m² appliziert wurden, weisen sigifikant (p= 0,033310) häufiger diastolische Funktionsstörungen auf als vor Therapie. Dies konnte bei Dosen von 0-200 mg/m² nicht gezeigt werden, allerdings kann man durch die graphische Darstellung auf eine Tendenz schließen. Entsprechend der Studie von Sorensen et al. (136) nehmen wir eine Anthrazyklindosis von > 200 mg/m² als Hauptrisikofaktor für die Entwicklung einer toxischen Kardiomyopathie an. Als positives Ergebnis unserer Untersuchung ist das insgesamt seltene Auftreten von relevanten Kardiomyopathien zu werten, auch die diastolische Funktion liegt bei den meisten Kindern nach Therapie im Normbereich. Am ehesten ist dies der sorgfältigen Vorsorge und der strengen Einhaltung der kumulativen Schwellendosis zuzuschreiben.
Chloridkanäle und -transporter sind an wichtigen physiologischen Prozessen beteiligt [Jentsch et al., 2002; Zifarelli & Pusch, 2007; Jentsch, 2008] und mutationsbedingte Funktionsdefekte können mit verschiedenen Krankheiten in Verbindung gebracht werden [Planells-Cases & Jentsch, 2009]. Trotz der großen physiologischen Relevanz bilden diese Proteine eine unterrepräsentierte Klasse in der pharmakologischen Wirkstoffsuche [Verkman & Galietta, 2009], auch aufgrund fehlender adäquat robuster und Durchsatz-starker Testsysteme. Vor allem die Vertreter der intrazellulären CLC-Proteine, von denen bereits zwei eindeutig relevanten Krankheiten zugeordnet werden konnten (ClC-5 – Dent´sche Krankheit; ClC-7 – Osteopetrose), entziehen sich aufgrund ihrer vesikulären Lokalisation den klassischen elektrophysiologischen Methoden. Aus diesem Grund kam in dieser Arbeit die SSM-Technik [Schulz et al., 2008] zur Charakterisierung des lysosomalen Cl-/H+-Antiporters ClC-7 zum Einsatz. Bei geeigneter Membranpräparation können mit dieser Methode auch vesikuläre Transportprozesse elektrophysiologisch untersucht werden. Neben der grundlegenden biophysikalischen Untersuchung von ClC-7 war es mit Hilfe der SSM-Technik möglich, die Protonen-gekoppelte Antiportaktivität dieses vesikulären CLC-Vertreters nachzuweisen. Außerdem wurde ein robuster Assay etabliert, der auch die pharmakologische Untersuchung von ClC-7 erlaubt. Mit diesem konnte gezeigt werden, dass ClC-7 spezifisch durch die Chloridkanalblocker DIDS und NPPB mit relativ hoher Affinität (DIDS: IC50= 39 µM, NPPB: IC50= 156 µM) zu inhibieren ist. Da ClC-7 auch als potentielles Target in der Osteoporose-Therapie diskutiert wird [Schaller et al., 2005], bietet die SSM-Technik somit eine Plattform für pharmakologische Untersuchungen an diesem Transporter. Neben dem Wildtyp Protein wurde weiterhin die Funktionalität einer physiologisch wichtigen, der Osteopetrose zuzuordnenden Mutante (G215R), untersucht. Es konnte gezeigt werden, dass die Mutante noch immer eine signifikante Transportaktivität besitzt, jedoch einen schweren Lokalisationsdefekt aufweist und nicht mehr korrekt in die Lysosomen transportiert wird. Durch Koexpression der funktionalen beta-Untereinheit Ostm1 [Lange et al., 2006] war es möglich, die lysosomale Lokalisation teilweise, jedoch nicht vollständig wiederherzustellen. Dieser Effekt könnte somit ein Grund für den relativ milden Krankheitsverlauf der mit dieser Mutation verbundenen autosomal dominanten Osteopetrose (ADOII, Alberts-Schönberg Krankheit) sein. Da die SSM-Technik bisher ausschließlich zur Untersuchung primär und sekundär aktiver Transporter zum Einsatz kam [Schulz et al., 2008; Ganea & Fendler, 2009], wurde weiterhin die Eignung der Methode zur Charakterisierung passiver Ionenkanäle anhand des ligandengesteuerten P2X2 Rezeptors überprüft. Ein Vergleich der gewonnenen elektrophysiologischen und pharmakologischen Daten lieferte gute Übereinstimmungen mit den Ergebnissen konventioneller elektrophysiologischer Untersuchungen. So konnte gezeigt werden, dass sich die SSM-Technik auch zur Charakterisierung von Ionenkanälen eignet. Da Ströme über Ionenkanäle bei den klassischen Methoden über eine extern angelegte Spannung gesteuert werden, solch eine Kontrolle bei der SSM-Technik jedoch nicht möglich ist, wurde schließlich in dieser Arbeit versucht, mit Hilfe der lichtgesteuerten Protonenpumpe Bakteriorhodopsin (bR) eine Spannungskontrolle zu etablieren. Anhand eines Fusions-basierten Modellsystems [Perozo & Hubbell, 1993] konnte gezeigt werden, dass lichtgesteuerte Ionenpumpen prinzipiell zur Kontrolle von Ionenkanälen an der SSM genutzt werden können. Allerdings eignet sich bR aufgrund seiner geringen Plasmamembranexpression in CHO Zellen nicht zur direkten Koexpression und Steuerung von Vertebraten-Proteinen. Der Einsatz eukaryotischer Ionenpumpen, kombiniert mit Anionendiffusionspotentialen [Perozo & Hubbell, 1993], könnte sich allerdings als erfolgsversprechend erweisen und die SSM-Technik auch für die Charakterisierung von stark spannungsabhängigen Ionenkanälen öffnen.
Der Silberreiher trat bis zum Ende des 20. Jahrhunderts
in Deutschland nur als Ausnahmeerscheinung auf, zählt
seither jedoch zu den regelmäßigen Gastvögeln im Winterhalbjahr.
Vereinzelt kommt es auch zu Übersommerungen.
Die Herkunft dieser Vögel ist weitgehend unbekannt.
Erstmals in Mitteleuropa konnte von uns ein
Silberreiher mit einem Satellitensender versehen und
von Februar 2007 bis zum Ende der Datenaufnahme
für diesen Bericht im April 2010 verfolgt werden. Der
Vogel überwinterte dreimal in Ostdeutschland und hielt
sich 2008 und 2009 während der Brutzeit sehr ortstreu
über mehrere Monate in der Ukraine auf. Diesen ortstreuen
Phasen zur Brutzeit folgten jeweils nachbrutzeitliche
Wanderungen über mehrere 100 km, die als Mauserzug
interpretiert werden. Erst im Laufe des Oktobers
fand der eigentliche Zug ins Überwinterungsgebiet
statt. Ringfunde aus der Zeit nach dem deutlichen Bestandsanstieg
in Deutschland geben außerdem erste Hinweise darauf, dass die im Nordosten Deutschlands
als Gastvögel auftretenden Silberreiher auch aus Westfrankreich
und Polen stammen können und dass zumindest
in Süddeutschland Vögel aus den traditionellen
ungarischen Brutgebieten auftreten.
Die Ermittlung von Überlebenswahrscheinlichkeiten und Reproduktionsdaten hat eine wachsende Bedeutung als Basis für Populationsmodelle gewonnen. Wir haben Beringungen und Rückmeldungen aus dem Datenbestand der Beringungszentrale Hiddensee und die Ergebnisse aus einer Farbberingungsstudie an 110 Rotkehlchen Erithacus rubecula benutzt, um mit dem Programm MARK für vier häufige Zugvogelarten Überlebenswahrscheinlichkeiten zu schätzen und die Möglichkeiten und Grenzen bei der Nutzung der Datenbank einer Beringungszentrale aufzuzeigen. Es wurden je nach Struktur der Daten entweder Cormack-Jolly-Seber-Modelle (CJS-Modelle) für Wiederfänge und Ringablesungen oder Modelle nach Burnham (1993) für kombinierte Daten aus Totfunden und Wiederfängen verwendet. Für drei Arten konnten wir so plausible Überlebenswahrscheinlichkeiten ermitteln, es gab aber deutliche Unterschiede in der Präzision je nach Vogelart sowie verwendeter Datengrundlage. Bei Fang-Wiederfang-Daten beeinflusste nicht zu modellierende Abwanderung die Ergebnisse für mindestens eine Altersklasse, d. h. wenigstens ein Parameter konnte nicht geschätzt werden. Zudem waren eine ausreichend hohe Wiederfundwahrscheinlichkeit sowie eine vollständige Meldung der Wiederfänge wichtige Voraussetzungen für zuverlässige Ergebnisse. Sie wurden hier durch eine Vorauswahl von Datensätzen aus Gebieten mit mehrjähriger intensiver Fangaktivität erreicht. Kombinierte Modelle aus Totfunden und Wiederfängen waren leichter auf den vollständigen Datenbestand der Beringungszentrale und für alle Altersklassen anwendbar. Bei auf dem Zug oder im Winterquartier stark bejagten Arten, für die genügend Totfunde vorliegen, wurden so brauchbare Ergebnisse erzielt. Daten aus dem Fang von Durchzüglern enthielten teilweise zu wenig verwertbare Rückmeldungen, auch wenn jährlich große Mengen von Vögeln beringt werden („Registrierfang“).
Die minimalinvasive Herzchirurgie ist an der Universität Frankfurt seit Ende der 90er Jahre ein etabliertes Verfahren zur Therapie von Mitralklappenvitien. Dabei kommen die rechtslaterale Minithorakotomie und die partielle oberer Sternotomie mit Verwendung der Herz-Lungen-Maschine zum Einsatz. In der Klinik für Thorax-, Herz- und thorakale Gefäßchirurgie in Frankfurt wurde von Januar 1998 bis Dezember 2005 bei 331 Patienten die Mitralklappe rekonstruiert bzw. ersetzt, und zwar über die rechtsseitige Minithorakotomie in 231 Fällen, über die partielle Sternotomie bei 100 Patienten. Ziel der vorliegenden Studie war die Evaluierung perioperativer und postoperativer Komplikationen. Perioperativ starben lediglich in der Chitwood-Gruppe 3 Patienten. Das Langzeitüberleben beider Gruppen nähert sich dem der Normalbevölkerung. Hinsichtlich des Zieles dieser Operationen, die Wiederherstellung der Funktion der Mitralklappe, wurden an der Universität Frankfurt, im Vergleich mit bereits vorliegenden Studien, ähnlich gute Ergebnisse erzielt. Früh- und Spätkomplikationen traten bei beiden Operationsverfahren selten auf. Dies wird vor allem an der geringen Reoperationsrate deutlich. Bei der Nachuntersuchung zeigten sich im Vergleich zum präoperativen Zustand der Patienten hochsignifikante Verbesserungen hinsichtlich NYHA-Klassifikation, also der allgemeinen Leistungsfähigkeit. Die erfassten Patienten konnten auch von der Verbesserung der Ventrikelfunktionsparameter profitieren, worin sich die beiden Gruppen nicht unterschieden. Obwohl die postoperativen Ergebnisse gut waren, gilt doch hervorzuheben, dass es zu einigen Problemen gekommen ist: 6 Patienten der Chitwood-Gruppe, deren Mitralklappe mit Hilfe einer Fraterplastik rekonstruiert wurde, mussten reoperiert werden. Daher wurde die Technik der Fraterplastik seit März 2003 nicht mehr eingesetzt. Die dargestellten Ergebnisse aus der Literatur belegen die Effektivität der beiden minimalinvasiven Therapieformen im Hinblick auf Überleben, spätere Leistungsfähigkeit sowie peri- und postoperativer Komplikationen. Beide Methoden haben bewiesen, für ausgewählte Patienten eine sichere Alternative zur medianen Sternotomie zu sein. Durch die Komplexität des Verfahrens nach Chitwood werden heute die meisten minimalinvasiven Eingriffe über die partielle obere Sternotomie durchgeführt. Inzwischen wurde ihre Anwendbarkeit auf Notfallpatienten und Kombinationseingriffe an den Herzklappen ausgeweitet.
Vegetation und Management seltener Pflanzenarten im Küstengrünland einer dänischen Ostseeinsel
(2010)
Die vorliegende Arbeit beschreibt die Vegetation des Küstengrünlandes im Naturschutzgebiet „Vestamager“ (ca. 2000 ha) südlich von Kopenhagen sowie Vorkommen von Iris spuria, Selinum dubium und Cerastium subtetrandrum. Die mit diesen Arten verbundenen Pflanzengesellschaften und Standort - faktoren werden ermittelt, um das Management des Naturschutzgebietes zu verbessern. Auf der Grundlage von 73 Vegetationsaufnahmen werden mit TWINSPAN-Klassifikation und indirekter Gradientenanalyse (DCA) die Hauptvegetationseinheiten und wichtigsten Umweltgradienten bestimmt. Die Vegetationsentwicklung 2004–2008 wird in einer weiteren Ordination mit Hilfe historischer Aufnahmen untersucht. Die vegetationsbestimmenden Faktoren auf Vestamager sind Salinität, Feuchtigkeit und Beweidung. Magere, salzgeprägte Weidegesellschaften des Lolio-Cynosuretum sind häufig; innerhalb dieser Assoziation ist zwischen einer wechselfeuchten Ausbildung mit Molinion-Elementen und einer wechseltrockenen Ausbildung mit floristischen Beziehungen zum Mesobromium zu unterscheiden. Im Südwesten des Gebietes wird das Lolio-Cynosuretum mit steigender Salinität durch Salzrasen des Juncetum gerardii ersetzt. Innerhalb der Salzrasen ist auf Ameisenhaufen Salzpioniervegetation entwickelt. Der Übergangsbereich zum Hydrolitoral wird von Brackwasserröhrichten besiedelt. Auf feuchten bis nassen Standorten geht das Lolio-Cynosuretum in Flut- und Trittrasengesellschaften des Ranunculo repentis-Alopecuretum geniculati über. Bei schwacher Beweidung bilden sich Calamagrostis epigejos- Dominanzbestände aus. Iris spuria und Selinum dubium kommen mit je einer Population in der wechseltrockenen Ausprägung des Lolio-Cynosuretum juncetosum gerardii im nördlichen Teil des Gebietes vor. Kleinere Vorkommen von Selinum dubium finden sich auch in Flut- und Trittrasengesellschaften. Cerastium subtetrandrum kommt mit mehreren Kleinpopulationen in Salzpionierrasen auf Ameisenhaufen vor. Iris spuria reagiert empfindlich auf Beweidung und ist in den letzten Jahren deutlich zurückgegangen. Selinum dubium ist toleranter gegenüber Beweidung, und vegetative Individuen können auch auf beweideten Flächen überdauern. Cerastium subtetrandrum ist indirekt von Beweidung abhängig, da potentielle Standorte dieser Art durch Beweidung erhalten und gefördert werden. Intensivierte Beweidung sowie Entfernen von Gehölzen haben Hochgräser zurückgedrängt und Arten offener, salzgeprägter Weidelandschaften gefördert, jedoch ohne Erhöhung der floristischen Diversität. Der optimale Schutz der Zielarten kann nur durch kombinierte Nutzungskonzepte erreicht werden. Für eine langfristige Erhaltung von Iris spuria und Selinum dubium ist eine Reduzierung der Beweidung notwendig. Die Erhaltung von Cerastium subtetrandrum erfordert dagegen eine niedrige Vegetation mit relativ intensiver Beweidung. Eine stärkere Differenzierung der Beweidungsintensität würde alle drei Zielarten auf Vestamager fördern.
Blut-Untersuchungen ziehen sich wie ein roter Faden durch die verschiedenen Abteilungen des Frankfurter Instituts für Rechtsmedizin. Ob mit dem Skalpell, durch scharfsinnige Beobachtung oder Hightech-Laboranalytik: Spezialisierte Rechtsmediziner können einen Tathergang anhand von Blutspurenverteilungsmustern rekonstruieren, Toxikologen messen im Blut betäubende oder giftige Substanzen, Molekularbiologen ordnen Blutspuren über DNA-Profi le Personen zu und versuchen, mit molekulardiagnostischen Methoden unklare Todesursachen aufzuklären. Zwei konstruierte Todesfälle gewähren einen forensischen Blick auf das Blut.
Fluviale Sedimente und Ablagerungen aus küstennahen Bereichen werden im mediterranen Raum häufig herangezogen, um die Reaktionen von Fusssystemen auf Klimawandel, menschliche Einflussnahme und andere Faktoren zu rekonstruieren. Arbeiten, die mit systembasierten Ansätzen auf Einzugsgebietsebene quantitative Aussagen ermöglichen, sind jedoch rar. In der vorliegenden Arbeit wird für das Einzugsgebiet des Rio Palancia, Spanien, ein quantifizierter Sedimenthaushalt vorgestellt, der die Sedimentproduktion des Hinterlandes über die Sedimentpfade mit der Speicherung im Einzugsgebiet und der Lieferung zum Flussdelta verbindet. Ziel ist es, den anteiligen Einfluss von Steuergrößen wie Neotektonik, Klimawandel und Landnutzung auf den spätquartären Sedimentfluss in dem 969,9 km2großen Einzugsgebiet zu bestimmen. Das Einzugsgebiet des Rio Palancia ist Teil der südlichen Ausläufer der Iberischen Kette und mündet bei Sagunto in das Mittelmeer. Mit Hilfe von photogrammetrischen und geomorphologischen Kartierungen, Felddaten (Aufschlussuntersuchung, Rammkern-sondierung) sowie geophysikalischen Messmethoden wurden die Geometrien sowie die internen Strukturen von Sedimentablagerungen untersucht. Auf diesen Grundlagen konnte ein GIS-basiertes Sedimentbudget mit quantitativen Abschätzungen für Budgetkomponenten entlang der Sedimentkaskade erstellt werden. Der Talboden des Rio Palancia-Einzugsgebietes wird dominiert von mehreren pleistozänen und holozänen Degradierungsniveaus, die sich in pleistozäne Kiese und Sande eingeschnitten haben. Bedeutende holozäne, fluviale Sedimentation kann hauptsächlich im mittleren und unteren Einzugsgebiet belegt werden. Obwohl ausgedehnte landwirtschaftliche Terrassenanlagen auf dem Talboden und den Hängen von einem starken anthropogenen Einfluss zeugen, ist davon auszugehen, dass die Degradierung des Talbodens noch bis etwa 390 AD auf den Ausgleich eines sich erhöhten Flussgradienten durch vorangegangene Aggradation zurückzuführen ist. Landwirtschaftliche Nutzung durch Terrassenfeldbau, die seit dem dritten Jahrhundert BC im Arbeitsgebiet belegt ist, deutet auf eine nachhaltige Abkopplung der Sedimentlieferung von den Hängen und pleistozänen bzw. holozänen Sedimentquellen zum aktiven Flussbett hin. Dies resultiert seit dem Mittelalter in einer Potenzierung des vorherrschenden Verengungs- bzw. Einschneidungstrend des aktiven Gerinnebettes. Die Ergebnisse weisen auf ein kompliziertes Zusammenspiel von neotektonischem Erbe, klimagesteuertem Abflussregime und späterer menschlicher Einflussnahme hin, die den Sedimentfluss vom Hinterland zur Küstenzone maßgeblich steuern.
Development and characterization of histamine H3 and H4 receptor ligands as pharmacological tools
(2010)
Histamin gilt seit seiner Entdeckung vor ungefähr 100 Jahren als ein wichtiger chemischer Botenstoff im Organismus. Der Transmitter vermittelt pleiotrope Effekte über vier bisher bekannte G-Protein-gekoppelte Rezeptoren (H1R-H4R), die in die Regulation vielfältiger physiologischer Funktionen involviert und an der Entstehung von Krankheiten beteiligt sind. Antagonisten der ubiquitär im Organismus exprimierten H1R und H2R werden weitreichend zur Therapie von allergischen Erkrankungen bzw. Geschwüren im Gastrointestinaltrakt eingesetzt. H3R und H4R sind die jüngsten Vertreter der Histamin-Rezeptor-Klasse (HR). Auf molekularer Ebene zeigen diese beiden Subrezeptoren einen hohen Verwandtschaftsgrad. Sie ähneln sich u.a. bezüglich ihrer Aminosäuresequenz, ihrer Struktur und der Bindungseigenschaften von Liganden. Beide sind funktionell an inhibitorische/olfaktorische G-Proteine gekoppelt. Negative Rückkopplungsmechanismen werden durch ein hohes Maß an konstitutiver Aktivität ermöglicht. Dies unterstreicht die modulierende Funktion beider Rezeptoren, die wichtige physiologische Prozesse im Gleichgewicht hält. Als Auto- und als Heterorezeptor kommt der H3R hauptsächlich im zentralen Nervensystem vor. Er kontrolliert die Synthese und Freisetzung seines endogenen Liganden, moduliert aber auch die Konzentration anderer Neurotransmitter im synaptischen Spalt, die aus ko-lokalisierten Neuronen freigesetzt werden. Aus diesem Grund nimmt das neuronale histaminerge System eine entscheidende Rolle in der Erhaltung physiologischer Prozesse, wie z.B. Erregung, Aufmerksamkeit und Ernährungsverhalten, ein. Ein Ungleichgewicht der Neurotransmitterkonzentrationen kann die Entstehung neuronaler Erkrankungen verursachen, z.B. neurodegenerative Erkrankungen, Aufmerksamkeitsstörungen oder Übergewicht. Pitolisant ist der erste inverse H3R-Agonist, der sich in Phase III der klinischen Prüfung befindet. Sein erfolgreicher Einsatz bei verschiedenen pathophysiologischen Zuständen kann als Beweis für das H3R-antagonistische Therapieprinzip angesehen werden. Im Gegensatz zum H3R wird der H4R hauptsächlich in der Peripherie exprimiert, wo er an der Modulation des Immunsystems und an der Entstehung entzündlicher Prozesse beteiligt ist. Ergebnisse aus ersten präklinischen Studien sind teilweise widersprüchlich,weisen aber darauf hin, dass H4R-Liganden potenziell zur Therapie von allergischen und entzündlichen Erkrankungen entwickelt werden könnten. In beiden Forschungsgebieten müssen fundamentale Fragen noch geklärt werden, z.B. die Bedeutung von Rezeptor-Isoformen, die Rolle von Rezeptor-Heterodimeren oder die Aufklärung therapeutischer Prinzipien. Zudem müssen Liganden-Bindundgsmodi charakterisiert werden, um in der Zukunft weitere Bindungsareale in den jeweiligen Bindetaschen optimal zu nutzen. Hierdurch können Affinität, Aktivität und Selektivität von Liganden gesteuert werden. Diese Fragestellungen verdeutlichen den Bedarf an neuen Leitstrukturen und pharmakologischen Werkzeugen, die im Rahmen dieser Arbeit synthetisiert wurden. Im Vordergrund des H3R-Projektes standen Prinzipien des bioisosteren Austauschs, um dadurch die Entwicklung verschiedener Vorstufen für Liganden zum Einsatz in bildgebenden Verfahren zu ermöglichen. Ziel des H4R-Projektes war die Etablierung einer neuen Leitstruktur sowie deren Modifikation und Optimierung, um eine für die Aufstellung von Struktur-Wirkungsbeziehungen geeignete Substanzbibliothek zu erhalten. Mit Hilfe verschiedener In-vitro- und In-silico-Experimente wurde diese Bibliothek zur Charakterisierung der H4R-Bindetasche herangezogen und kann zukünftig auch in-vivo verwendet werden. Zu Beginn der Arbeit wurde von wenigen bekannten H4R-Liganden ein Pharmakophormodell abgeleitet. In seinen Grundbausteinen zeigte es große Ähnlichkeit zu einem schon etablierten H3R-Antagonist-Modell, was den hohen Verwandtschaftsgrad der Zielstrukturen widerspiegelte und auf überlappende Struktur-Wirkungsbeziehungen hinwies. Für die Synthese der Liganden bedeutete dies, dass präparative Methoden von einem auf das andere Gebiet übertragen werden konnten. Aufgrund des unterschiedlichen Forschungsstandes werden beide Projekte im Folgenden getrennt behandelt. Die Synthese der nötigen Vorstufen zur Darstellung von H3R-Antagonisten/inversen Agonisten wurde mittels im Arbeitskreis evaluierter Methoden durchgeführt. Standardmethoden wie reduktive Aminierungs- oder Amidierungsreaktionen wurden herangezogen, um das 1-(3-Phenoxypropyl)piperidin-H3R-Pharmakophor (1) zu erweitern. Zusätzlich wurden Triazole als alternative verknüpfende Elemente erprobt, um ein zweites basisches Zentrum, das potenziell Nebenwirkungen hervorruft, zu vermeiden. Die Triazole wurden in einem Klick-Chemie-Ansatz mittels 1,3-dipolarer Zykloaddition nach HUISGEN dargestellt. Sowohl die Zyklisierung als auch die Synthese entsprechender Azid-Vorstufen wurden erfolgreich etabliert und für die Synthese von Liganden aminerger Rezeptoren optimiert. Phenyl- und Benzylgruppen wurden mit dem H3R-Pharmakophor 1 verknüpft, um eine strukturelle Basis zu erhalten, die den Vergleich mit weiteren Liganden ermöglicht. Im Folgenden wurden der zentrale Phenylether sowie die Arylreste im rechten Teil des Pharmakophors durch derartige Gruppen ersetzt, die komplexierende Eigenschaften besitzen und damit zur Darstellung von entsprechenden SPECT (dt. Einzelphotonen- Emissions-Tomografie)-Liganden geeignet sind. Der elektronenziehende und sterisch anspruchsvolle Charakter der Trifluormethylgruppen in Verbindungen 8–10 spiegelt sich sowohl in der reduzierten chemischen Aktivität der jeweiligen Edukte als auch in der nur moderaten H3R-Affinität wider. Daher wurden diese Elemente nicht weiter verfolgt. Mit den Ferrocen-Derivaten 11–15 wurden zum ersten Mal metallhaltige H3R-Liganden entworfen. Die pharmakologische Charakterisierung dieser Verbindungen zeigte, dass die Sandwichkomplexe sich hervorragend zum bioisosteren Ersatz der Phenylreste eignen. Die Affinitäten der analogen Verbindungen sind vergleichbar und liegen im niedrigen nanomolaren Konzentrationsbereich. Der invers-agonistische Charakter des H3RPharmakophors wurde anhand der Verbindungen 11 und 15 bestätigt. Eine vorläufige invivo-Testung der hochaffinen Diamine 11 und 12 zeigte keine zufriedenstellenden Ergebnisse und muss durch weiterführende Untersuchungen ergänzt werden. Verbindung 15 wurde zur Weiterentwicklung zu einem potenziellen SPECT-Liganden ausgewählt. Die elektronenziehenden Eigenschaften des verknüpfenden Triazols erleichterten die Umkomplexierung des Ferrocens zu einem (Tricarbonyl)rhenium-Derivat, jedoch konnten Probleme bei der Aufreinigung einer nicht-radioaktiv markierten Analogverbindung mit den zur Verfügung stehenden chromatographischen Methoden nicht bewältigt werden. Gleichwohl wurden mit den Ferrocen-Verbindungen wertvolle bioisostere Analoga entsprechender SPECT-Liganden synthetisiert. Die Einführung von polaren Kojisäure-Derivaten stellte einen weiteren Ansatz zur Entwicklung von Liganden mit komplexierenden Eigenschaften dar. Außerdem sollten die Molekülgröße reduziert werden, um die Blut-Hirn-Gängigkeit zu erleichtern, und neue Leitstrukturen mit potenziell neuroprotektiven Eigenschaften entwickelt werden. In einem Nebenprojekt wurden Rac1-Inhibitoren dargestellt, die Kojisäure als zentrales Element aufwiesen. Die hier etablierten Synthesewege wurden zur Darstellung der H3RLiganden genutzt. Trotz erheblicher, für g-Pyranone typischer Nebenreaktionen konnte eine Reihe von H3R-Liganden synthetisiert werden (18–24). Die Affinitäten dieser Verbindungen zeigten eine auf den rechten Teil des H3R-Pharmakophors beschränkte bioisostere Potenz von Kojisäure-Derivaten. Besonders die Diamine aus dieser Serie sind als Leitstrukturen für die Entwicklung neuroprotektiver Liganden geeignet. Die neuen H3R-Liganden enthalten außergewöhnliche strukturelle Elemente, die in dieser Art zum ersten Mal am H3R getestet wurden. Die Ergebnisse aus den Bindungsstudien zeigten Grenzen und Möglichkeiten des bioisosteren Ersatzes im zentralen und im rechten Teil des Pharmakophors. Die Verbindungen sind wertvolle Modellsubstanzen, die zur Charakterisierung von lipophilen und hydrophilen Arealen in der H3R-Bindetasche verwendet werden können, und eignen sich als Leitstrukturen, um neue H3R-Liganden mit verschiedenen pharmakologischen Schwerpunkten zu entwickeln. Basierend auf einem von wenigen Referenzliganden abgeleiteten Pharmakophormodell wurde das H4R-Projekt mit verschiedenen Screening-Verfahren initiiert. In-silico wurde nach Fragmenten und neuen Pharmakophoren gesucht, um diese im Folgenden mit Hilfe von klassischen Verfahren der medizinischen Chemie zu modifizieren und zu optimieren. Innerhalb einer Strukturklasse wurden zunächst nur wenige Verbindungen synthetisiert. Zeigten diese ein unzureichendes Bindungsverhalten, wurde die Entwicklung eingestellt. In einem virtuellen Screening wurden zwei heterozyklische Strukturen mit Affinitäten im niedrigen mikromolekularen Konzentrationsbereich identifiziert, die zur Entwicklung einer Reihe von Aminopyrimidinen führten. Ähnliche Verbindungen wurden zeitgleich zu unserem Projekt von der pharmazeutischen Industrie untersucht und durch weitreichende Patente geschützt. Die neue Leitstruktur, N4-Benzyl-6-(4-methylpiperazin-1-yl)pyrimidin-2,4-diamin (46), wurde umfangreich derivatisiert. Prinzipien wie Heteroatom-Austausch, Rigidisierung und Modifikation des Substitutionsmusters am Benzylring nach TOPLISS wurden angewendet, um das Pharmakophor hinsichtlich Affinität, Funktionalität und Selektivität zu diversifizieren und zu optimieren. Die Synthese der Verbindungen 44–71 erfolgte hauptsächlich unter Mikrowelleneinstrahlung. Da konventionelle präparative Methoden keine Produktbildung ermöglichten, wurde eine sequentielle Mikrowellensynthese etabliert, mit Hilfe derer die gewünschte Umsetzung schnell und in hohen Ausbeuten erzielt wurde. Initialschritte zur Darstellung von Fluoreszenzliganden, die auf dem Aminopyrimidin-Pharmakophor basieren, wurden mit Verbindungen 72–75 erfolgreich realisiert. Bezüglich ihrer H4R-Affinität sollten diese Liganden in Zukunft weiter optimiert werden. Struktur-Wirkungsbeziehungen der Verbindung 46 und entsprechender Derivate zeigten, dass Affinitäten im niedrigen nanomolaren Konzentrationsbereich durch die Einführung kleiner, lipophiler benzylischer Substituenten in ortho-Position erreicht werden (z.B. durch 2-Cl- und 2-CH3-Reste in Verbindungen 58 und 59). In Verdrängungsstudien wurde das Bindungsverhalten ausgewählter Verbindungen an anderen HR-Subtypen untersucht. Die Liganden zeigten Selektivität in Bezug auf H1R und H2R und eine Präferenz für den H4R gegenüber H3R. Das 2,6-Dichlor-Derivat 62 stellte eine der potentesten und selektivsten Verbindungen dieser Serie dar. Das Substitutionsmuster des Benzylrestes beeinflusste die Effektivität der Liganden in großem Maße: Ortho- und para-substituierte Verbindungen zeigten in [35S]GTPgS-Bindungsstudien Partialagonismus. Mit steigendem Radius der para-Substituenten wurde eine Verschiebung zum neutralen Antagonismus und zum schwachen inversen Agonismus beobachtet, während meta-Substituenten ausgeprägten inversen Agonismus verursachten. Dieser wurde durch die Rigidisierung der Benzylamin-Gruppierung weiter verstärkt. Verbindung 69 zeigte sogar eine höhere invers agonistische Potenz als der Referenzligand Thioperamid. Um Hinweise auf die strukturellen Voraussetzungen für Agonismus und Antagonismus zu erhalten, wurde eine Moleküldynamiksimulation durchgeführt. Nach der virtuellen Ligandenbindung nahmen der Partialagonist 49 und der inverse Agonist 69 gegensätzliche Bindemodi in der H4R-Bindetasche ein. Die Bindung des inversen Agonisten wurde durch einen scheinbaren „ionic lock“, der hier zum ersten Mal postuliert wurde, stabilisiert. Da in-silico-Experimente von anderen Forschergruppen teilweise gegensätzliche Ergebnisse zeigten, sollten zusätzliche Untersuchungen durchgeführt werden, um zu klären, ob unterschiedliche Bindemodi durch gegensätzlicher Effektivitäten oder verschiedene Pharmakophore hervorgerufen werden. Die Aminopyrimidine stellen exzellente pharmakologische Werkzeuge dar. Die große Diversität bezüglich der Effektivität, die innerhalb einer Strukturklasse vom Partialagonismus bis zum inversen Agonismus reicht, bietet eine geeignete Grundlage, um potenzielle therapeutische Anwendungsbereiche von H4R-Liganden zu untersuchen und zu klären, welche Effekte aus der Aktivierung, Blockade oder Hemmung des H4R resultieren. Klassische Methoden der medizinischen Chemie wurden zur Entwicklung von Liganden zweier eng verwandter Zielstrukturen, H3R und H4R, verwendet. Im H4R-Projekt wurden zusätzlich Computer-gestützte Methoden herangezogen. Die Modifizierung und Optimierung verschiedener Leitstrukturen führte zu der Synthese von 75 Endverbindungen. Das H3R-Projekt, aus dem 22 dieser Verbindungen resultierten, fokussierte auf Prinzipien des Bioisosterismus. Triazole, Ferrocene und Kojisäure-Derivate wurden zum ersten Mal in ein H3R-Pharmakophor integriert. Die Eignung dieser Elemente als bioisosterer Ersatz des zentralen Phenylethers oder der Arylreste im rechten Molekülteil wurde untersucht. Mit dem hieraus gewonnenen Wissen wurden SPECT-Ligand-Vorstufen optimiert. Neue Leitstrukturen mit außergewöhnlichen Elementen stellen zudem Modellsubstanzen dar, die zur anhaltenden Charakterisierung der H3R-Bindetasche dienen. Auf dem H4R-Gebiet gehören die Aminopyrimidine zu einer der am weitesten entwickelten Substanzklassen. Die Derivatisierung der 31 synthetisierten Verbindungen verspricht neue Kenntnisse über diese Stoffklasse. Vor allem inverse Agonisten sollten auf ihre therapeutische Anwendbarkeit als Immunmodulatoren untersucht werden. Eine solche Effektivität könnte strukturell durch die Modifikation der meta-substituierten Aminopyrimidine oder durch die Verzweigung der benzylischen Methylengruppe erreicht werden. Eine ausführliche Charakterisierung der in Bezug auf Affinität und Effektivität vielversprechendsten Derivate, z.B. des 2,6-Dichlor-Derivates 62 oder der inversen Agonisten 68-70, sollte in naher Zukunft durchgeführt werden. Um in-vitro-Daten auf präklinische Tierstudien übertragen zu können, sollten die Liganden zusätzlich an H4Rs unterschiedlicher Arten getestet werden, da Spezies-Unterschiede eine solche Extrapolation derzeit nicht zulassen. Anschließend können die Aminopyrimidine als pharmakologische Werkzeuge in grundlegenden pharmakologischen Experimenten eingesetzt werden, um die Untersuchung der (patho)physiologischen Bedeutung des H4R fortzuführen.
Tagungsbericht zu 'Fusion Culture: Fashion beyond Orientalism and Occidentalism', Universität Potsdam, 5. bis 7. November 2009
Die von Gabriele Mentges (Dortmund) und Gertrud Lehnert (Potsdam) veranstaltete und von der Volkswagen Stiftung geförderte Tagung befasste sich mit dem Thema 'Orientalismus und Mode' zum einen unter historischen Aspekten, zum anderen unter gegenwärtigen Bedingungen, in denen von 'Orientalismus' kaum noch die Rede sein kann. Denn längst haben wechselseitige Bezüge Mode zu einer globalen Angelegenheit gemacht. Vernetzung, Vermischung, Globalisierung, aber auch neue Regionalisierung bestimmt (nicht erst seit) heute die Mode.
Die vorliegende Arbeit beinhaltet die Untersuchung des Schwingungsenergietransfers im N-Methylazetamid (NMA) Molekül und von Wärmetransportprozessen im lichtschaltbaren 310-Aib-Oktapeptid. Dazu unternahmen wir Nichtgleichgewichts-MD-Simulationen und analysierten den zeitlichen Energiefluss in den jeweiligen Biomolekülen. Die Simulationsergebnisse wurden dann im Rahmen der in Kapitel 2 vorgestellten Theorien zum Energietransfer diskutiert. ...
Neue Synthesestrategien als Thema des Chemieunterrichts - Experimente zur Kombinatorischen Chemie
(2010)
In der vorliegenden Dissertation wurde die experimentelle Umsetzung der Thematik Kombinatorische Chemie für den Chemieunterricht in der Sekundarstufe II ausgearbeitet. Dazu wurden geeignete Experimente erarbeitet, die einen Einblick in die Kombinatorische Chemie und somit in die neuen Arbeitmethoden der heutigen Chemie schaffen. Mit deren Hilfe gängige Synthesemethoden wie die Split and Combine-Synthese, Teabag-Methode, Spot-Methode und Pin-Methode aufgezeigt werden können und von den Schülern selbst durchgeführt werden. Als ein vorteilhaftes Modell zum Aufzeigen der Arbeitsweise der Kombinatorischen Chemie haben sich Farbstoffe erwiesen, da sie schnell darstellbar sind und keiner aufwendigen Detektion der entstandenen Produkte bedürfen. Als erstes Farbstoffsystem wurden Azofarbstoffe ausgewählt, da sie auch im fakultativen Themenbereich „Farben“ im Chemieunterricht thematisiert werden. Die Übertragung der normalerweise in Lösung hergestellten Azofarbstoffe auf die Festphasenchemie musste zuerst eine geeignete und kostengünstige Festphase gefunden werden. Hierbei haben sich im Handel erhältliche Ionenaustauscher (Harze ohne Linker), die auch zur Wasseraufbereitung verwendet werden, als geeignet herausgestellt. Die erforderlichen Reaktionsbedingungen der Lösungsreaktionen wurden erprobt, optimiert und auf die Festphasenchemie übertragen. Eine Übertragung der Syntheseprinzipien auf drei weitere Farbstoffsysteme wie der Fluoreszenzfarbstoffe der Pyrydin- und Pyrylium-Reihe sowie der Oxidationsfarbstoffe schloß sich an. Nunmehr stehen für den schulischen Einsatz, aber auch für die Ausbildung, einfache Systeme zur Verfügung, die anhand schnell und problemlos durchzuführender Experimente einen Zugang zu unterschiedlichen Methoden der Kombinatorischen Chemie vermitteln können. Dabei bieten die Experimente Anregungen für weitere Arbeiten. Als problematisch stellte sich jedoch der Zugang zu mehrstufigen kombinatorischen Synthesen auf dem Gebiet der Farbstoffe dar. Hier stößt man mit den aus didaktischen Überlegungen sehr einfach gewählten Beispielen an eine Grenze. Ergänzend wurde die Thematik Kombinatorische Chemie mit hochbegabten Schülern der Internatsschule Schloß Hansenberg und interessierten Schülern aus dem Raum Frankfurt, die an dem Projekt Science Camp teilnahmen, erprobt und das Verständnis für diese Thematik mittels eines Fragebogens untersucht. Ein direkter Vergleich beider Schülergruppen konnte aufgrund unterschiedlicher schulischer Bildung nicht vorgenommen werden, weshalb die Auswertung lediglich erste Eindrücke vermittelt. Danach ist das bisher ausgearbeitete Konzept in Lerngruppen mit hochbegabten Schülern gut einsetzbar. Ein Vergleich mit durchschnittlich leistungsstarken Lerngruppen steht noch aus. Eine wünschenswerte Erweiterung und ein Ausbau der Thematik aus Sicht der Schulchemie sollte anorganische Systeme mit einbeziehen und Strategien der Dekonvolution.
Qualität und Qualitätsmanagement in der universitären naturwissenschaftlichen Lehrerfortbildung
(2010)
Vor dem Hintergrund der politischen Entwicklungen in Hessen und der allgemeinen Debatte über Qualität im Bildungsbereich sollte im Lehrerfortbildungszentrum Chemie (lfbz-Chemie) der Universität Frankfurt am Main eine systematische Qualitätsentwicklung etabliert und dieses Vorhaben wissenschatflich begleitet werden. Die wissenschaftliche Arbeit besteht aus drei Säulen: - Eine erste, qualitative Studie sollte Qualitätskriterien und -indikatoren liefern. - In einer Fallstudie am lfbz-Chemie Frankfurt sollte die Einführung von Instrumenten des Qualitätsmanagements aus dem gewerblichen Weiterbildungsbereich beobachtet und bewertet werden. - Eine bundesweite Umfrage unter universitären Fortbildungsanbietern im naturwissenschaftlichen Bereich sollte sowohl die Struktur der anbietenden Institutionen als auch die allgemeine Einstellung der Befragten zum professionellen Qualitätsmanagement (QM) nach einem im gewerblichen Bereich geläufigen Modell (LQW) beleuchten. Die Qualitätsindikatoren und -kriterien fielen sehr spezifisch für die naturwissenschaftliche Lehrerfortbildung aus. Allein die drei folgenden Bereiche erfassen zwei Drittel aller Nennungen: die „Qualität der Teamer bzw. Moderatoren“, die „Fortbildungsgestaltung“ und die „Zielgruppenorientierung (Schulbezug)“. Nimmt man die Anzahl der Indikatoren und Kriterien pro Bereich als Maßstab, fokussieren die Befragten sehr stark auf Anforderungen, die die Professionalität des Personals betreffen. Zur Orientierung für die Qualitätsarbeit am lfbz-Chemie (Fallstudie) wurde das QM-Modell LQW 2 gewählt; als kleinere Instrumente kamen die Tabellen nach dem Vorbild der Balanced Scorecard (BSC) nach Kaplan und Norton sowie die Stärken-Schwächen-Analyse zum Einsatz. Als erstes Ergebnis der Fallstudie kristallisierten sich drei Arbeitsbereiche heraus: Personalorganisation, Evaluation und Innovationen. Diese Arbeitsfelder ergänzten die identifizierten Anforderungen an Fortbildung somit um Bereiche, die eher der organisatorischen Ebene zuzuordnen sind. Es ließ sich in der Fallstudie feststellen, dass ein ganzes Qualitätsmanagementmodell wie LQW 2 nur als Anregung für den einen oder anderen, als wichtig erachteten Bereich dienen konnte, während sich kleinere Instrumente eher als handhabbar erwiesen. Außerdem konnte postuliert werden, dass - ein persönlicheres Eingehen auf die Ziele und Aufgaben der einzelnen Personen im Sinne eines Total Quality Managements vermutlich zu besseren Ergebnissen geführt hätte als die Konzentration auf allgemeine Themen und die Orientierung am eher abstrakten Modell, - Erfolge sehr nachdrücklich kommuniziert werden müssen und - möglichst eine Person aus dem Stammpersonal für den Bereich Qualität verantwortlich sein sollte. Um ergänzend zur Fallstudie zu allgemeineren Schlüssen gelangen zu können, wurde eine Charakterisierung der universitären Fortbildungsanbieter mittels Clusteranalyse mit Daten der bundesweiten Umfrage durchgeführt. Sie zeigte vier Typen von Anbietern auf. Insgesamt fanden sich neben der Gruppe der großen Anbieter, zu denen auch das lfbz-Chemie gehört, nur vergleichsweise kleine Anbieter. Die in der Fallstudie erhaltenen Ergebnisse können somit nur eingeschränkt auf die meisten Anbieter übertragen werden. Insgesamt konnten Stärken und Schwächen der universitären Anbieter identifiziert werden, mit denen sich die universitäre naturwissenschaftliche Lehrerfortbildung von der gewerblichen Weiterbildung abhebt. Stärken lagen vor allem in den besonderen Kompetenzen, die an der Hochschule anzutreffen sind. Problemfelder lagen ausgerechnet hauptsächlich im Personalbereich. Als spezifische Schwächen der universitären Anbieter im Personalbereich kann z. B. die Stellung der Fortbildung als Nebenaufgabe oder der Verlust von Know-how durch die Fluktuation des Personals gelten. Auch allgemein kann ein Modell wie LQW 2 als Anregung für die Qualitätsarbeit in der universitären Lehrerfortbildung dienen, nicht jedoch umfassend umgesetzt werden. Die „kleineren“ Instrumente können dagegen eher als allgemein geeignet betrachtet werden. Während die „großen“ Anbieter durch verbesserte personelle Ressourcen für Aufgaben wie die Qualitätsarbeit unterstützt werden könnten, bietet sich für die „kleinen“ Anbieter eher die Unterstützung durch eine zentrale Stelle der Universität an, um die Fortbildungsanbieter doch noch in ein professionelles Qualitätsmanagement einbinden zu können.
Mit dem Doku-Drama, scheint das (öffentlich-rechtliche) Fernsehen eine Form gefunden zu haben, Themen aus der Geschichte für ein weitgefasstes Publikum interessant zu machen und damit gleichzeitig den Spagat zwischen Bildungsauftrag und Unterhaltungsanspruch des Mediums zu schaffen. Das hier beispielhaft untersuchte Doku-Drama Todesspiel von Heinrich Breloer hat gezeigt, wie im heutigen Fernsehen historische Themen umgesetzt werden und wie sich mit semidokumentarischen Formen Geschichte für den Zuschauer attraktiv gestalten lässt. Dabei fühlt sich das Fernsehen im Sinne seines Bildungsauftrages verpflichtet, als Informationsmedium den Zuschauern einen Zugang zu historischen Themen zu eröffnen und ihm die Auseinandersetzung mit der Vergangenheit zu ermöglichen. Gleichzeitig will und muss das Fernsehen dem Wunsch der Zuschauer nach Unterhaltung gerecht werden. ...
Hintergrund und Problemstellung: Viele vermeidbare Medikamentennebenwirkungen bei älteren Patienten haben ihre Ursache in der fehlenden Dosisanpassung bei Niereninsuffizienz. Beim Patienten über 65 Jahre liegen die Serumkreatininwerte oft noch im Normbereich, während die tatsächliche Nierenfunktion schon deutlich beeinträchtigt ist. Eine genauere Beurteilung der Nierenfunktion ist mit der Berechnung der glomerulären Filtrationsrate möglich. In der vorliegenden Untersuchung wurde in einer Praxisgemeinschaft einer hausärztlich tätigen Internistin und einer Fachärztin für Allgemeinmedizin in Frankfurt retrospektiv exploriert, ob niereninsuffiziente Patienten als solche erkannt wurden und wenn ja, ob sie dosisadaptiert mit Medikamenten versorgt wurden, bzw. in wie vielen Fällen sie fehlerhafte Verordnungen erhielten. Methode: Eine Zielpopulation von 100 Patienten mit moderater bis schwerer Nierenfunktionseinschränkung (Kreatinin-Clearance von 60 oder kleiner) wurde retrospektiv hinsichtlich der verordneten Medikation untersucht. Dabei wurde die glomeruläre Filtrationsrate mittels Cockroft-Gault-Formel errechnet. Bei nierensensiblen Substanzen wurde die in der Fachinformation empfohlene Dosis mit der tatsächlich verordneten Dosis verglichen. Ergebnisse: Die Ergebnisse dieser Untersuchung zeigen, dass von 232 auswertbaren Patienten 102 eine errechnete Kreatinin-Clearance von weniger als 60 ml/min aufwiesen, obwohl bei 48 Patienten der Serumkreatininlevel noch im Normbereich lag. Eine Dosisanpassung wegen Niereninsuffizienz war bei 261 von 613 Verordnungen erforderlich und wurde in 189 Fällen wie empfohlen umgesetzt. In 72 Fällen (27%) wurde sie nicht korrekt durchgeführt. Hier wurde die Dosis 32 mal nicht angepasst, 40 mal wurde trotz Kontraindikation verordnet. Das Risiko einer Fehlverordnung war signifikant assoziiert mit dem Vorliegen einer schweren Nierenfunktionsstörung (GFR < 30ml/min). Mit dem Vorliegen eines normalen Serumkreatininwerts waren keine signifikanten Assoziationen nachweisbar. Die Substanzen Metformin, Ramipril, Enalapril, HCT, Spironolacton und Simvastatin machten den Hauptanteil der Fehlverordnungen im Bereich der Dauermedikation aus. Bei den temporären Verordnungen waren im Schwerpunkt Antibiotika (Cefuroxim, Cefpodoxim, Levofloxacin) und Antiphlogistika (Diclofenac, Ibuprofen) betroffen. Schlussfolgerung: In einer durchschnittlichen Hausarztpraxis kommen in signifikanten Maße Fehlverordnungen vor. Die Gründe hierfür sind vielfältig. Insbesondere das Verschreibungsverhalten von Hausärzten hat eine zentrale Bedeutung für die Patientensicherheit bei Medikamentenverordnung und sollte unbedingt Gegenstand weiterer Untersuchungen sein.
Hintergrund: Untersuchungen bezüglich Tablettenlast, Sturzereignisse und unangemmessener Dosierung bei Niereninsuffizienz wurden bei Patienten in Pflege-und Altenheimen durchgeführt. Daten von Heimbewohnern im zunehmenden ambulanten Pflegebereich, speziell aus Deutschland wurden hier erörtert. Material und Methoden: Wir evaluierten Patienten, die täglich durch einen ambulanten Pflegedienst versorgt wurden (Kohorte 1, N=102, Alter: Median 80 Jahre) oder Pflege ausschließlich von Angehörigen erhielten (Kohorte 2, N=102, Alter: Median 76 Jahre) an V1 als Ausgangspunkt, nach 6 Monaten (V2) und 12 Monaten (V3). Ergebnisse: An Visite 1 wiesen die Patienten aus Kohorte 1 im Median 5 (range 3-15), an Visite 3 im Median 6 (range 3-17) Verordnungen auf. Es konnten keine Unterschiede bezüglich der Anzahl und des Verordnungsmusters zwischen beiden Kohorten beobachtet werden. An Visite 1 war bei 30/102 Patienten aus Kohorte 1 ein Kreatininwert vorhanden, welcher innerhalb der letzten 6 Monate erhoben wurde, 13/30 Patienten wiesen eine eGFR < 50 ml/min. auf. 6/34 Medikamenten, welche der Anpassung an die Nierenfunktion bedürfen, wurden nicht angemessen dosiert. Seltene Kontrollen der Nierenfunktion und nicht angemessene Dosierung wurden auch an anderen Visiten und ferner bei Kohorte 2 beobachtet. Innerhalb eines Jahres 29/75 mobilen Patienten aus Kohorte 1 hatten ein Sturzereignis, 18/29 dieser Patienten wiesen eine regelmäßige Verordnung von Benzodiazepinen auf, während ein Benzodiazepin bei 6/46 Patienten regelmäßig verordnet wurde, welche kein Sturzereignis aufwiesen (Chi-test p= 0.004). In Kohorte 2 war die Anzahl der gestürzten Patienten geringer (19/84 mobilen Patienten, p= 0.028). 11/19 Patienten hatten eine Benzodiazepinverordnung, im Gegensatz zu 5/65 Patienten, die nicht gestürzt sind (Chi-test p=0.001). Schlussfolgerung: Es muss geklärt werden, ob ein Pflegedienst zur Arzneimitteltherapiesicherheit der Patienten beitragen kann, z. B. durch Überprüfung der Medikamentenpläne und Organisation zusätzlicher Laborwertkontrollen.
Während der vergangenen Jahrzehnte stieg die durchschnittliche Lebenserwartung der Bevölkerung in den westlichen Industrieländern durch die Verbesserung der allgemeinen Lebensbedingungen, insbesondere durch die Fortschritte in der Hygiene und der Medizin sowie stabile politische Verhältnisse, kontinuierlich an. Aufgrund dieser demographischen Entwicklung zu einer zunehmend älter werdenden Gesellschaft nimmt auch das Auftreten von progressiven, altersabhängigen Erkrankungen, wie zum Beispiel der Parkinson‟schen Krankheit zu. Dieser Trend stellt sowohl für die betroffenen Patienten und ihre Angehörigen als auch für die Gesundheits- und Sozialsysteme eine gewaltige und kostenintensive Herausforderung dar. Um wirkungsvolle Therapien entwickeln zu können, die früh im Krankheitsverlauf eingreifen und die Manifestation der Erkrankung verhindern oder verzögern beziehungs-weise die darauf abzielen, die Symptome der Erkrankung nach deren Manifestation zu lindern, ist es unerlässlich, die diesen progressiven, altersabhängigen Krankheiten zugrundeliegenden Mechanismen zu erforschen und entsprechende krankheitsspezifische, molekulare Biomarker zu identifizieren. Darüber hinaus stellt die Identifizierung solcher Biomarker einen wichtigen Ansatzpunkt für die klinische Diagnostik und Therapeutik sowie für die Entwicklung neuer therapeutischer Behandlungsstrategien dar. Das subzellulär vorwiegend präsynaptisch lokalisierte Protein alpha-Synuklein blieb in den Jahren nach seiner Erstbeschreibung 1988 durch Luc Maroteaux von der biomedizinischen Forschung weitgehend unbeachtet. Erst die Assoziationen von unterschiedlichen Mutationen des alpha-Synuklein-Gens mit seltenen, autosomal-dominant vererbten, monogenetischen Varianten der Parkinson‟schen Krankheit (PARK1 und PARK4) seit 1997 sowie die Identifizierung des Proteins im Jahre 1998 als Hauptbestandteil von intrazellulären Proteinaggregaten (Lewy-Körpern und Lewy-Neuriten), deren Vorkommen charakteristisch für progressive, neurodegenerative und unter dem Sammelbegriff „Synukleinopathien“ klassifizierte Erkrankungen (wie beispielsweise auch die häufigen, sporadischen Formen der Parkinson‟schen Krankheit) ist, ließen das alpha-Synuklein in den Fokus der biomedizinischen Forschung rücken. Trotz intensiver Bemühungen der weltweiten Forschungsgemeinschaft konnten seitdem in den vergangenen 13 Jahren die physiologischen Funktionen von alpha-Synuklein und die den unterschiedlichen Synukleinopathien zugrundeliegenden, molekularen pathophysiologischen Mechanismen nicht genau identifiziert werden. Stattdessen führte die intensive Forschung an alpha-Synuklein mit den unterschiedlichsten experimentellen Herangehensweisen und Modellsystemen zu verschiedenen und teilweise kontroversen Hypothesen und Theorien über dessen physiologische Funktion und pathophysiologische Wirkungsweisen. Die in dieser Dissertationschrift dargestellten experimentellen Untersuchungen wurden an zwei speziellen transgenen Mausmodellen durchgeführt, die entweder einen vollständigen Mangel (= „knockout“; KO) des alpha-Synuklein-Proteins oder eine transgene Überexpression von humanem, A53T-mutierten alpha-Synuklein aufwiesen. Das Hauptziel der dargestellten Studien war es, neue Erkenntnisse hinsichtlich der physiologischen Funktionen des alpha-Synuklein-Proteins, beziehungsweise der krankheits-relevanten, pathophysiologischen Mechanismen der den familiären PARK1- und PARK4-Varianten der Parkinson‟schen Krankheit zugrundeliegenden alpha-Synuklein-Mutationen (Substitution von Alanin durch Threonin an Position 53 der Aminosäuresequenz (A53T; PARK1) sowie Überexpression (Genduplikation/-triplikation; PARK4)) zu gewinnen...
"You've heard of Oxford Circus, you've heard of Piccadilly Circus, and this is the Rolling Stones Rock and Roll Circus" - als Rolling-Stones-Frontmann Mick Jagger diesen Satz am 11. Dezember 1968 gegen 14 Uhr in der Montur eines Zirkusdirektors in die Kameras der BBC spricht, ahnt er mit Sicherheit noch nicht, was insbesondere er in den folgenden Wochen für einen beispiellosen Zirkus rund um diese Fernsehaufzeichnung veranstalten wird. Zu diesem Zeitpunkt, da die Bänder für die Aufzeichnung des 'Rolling Stones Rock and Roll Circus' gestartet werden, glaubt Jagger wohl noch, dass die TV-Sendung ein entspanntes Aufeinandertreffen mit befreundeten Rock'n'Roll-Größen wird; er glaubt wohl noch, dass der Auftritt der Rolling Stones am Ende des Konzertes zum furiosen Abschluss wird und die Performances der übrigen Bands in den Schatten stellt; und vor allem glaubt er wohl noch, dass der 'Rock and Roll Circus' wenige Wochen nach der Aufzeichnung über die heimischen Fernseher Großbritanniens flimmert. 15 Stunden später denkt Jagger über all dies anders. Aber der Reihe nach.
Die US-amerikanische Alternative Rockband The Eels wurde 1995 durch den Songwriter Mark Oliver Everett gegründet, der der programmatische Kopf der Gruppe geblieben ist. Sie zeichnete sich von Beginn an durch eine ungewöhnliche Experimentierfreude aus, darum bemüht, immer neue unterschiedliche Klangspektren in der Musik der Band zu entfalten. Everett ist der einzige, der noch aus der Erstformation stammt; sämtliche anderen Mitglieder der Gruppe sind z.T. mehrfach ausgetauscht wurden.
Weimarer Beiträge 56/2010
(2010)
Die Weimarer Beiträge - seit ihrer Einstellung durch den Aufbauverlag 1991 vom Passagen Verlag herausgegeben - ist eine der renommiertesten Literatur- und Kulturzeitschriften der ehemaligen DDR. Durch ihren interdisziplinären Ansatz, der auch allgemeine kulturelle, ästhetische und politische Überlegungen einbezieht, trägt sie zu einer Einbindung der deutschsprachigen Kulturwissenschaften in die internationale Diskussion bei.
Das Exil war sein Schicksal. Davon ist er zeit seines Lebens nicht losgekommen. Hans Sahl, aus Dresden gebürtig, gehörte zu jenen brillanten Intellektuellen, die bereits im geistigen Leben der Weimarer Republik eine Rolle spielten, vor den Nazis fliehen mußten und als ungeliebte Heimkehrer in der Bundesrepublik lange vergessen blieben. Erst in seinen letzten Lebensjahren, die der fast erblindete Autor in Tübingen verbrachte, wurde er mit Preisen überschüttet, wurden seine Gedichte und Romane neuaufgelegt. “Wir sind die Letzten“, hieß eine Gedichtsammlung, die 1941 erschien, in der sich dieser „Trödler des Unbegreiflichen“, wie er sich nannte, als Moralist und Wahrheitsfanatiker von hohen Graden zu erkennen gab.
“Es ist weder Schwäche noch Minderwertigkeit des Erotischen, wenn es seiner Art nach auf gespanntem Fuß mit der Treue steht, vielmehr bedeutet es an ihm das Abzeichen seines Aufstiegs zu noch weiteren Zusammenhängen. Und darum muß auch da, wo es in solche schon weiter einbezogen wird, ihm von dieser ungenügsamen Sensibilität vieles erhalten bleiben, gerade so, wie es seinerzeit sich nur begründet auf den ursprünglichsten Vorgängen des Organlebens.“ Lou Andreas-Salomé – sie taucht auf zum ersten Mal 1882 als Einundzwanzigjährige, von Nietzsche und seinem Freund Paul Rée gleichermaßen verehrt, geliebt, bewundert. Das Paar Lou/ Nietzsche hat die Phantasie späterer Generationen beflügelt, dieses Zuendedenken und –leben nicht erfüllter Wünsche und Sehnsüchte hat das Kolorit beider Erinnerung wesentlich überzeichnet.
Der IT-Industrieverband Bitkom findet die Debatte um Netzneutralität nicht so gelungen und möchte lieber über etwas anderes reden: Deutsche IT-Branche ringt um Position zur Netzneutralität. Dass die Deutsche Telekom bei Bitkom eines der einflußreichsten Mitglieder ist, wenn nicht sogar das einflußreichste, dürfte damit sicher überhaupt nichts zu tun haben.
Mediengestützter Deutschunterricht im türkischen universitären Bereich : eine Bestandsaufnahme
(2010)
A trend in nature of a permanent increase towards multimedia lifestyle has arisen in all stratas of the society. Thus, rather than using written course-books, publishing houses prefer to encourage use of multimedia which are dependent to course-book or which are independent of course-book and language learners prefer to learn with multimedia. Thus it is encouraged that courses are supported in that manner. This study aims to examine scope and limits of computer aided German teaching which is flourishing as a foreign language within Turkey university education recently. This study has been applied in preparatory classes of departments which provide four-year education. Results of a survey on use of multimedia dependent on course-book or independent of course-book within courses within Turkey university education has been given within scope of this study. Evidences on competence of German teachers and learners in use of multimedia has been given and have been visualized through use of graphics. Problems of multimedia aided German courses and solutions offers will be submitted.
Nach den Worten des Bundesverfassungsgerichts ist die Gewaltenteilung ein tragendes Organisationsprinzip des Grundgesetzes (BVerfGE 3, S. 225 ff. [247]). Keine Gewalt darf ein von der Verfassung nicht vorgesehenes Übergewicht über die andere Gewalt erhalten (BVerfGE 9, S. 268 ff. [279]). Wo in der deutschen Verfassungswirklichkeit im Verhältnis zwischen Exekutive und Judikative solche Organisationsstrukturen von zureichender Wirkungskraft zu finden sind, stellt das Bundesverfassungsgericht nicht klar. Die allein mit rechtswissenschaftlichen Instrumentarien nicht zu klärende Frage, ob die Bundesrepublik Deutschland bereits Organisationsstrukturen besitzt, die ein psychosoziales Übergewicht der Exekutive über die Rechtsprechung ausschließen, begegnet bei näherer Betrachtung der Verfassungswirklichkeit in Deutschland (Kapitel III., Schwerpunkt der Dissertation) erheblichen Zweifeln. Die nach dem Ende des 2. Weltkriegs vorgefundene und bis heute in ihrer Grundstruktur unveränderte Verwaltung der Dritten Gewalt durch die Exekutive entspricht nicht den Zielen des Gewaltenteilungsprinzips. Ein Prinzip ist eine Einsicht, ein Ziel und eine Handlungsregel, die methodisch am Anfang eines theoretischen Aufbaus oder Systems von Handlungsorientierungen steht. Montesquieu umschreibt die seinem Gewaltenteilungsprinzip zu Grunde liegende anthropologische Einsicht mit den Worten: „Eine ewige Erfahrung lehrt jedoch, dass jeder Mensch, der Macht hat, dazu getrieben wird, sie zu missbrauchen. Er geht immer weiter, bis er an Grenzen stößt. Wer hätte das gedacht: Sogar die Tugend hat Grenzen nötig“. Die deutsche Verfassungswirklichkeit der Rechtsprechung kennt keine Schutzgrenzen gegenüber der Exekutive. Es gibt keine Organisationsstrukturen, die subtile Übergriffe der vollziehenden Gewalt auf die Rechtsprechung von vornherein objektiv unmöglich machten. Deutschland begnügt sich mit Appellen an die mit der Justizverwaltung betrauten Regierungsmitglieder (i.d.R. Justizminister) und an die ihnen nachgeordneten Staatsorgane (z.B. Gerichtspräsidenten); sie hofft auf deren Rechtstreue und Augenmaß. Deutschland folgt dem Hoffnungsprinzip, nicht dem Gewaltenteilungsprinzip. Das im Grundgesetz festgeschriebene Prinzip der Gewaltenteilung organisatorisch umzusetzen, ist ein Ziel und eine Handlungsregel und damit eine vom Grundgesetz gestellte Aufgabe (a.M. BVerfGE 55, S. 372 ff. [388]). Die der Dreiteilung der Staatsgewalten (Art. 20 II 2 GG) vorausgehende anthropologische Einsicht Montesquieus ist überdies einer der bei der Auslegung des Grundgesetzes anzulegenden Maßstäbe. Der Wortlaut des Art. 92 erster Halbsatz GG ist die an die Spitze des Abschnitts „IX. Die Rechtsprechung“ gestellte Bestätigung der Grundentscheidung des Art. 20 II 2 GG für die Gewaltenteilung. Er bringt den Willen des Grundgesetzes zum Ausdruck, dass in der Verfassungswirklichkeit Deutschlands die rechtsprechende Gewalt in einer organisatorisch gleich wirkungsvollen Weise den Richtern anvertraut sein möge wie die gesetzgebende Gewalt den Parlamentsabgeordneten.
Das Neuroblastom ist ein Tumor, der sich von sympathoadrenergen Vorläuferzellen ableitet und die häufigste solide Krebsform im Kindesalter darstellt. Das breite klinische Spektrum dieses Tumors, das von spontaner Regression zu fataler Progression reicht, spiegelt die außerordentliche biologische und genetische Heterogenität dieses Tumors wider. Polyploidie und Genexpressionsanalysen werden auf klinischer Seite zur Risiko- und Therapieeinschätzung eingesetzt. Genomweite Screeninganalysen identifizierten den Transkriptionsfaktor Phox2b als erstes Prädispositionsgen für NB. Frühere Arbeiten haben gezeigt, dass Phox2b absolut essentiell für die Entstehung aller Ganglien des autonomen NS aus Neuralleistenzellen ist. Ziel der Untersuchungen dieser Arbeit war es, die Auswirkungen der NB-assoziierten Phox2b-Mutationen auf Proliferations- und Differenzierungsverhalten sympathoadrenerger Vorläuferzellen zu untersuchen. Hierzu wurden paravertebrale, sympathische Grenzstränge aus Huhnembryonen des Embryonaltags 7 präpariert, dissoziiert und mit Expressionsplasmiden für Phox2bwt und NB-Phox2b-Mutationen transfiziert. Nach zwei Tagen in Kultur wurden mit molekularbiologische Methoden Veränderungen des Proliferations-und Differenzierungsverhalten untersucht. Die Analyse des Proliferationsverhaltens transfizierter Neurone mit BrdU-Proliferationsassays und Phospho-Histon-3-Antikörpern offenbarte einen stark antiproliferativen Effekt des Phox2bwt-Proteins, den die untersuchten NB-Phox2b-Mutationen nicht aufwiesen. NB-Phox2b-Patienten sind heterozygot, d.h. Träger eines gesunden und eines mutierten Phox2b-Allels. Um die genetische Situation im NB-Patienten nachzuahmen, wurde mit spezifischen siRNAs das endogene Phox2b-Protein-Niveau herunter reguliert. NB-Phox2b-Mutationen mit mis- oder nonsense Mutation in der Homöodomäne zeigten unter Phox2b-Knockdown-Bedingungen einen proliferationsstimulierenden Effekt. Diese Experimente warfen die Frage auf, über welche Mechanismen Phox2b und NB-Phox2b-Mutationen Einfluss auf die Zellzykluskontrolle nehmen. Die quantitative Analyse der Expression bekannter Zellzyklusregulatoren wie Zyklin D1, D2 und D3 und der Zyklin-abhängigen Kinase-Inhibitoren p18, p21 und p57kip2 verlief ergebnislos. Die Überexpression des Zyklin-abhängigen Kinase-Inhibitors p27kip1 wirkte antiproliferativ auf Kulturen sympathoadrenerger Vorläuferzellen und das p27kip1-Epxressionsniveau korrelierte mit dem Phox2b-Proteinniveau. P27kip1 scheidet jedoch als alleiniger Vermittler des antiproliferativen Effekts von Phox2b aus, da die ebenfalls antiproliferativ wirkende Phox2-Homöodomäne keinen Einfluss auf das p27kip1-Expressionsniveau besitzt. Vielmehr wurde der bHLH-Transkriptionsfaktor Hand2 als Mediator der Proliferationseffekte von Phox2b identifiziert. Die Proliferation sympathoadrenerger Vorläuferzellen ist abhängig von der Hand2-Proteinmenge, und Hand2-Überexpression ist ausreichend, den antiproliferativen Effekt von Phox2b aufzuheben. Damit im Einklang geht der proliferationsstimulierende Effekt der Phox2bHDmut bei siRNA-vermitteltem Hand2-Knockdown verloren. Weiterhin führt Phox2b-Überexpression zu verringertem Hand2-Expressionsniveau und Phox2b-Knockdown zu vermehrter Hand2-Transkription. In Protein-Protein-Interaktionsexperimenten konnte eine direkte Bindung von Hand2 an Phox2bwt und die untersuchten NB-Phox2b-Mutanten nachgewiesen werden. Diese Ergebnisse zeigen, dass Hand2 in der Vermittlung der Phox2b-Proliferationseffekte auf transkriptioneller und posttranskriptioneller Ebene involviert ist. Der Wirkungsmechanismus dieser Phox2b-Varianten / Hand2-Komplexe konnte nicht endgültig geklärt werden und wird in Form verschiedener Modelle diskutiert. In NB-Patienten korreliert ein hohes Expressionsniveau von Differenzierungsmarkern mit mildem Krankheitsverlauf. Die Rolle von Phox2b als Schlüsselgen in der Entstehung und Differenzierung autonomer Neurone und die genetische Heterogenität des NB legen eine Funktion von NB-Phox2b-Mutationen auf den Differenzierungsstatus sympathoadrenerger Vorläuferzellen nahe. In quantitativen Analysen wurde die Expression von Phox2b-Zielgenen und in NB-Diagnostik involvierten Genen untersucht. Phox2bK155X, eine C-terminal trunkierte NB-Phox2b-Mutation, wirkte dominant-negativ auf die Expression der noradrenergen Markergene Th und Dbh, Tlx3 und die Neurotrophinrezeptoren trkA und p75, deren reduzierte Expression mit schlechter Prognose und damit aggressiven NB-Formen korreliert ist. Zusammenfassend konnte in dieser Arbeit gezeigt werden, das NB-Phox2b-Mutationen in sympathoadrenergen Vorläuferzellen, den potentiellen Tumorentstehungszellen des NB, proliferationsstimulierend wirken und zumindest die C-terminal trunkierte Phox2bK155X-Mutation zur Dedifferenzierung dieser Zellen führt. Hereditäre Mutationen in Phox2b könnten im Patienten nicht nur die terminale Differenzierung sympathischer Neurone stören, sondern auch durch eine verlängerte Phase der Neurogenese die Empfänglichkeit für weitere Tumor-initiierende Mutation erhöhen.
In dieser Arbeit wurde ein Verfahren entwickelt, mit dem die Entfaltung von Proteinen simuliert werden kann. Anhand der Simulation kann die Schmelztemperatur bestimmt und damit die Thermostabilität einer Struktur untersucht werden. Außerdem ist die Untersuchung struktureller Veränderungen möglich, die während der Entfaltung auftreten und letztendlich zum globalen Zerfall der Struktur führen. Die Bereiche, von denen der globale Zerfall der Struktur ausgeht, können bestimmt werden. Es wurde untersucht, inwieweit diese Entfaltungsregionen Strukturbereiche darstellen, deren Mutation die thermische Stabilität der Struktur beeinflusst. Das entwickelte Verfahren basiert auf der Anwendung von Methoden aus der Rigiditätstheorie. Die thermische Entfaltung der Strukturen wird über das sukzessive Aufbrechen nichtkovalenter Wechselwirkungen in den Netzwerken simuliert. An-sätze aus der Perkolations- und Netzwerktheorie werden verwendet, um die Rigidität und Flexibilität in den Netzwerken während der Entfaltung zu untersuchen. Diese unter dem Begriff der Analyse statischer Netzwerke (constraint network analysis, CNA) zusammengefassten Methoden wurden im ersten Teil dieser Arbeit auf einen Datensatz homologer meso- und thermophiler Proteine angewendet. Dabei wurde untersucht, ob die thermophile Anpassung tatsächlich über eine Rigidisierung der Struktur erfolgt. Außerdem wurde die Theorie der korrespondierenden Zustände getestet, die besagt, dass bei der thermophilen Anpassung trotz globaler Rigidisierung für die Bioaktivität wichtige flexible Bereiche konserviert sind. Mit Hilfe der CNA wurden Entfaltungsregionen der Proteine aus dem Datensatz bestimmt und mit Strukturbereichen verglichen, in die thermostabilisierende Mutationen eingeführt wurden. Außerdem wurde untersucht, inwieweit vorhergesagt werden kann, ob eine möglicherweise thermostabilisierende Mutation die Aktivität negativ beeinflusst. Für zwei Drittel der thermophilen Proteine aus dem Datensatz konnte eine höhere Thermostabilität vorhergesagt werden als für das entsprechende mesophile Protein. Es konnte zudem gezeigt werden, dass die thermophile Anpassung dieser Proteine tatsächlich über eine Rigidisierung der Struktur erfolgt. Offensichtlich werden bei der Anwendung der CNA implizit alle möglichen Mechanismen der thermophilen Anpassung berücksichtigt. Die für zwei Paare meso- und thermophiler Proteine vorhergesagten Entfaltungsregionen stimmten sehr gut mit Bereichen überein, in die thermostabilisierende Mutationen eingeführt wurden. Damit wurde gezeigt, dass die CNA hilfreich zur Unterstützung des Protein Engineering ist, da die thermische Stabilität einer Struktur abgeschätzt werden kann, andererseits Hinweise darauf gegeben werden, in welchen Bereichen der Struktur thermostabilisierende Mutationen eingeführt werden können. Anhand des Vergleichs mikroskopischer Stabilitäten homologer Proteine konnte gezeigt werden, dass die CNA ein Abschätzen des Effekts einer thermostabilisierenden Mutation auf die Aktivität erlaubt, was wiederum für den Einsatz der CNA zur Unterstützung des Protein Engineering spricht. Im zweiten Teil dieser Arbeit wurde die CNA auf eine Serie von Phytasen unterschiedlicher Thermostabilitäten angewendet. Da es sich bei den Phytase-Strukturen um Homologie-modelle handelte, die nicht direkt mit der Analyse statischer Netzwerke untersucht werden konnten, wurde eine ensemblebasierte CNA etabliert. Dazu wurden kurze MD-Simulationen zur Verbesserung der homologiemodellierten Strukturen durchgeführt, aus denen dann ein konformationelles Strukturensemble extrahiert wurde. Aus den konformationellen Ensembles werden Thermostabilitäten vorhergesagt. Bei der Vorhersage der Thermostabilitäten ergab sich eine bemerkenswert gute Übereinstimmung mit experimentell bestimmten relativen Halbwertszeittemperaturen. Bereiche mit hoher Entfaltungsregionwahrscheinlichkeit stimmen gut mit Regionen überein, in denen thermostabilisierende Mutationen experimentell eingeführt wurden. Diese Ergebnisse offenbaren, dass mit der Entwicklung der ensemblebasierten CNA die methodischen Grundlagen für den Einsatz des Verfahrens zur Unterstützung des Protein Engineering von Phytasen geschaffen wurden.
Das Ziel der vorliegenden Arbeit war, zu analysieren, welche Einflussgrößen sich auf die Kryotransferergebnisse positiv oder negativ auswirken können, um somit Paaren, die über kryokonservierte Zellen verfügen, am effektivsten zu einem gemeinsamen Kind zu verhelfen.
Untersucht wurde, ob das Alter der Patientinnen, die Art der Befruchtung, die Anzahl der übertragenen Embryonen und die Zyklusvorbereitung einen Unterschied auf die Entwicklungs- und Implantationsfähigkeit menschlicher Eizellen sowie auf die Schwangerschaftsrate nach Kryokonservierung und Auftauen im Pronucleus-Stadium aufwiesen.
In der vorliegenden Studie wurden 126 Patientinnen mit ungewollter Kinderlosigkeit, die zwischen 2002 und 2004 am Universitätsklinikum Frankfurt am Main in Behandlung waren, aufgenommen. Das Durchschnittsalter der Patientinnen lag bei 33,3 Jahren. Von 226 durchgeführten Kryotransferzyklen resultierten die Pronukleus-Eizellen bei 34 Kryotransferzyklen aus einer In-vitro-Fertilisation (IVF) und bei 192 Zyklen aus einer intrazytoplasmatischen Spermieninjektion (ICSI).
Es wurde festgestellt, dass in der vorliegenden Studie die erzielte Erfolgsrate, gemessen an der relativ geringen Schwangerschaftsrate, deutlich niedriger lag als beim deutschen IVF-Register. Das Resultat muss jedoch auch unter dem Aspekt der schlechten Ergebnisse der IVF-/ICSI-Therapie in der untersuchten Gruppe betrachtet werden.
Die Ergebnisse der Kryotherapie sind dagegen mit den Zahlen anderer Reproduktionszentren vergleichbar, die derzeit eine Effektivität von durchschnittlich 19,12 % erreichen (DIR 2007) (23).
Bei der Untersuchung wurde jeweils nur der erste und zweite Kryotransferzyklus pro Patientin ausgewertet, damit die Voraussetzung zur Untersuchung der Einflüsse anamnestischer Faktoren gleich war.
Durch ICSI befruchtete Eizellen führten nach Kryokonservierung seltener zu einer Schwangerschaft (11,59%) als nach IVF (16,66%), beim Primärtransfer war das Ergebnis weniger verschieden (9,41% und 7,40%).
Die Vorbereitung des Kryotransferzylus war insofern relevant, als das der Transfer im spontanen Zyklus bezüglich der Schwangerschaftsrate am erfolgreichsten war (13,79%). Der Transfer in einem artifiziellen Zyklus, also nach Stimulation aus einer Kombination von HMG mit FSH, der alleinigen Verabreichung beider Medikamente oder nach dem Kaufmann-Schema, erbrachte dagegen nur eine geringe Schwangerschaftsrate von 6,45%.
Signifikante Unterschiede wiesen die im Punktionszyklus verwendeten Medikamente zur ovariellen Stimulation hinsichtlich der Degenerationsrate nach dem Auftauen der PN-Stadien auf, die nach HMG-Stimulation niedriger (19,35%) als nach FSH-Stimulation (30,82%) war, die Schwangerschaftsrate wies allerdings keine deutlichen Unterschiede auf (11,90% und 13,08%).
Das Alter der Patientinnen hatte wider Erwarten in der vorliegenden Untersuchung keinen eindeutigen Einfluss auf die Schwangerschaftsrate.
Die Resultate bestätigten, dass ein Transfer von maximal drei erlaubten Embryonen die besten Ergebnisse erzielte (19,6 %), hingegen bei einem Transfer von zwei Embryonen ein Ergebnis von nur 5,5 % vorlag. Dieses Ergebnis spricht, wie bereits bei anderen Forschungsergebnissen postuliert, für einen Transfer von drei Embryonen und sollte somit angestrebt werden.
Es lässt sich zusammenfassen, dass die Ergebnisse der Kryotransferbehandlungen in Bezug auf die untersuchten Parameter, wie spontan/hormonelle Kryotransferzyklen, IVF- oder ICSI- Behandlung und Alter, nur geringe Unterschiede aufwiesen.
Einen signifikanten Einfluss auf die Erfolgsrate hatten jedoch die Anzahl der transferierten Embryonen und die verschiedenen Stimulationsmedikamente auf die Degeneration der Oozyten.
Die vorliegende Arbeit hat gezeigt, dass die Kryokonservierung die Effizienz der reproduktionsmedizinischen Behandlung nachweislich erhöht. Darüber hinaus plädiert sie für ein Überdenken des deutschen Embryonenschutzgesetzes, um somit den Frauen eine hohe Anzahl von Behandlungszyklen zu ersparen.
I-kappaB-Kinase epsilon - ein neues Zielprotein für die Pharmakotherapie bei Schmerz und Entzündung?
(2010)
Der Transkriptionsfaktor NF-kappaB spielt eine wichtige Rolle bei der Regulation von Immunantworten, Apoptose und Entzündungen sowie bei der Entstehung und Verarbeitung von Schmerzen. Ein pharmakologischer Eingriff in die NF-kappaB-Aktivierungskaskade könnte daher eine Schmerzhemmung bewirken und so Ansätze für die Entwicklung neuer Therapien für pathophysiologische Schmerzen liefern. Die NF-kappaB-Signalübertragungskaskade bietet verschiedene Angriffspunkte für Pharmaka, wobei zurzeit IkappaB Kinasen (IKK) als hoffnungsvolle Zielmoleküle im Fokus der Untersuchungen stehen. Verschiedene IKKs regulieren die Aktivität von NF-kappaB über die Phosphorylierung des inhibitorischen Proteins IkappaB oder über die direkte Phosphorylierung von NF-kappaB. In der vorliegenden Arbeit wurde die Rolle der neu entdeckten IKK epsilon bei der Schmerzentstehung und -verarbeitung sowie deren Eignung als neues Zielmolekül für die Schmerztherapie näher untersucht. Es konnte gezeigt werden, dass IKK epsilon konstitutiv in Geweben der Maus, welche an der Entstehung und Verarbeitung von Schmerzen beteiligt sind, exprimiert ist. Im Rückenmark konnte die Lokalisation von IKK epsilon in den schmerzrelevanten Laminae I und II des Dorsalhorns nachgewiesen werden und auch in den Hinterwurzelganglien (Dorsal Root Ganglia (DRG’s)) war IKK epsilon in kleinen, nozizeptiven Neuronen exprimiert. Nach peripherer entzündlich-nozizeptiver Stimulation mit Formalin oder Zymosan kam es im Lumbalmark und den DRG’s zu einem signifikanten Anstieg der IKK epsilon-Expression sowohl auf mRNA- als auch auf Proteinebene. Diese Beobachtungen machten eine Beteiligung von IKK epsilon an der Prozessierung von Schmerz sehr wahrscheinlich. Um die Rolle von IKK epsilon während der Schmerzentstehung und -verarbeitung besser beurteilen zu können wurde das Verhalten von IKK epsilon defizienten Mäusen in akuten und inflammatorischen Schmerzmodellen charakterisiert. Es konnte gezeigt werden, dass der Knockout von IKK epsilon zu einem signifikant verringerten nozizeptiven Verhalten im Formalintest und einer Hemmung der mechanischen Hyperalgesie nach Zymosaninjektion im Vergleich zu Wildtyp-Mäusen führte. Gleichzeitig konnte kein Unterschied im akut nozizeptiven Verhalten festgestellt werden. Der Knockout von IKK epsilon hatte demnach keine Auswirkung auf den akuten physiologischen Nozizeptorschmerz, zeigte jedoch eine Verbesserung bei pathophysiologischen Schmerzen. Das verringerte nozizeptive Verhalten der IKK epsilon defizienten Mäuse im Formalintest ging mit einer Hemmung der NF-kappaB-Aktivierung im Rückenmark einher. Auch konnte eine verringerte mRNA-Expression der NF-kappaB-abhängigen Gene Cyclooxygenase-2 (COX-2), Matrixmetalloprotease-9 (MMP-9) und induzierbare Stickstoffmonoxid-Synthase (iNOS), die an der Regulation von Entzündungsschmerzen beteiligt sind, im Rückenmark und den DRG’s nachgewiesen werden. Da IKK epsilon bisher hauptsächlich mit der Aktivierung des TypI Interferon-Signalweges in Zusammenhang gebracht wurde, wurde außerdem geprüft, ob es nach Injektion mit Formalin zu einer Aktivierung des Trankriptionsfaktors Interferon-regulierender Faktor (IRF)-3 in Wildtyp-Mäusen kommt, was nicht beobachtet werden konnte. Der Knockout von IKK epsilon scheint demnach seine antinozizeptive Wirkung direkt über eine fehlende Aktivierung von NF-kappaB zu entfalten, wonach IKK epsilon eine bedeutendere Rolle als bisher angenommen bei der Aktivierung von NF-kappaB spielt. Dies konnte durch in vitro Daten untermauert werden. Der Knockdown von IKK epsilon in Makrophagen-Zellkultur mit spezifischer siRNA verhinderte die Phosphorylierung von NF-kappaBp65 am Serinrest 536 nach Stimulation mit LPS. Anhand der vorliegenden Daten lässt sich also schlussfolgern, dass IKK epsilon an der Schmerzentstehung und verarbeitung bei Entzündungen beteiligt zu sein scheint. Eine Hemmung dieser Kinase könnte demnach ein neues, lohnendes Ziel für die Entwicklung neuer Medikamente für die Schmerztherapie sein.
Die Wirkungen von Acrylamid beschäftigen seit Jahrzehnten Mediziner, Toxikologen, Biologen und Analytiker. Zwar konnte eine kanzerogene Wirkung beim Tier eindeutig nachgewiesen werden, der Nachweis dieser Wirkung beim Menschen ist aber bis heute nicht erbracht. Bis 2000 wurde angenommen, dass Acrylamid ausschließlich technisch erzeugt vorkommt und der Mensch Acrylamid nur aus dieser Quelle aufnimmt. Hierauf beruhen Grenz- und Richtwerte auf nationaler und internationaler Ebene, sowohl am Arbeitsplatz als auch für Trinkwasser und Verpackungsmaterialien. Neben dem Acrylamidgehalt in technischen Produkten, Wasser und Luft gelang der Nachweis der aufgenommenen Acrylamidmenge über Acrylamid-Hämoglobin-Addukte im Blut erst 1995, nachdem der Acrylamid-Metabolismus aufgeklärt worden war und die analytischen Methoden verfeinert waren. Die Annahme, dass Acrylamid ausschließlich in technischen Prozessen gebildet wird, war jedoch nicht vereinbar mit Erkenntnissen, dass auch Probanden einen erhöhten Acrylamidspiegel im Blut aufzeigten, die nicht mit Acrylamid am Arbeitsplatz in Kontakt gekommen waren. Im Jahr 2002 gelang es eindeutig nachzuweisen, dass Acrylamid in vielen, meist alltäglich verzehrten Lebensmitteln abhängig von der Zubereitungsart zu finden ist. Mit Hilfe einer verbesserten Analytik konnten schließlich hohe Acrylamidmengen in zahlreichen, vor allem frittierten Lebensmitteln, belegt werden, die die Belastung aus technischen Quellen oft weit überschritten. Die Tatsache, dass die Nahrung der allgemeinen Bevölkerung deutlich Acrylamid-belastet ist, hat die Bewertung der Acrylamid-Toxizität und die Maßnahmen zum Gesundheitsschutz nachhaltig verändert. Durch den späten Nachweis der Acrylamid-Aufnahme mit Lebensmitteln sind viele frühere Annahmen für die Gesundheitsbewertung irrig, die hieraus gezogenen Schlußfolgerungen nicht haltbar. Seit 2002 ist die Reduktion der Lebensmittelbelastung in den Mittelpunkt gerückt, die Arbeitsplatzbelastung hat - mit Ausnahme der Schleimhautreizung - keine weitere Berücksichtigung erhalten. Die hohe Belastung von Lebensmitteln stellt bisherige Richtlinien und Expositionsauflagen in Frage, der fehlende bisherige epidemiologische Nachweis, der aus Tierversuchen eindeutig nachweisbaren Karzinogenität stellt für Acrylamid auch die bisherigen Modell-Annahmen der Krebsentstehung durch Umweltschadstoffe in der „one hit-Hypothese“ in Frage.
Die Genexpression in prokaryotischen Organismen unterliegt einer Vielzahl von Regulationsmechanismen, deren Aufgabe darin besteht, die Zelle an sich ändernde Umweltbedingungen anzupassen, um so das Überleben des prokaryotischen Organismus zu gewährleisten. Eine Reihe von Hitzeschock- und Virulenzgenen unterliegen temperaturabhängiger Regulation, mit dem Ziel, die Zelle an die sich ändernde Umgebung anzupassen. Die Messung der Temperatur erfolgt dabei über temperatursensitive RNA-Elemente, sogenannte RNA-Thermometer, die sich üblicherweise in der 5’-untranslatierten Region der Gene befinden, die sie regulieren. Sie unterdrücken die Translationsinitiation, indem sie die Shine-Dalgarno (SD)-Sequenz bei niedrigen Temperaturen über Basenpaarung blockieren und dadurch die Bindung des Ribosoms verhindern. In Kapitel 2 der vorliegenden Arbeit wurde die thermodynamische Stabilität der temperatursensitiven Haarnadelschleife 2 des Salmonella FourU RNA-Thermometers über einen breiten Temperaturbereich analysiert. Freie Enthalpie-, Enthalpie- und Entropie-Werte für die Basenpaaröffnung der einzelnen Nukleobasen innerhalb der RNA wurden über die temperaturabhängige Messung von Iminoprotonen-Austauschraten mittels NMR-Spektroskopie bestimmt. Die Austauschraten wurden für die Wildtyp-RNA und die A8C-Mutante bestimmt und miteinander verglichen. Es zeigte sich, dass die Wildtyp-RNA durch das außergewöhnlich stabile Basenpaar G14-C25 stabilisiert wird. Dies konnte durch die Untersuchung der Entfaltung der destabilisierenden G14A-C25U-Doppelmutante verifiziert werden. Über CD-spektroskopsiche Untersuchungen konnte der globale Entfaltungsübergang der jeweiligen RNA analysiert werden. Das Mismatch-Basenpaar innerhalb des Wildtyp-RNA-Thermometers (A8-G31) erwies sich als Ursache für die geringere Kooperativität des Entfaltungsübergangs der Wildtyp-RNA im Vergleich zur A8C-Mutante. Enthalpie- und Entropie-Werte für die Basenpaaröffnung einzelner Nukleotide sind für beide RNAs linear korreliert. Die Steigungen dieser Korrelationen stimmen mit den Schmelzpunkten der RNAs überein, die über CD-Spektroskopie bestimmt wurden. Entfaltung der RNA tritt also genau dann auf, wenn alle Nukleotide gleiche thermodynamische Stabilitäten besitzen. Die Resultate sind mit einem Reißverschluss-Mechanismus für die RNA-Helix Entfaltung konsistent und erklärbar, in dem die Stapelinteraktionen der benachbarten Nukleobasen innerhalb der RNA-Helix verantwortlich für die beobachtete Kooperativität sind. Die Ergebnisse weisen auch auf die Wichtigkeit der RNA-Lösungsmittel-Interaktion für die Stabilität der RNA-Struktur hin. So konnten langreichweitige Wechselwirkungen der A8C-Mutation auf die Stabilität der G14-Nukleobase identifiziert werden, die möglicherweise über die Hydrathülle der RNA vermittelt werden. Schließlich konnte für das FourU-Motiv eine Mg2+-Bindestelle identifiziert werden, die die temperaturabhängige Stabilität des RNA-Thermometers beeinflusst. Es besteht also die Möglichkeit, dass Änderungen der intrazellulären Mg2+-Konzentration die Expression des agsA-Gens in vivo modulierend beeinflussen. In Kapitel 3 dieser Arbeit wurden die dynamischen Eigenschaften des Phosphodiesterrückgrats einer perdeuterierten cUUCGg-Tetraloop-14mer-RNA untersucht. Dazu wurden die Relaxationseigenschaften aller 31P-Kerne dieser RNA bei magnetischen Feldstärken von 300, 600 und 900 MHz untersucht. Dipolare Relaxationsbeiträge konnten unterdrückt werden, indem eine perdeuterierte RNA-Probe in einem D2O-Puffer verwendet wurde. Um die 31P-Relaxationsdaten (R1, R2) interpretieren zu können, wurde zusätzlich mittels Festkörper-NMR die Chemische Verschiebungsanisotropie (CSA) der 31P-Kerne des Phosphodiesterrückgrats bestimmt. Die Messungen wurden bei verschiedenen Salzkonzentrationen und unter unterschiedlichen Hydratationsbedingungen durchgeführt. Aus den Daten konnte ein 31P-CSA-Wert von 178.5 ppm im statischen Zustand (S2 = 1) bestimmt werden. Auf der Grundlage der durchgeführten R1- und R2-Messungen wurde eine Modelfree-Analyse durchgeführt, um Informationen über die schnellen Dynamiken des Phosphodiesterrückgrats zu erhalten. Die Resultate zeigen, dass die Dynamiken des Phosphodiesterrückgrats auf der Subnanosekundenzeitskala stärker ausgeprägt sind als die Dynamiken der Ribofuranosylreste und der Nukleobasen. Des Weiteren konnte gezeigt werden, dass die Dynamik einer individuellen Phosphatgruppe zu der jeweiligen 5’-benachbarten Nukleobase korreliert ist. In Kapitel 4 dieser Arbeit wird die Entwicklung neuer Methoden beschrieben, mit denen Torsionswinkelinformation aus der Analyse kreuzkorrelierter Relaxationsraten gewonnen werden können. Im ersten Teil des Kapitels wird die Entwicklung einer neuen NMR-Pulssequenz beschrieben, über die der glykosidische Torsionswinkel Chi in 13C,15N-markierten Oligonukleotiden bestimmt werden kann. Mit dem neuen quantitativen Gamma-HCNCH-Experiment ist es möglich, die dipolaren kreuzkorrelierten Relaxationsraten Gamma-C6H6-C1´H1´ (Pyrimidine) und Gamma-C6H6-C1´H1´ (Purine) zu messen. Die kreuzkorrelierten Relaxationsraten wurden an einer 13C,15N-markierten cUUCGg-Tetraloop-14mer-RNA bestimmt. Die aus den Raten extrahierten Chi-Winkel wurden mit bereits vorhandener Strukturinformation verglichen. Sie stimmen bemerkenswert gut mit den Winkeln der Kristallstruktur des Tetraloops überein. Zusätzlich wurde die neue Methode an einer größeren 30mer-RNA, dem „Stemloop D“ (SLD) aus dem Coxsackievirus-B3-Kleeblatt, getestet. Für die SLD-RNA wurde der Effekt von anisotroper Rotationsdiffusion auf die Relaxationsraten untersucht. Es konnte gezeigt werden, dass die Chi-Winkelbestimmung besonders für Nukleotide in der anti-Konformation sehr genau ist und die Methode eine eindeutige Unterscheidung von syn- und anti-Konformation zulässt. Im zweiten Teil von Kapitel 4 wird die Entwicklung des Gamma-HCCCH-Experiments beschrieben. Hierbei handelt es sich um eine neue NMR-Pulssequenz zur Messung der Gamma-C1´H1´-C3´H3´-Rate in 13C-markierten RNAs. Die Funktionsfähigkeit der neuen Methode wurde an einer cUUCGg-Tetraloop-14mer-RNA demonstriert. Zusätzlich dazu wurden die analytischen Gamma-C1´H1´-C3´H3´(P,nü_max)-, Gamma-C1´H1´-C4´H4´(P,nü_max)- und Gamma-C2´H2´-C4´H4´(P,nü_max)-Abhängigkeiten mathematisch hergeleitet. Die an der 14mer-RNA gemessenen Gamma-C1´H1´-C3´H3´-Raten wurden mit Hilfe der Gamma-C1´H1´-C3´H3´(P,nü_max)-Beziehung analysiert. Die Ergebnisse für die Pseudorotationsphase P sind konsistent mit Referenzwinkeln aus der 14mer-NMR-Struktur und den bereits bekannten (Gamma-C1´H1´-C2´H2´)/(Gamma-C3´H3´-C4´H4´)-Ratenverhältnissen. Die neue Methode liefert zusätzliche Informationen, um Konformation (P, nü_max) und Dynamik S2(C1´H1´-C3´H3´) der Ribosereste in RNA-Molekülen genauer beschreiben zu können. In Kapitel 5 dieser Arbeit wird die Entwicklung des 3D-HNHC-Experiments, einer neuen NMR-Pulssequenz, beschrieben. Dieses Experiment ermöglicht es, die H2-, C2- und N1-Resonanzen in Adenin-Nukleobasen 13C, 15N-markierter RNA-Oligonukleotide miteinander zu korrelieren. Die Funktionsfähigkeit der neuen Methode wurde an einer mittelgroßen, entsprechend markierten 36mer-RNA demonstriert. Die neue Methode vereinfacht die Zuordnung der Kerne der Adenin-Nukleobasen, da Zuordnungsmehrdeutigkeiten aufgrund überlappender Resonanzen in der 1H-Dimension aufgelöst werden können. In Kombination mit dem TROSY-relayed-HCCH-COSY-Experiment liefert das neue 3D-HNHC-Experiment das fehlende Glied für die Zuordnung der Imino-H3-Resonanzen der Uracil-Nukleobasen über das AU-Basenpaar hinweg zu den H8-Resonanzen der Adenin-Nukleobasen.
Die Arbeit untersucht die Herstellung und ökonomische Umsetzung von "ethnischem Anderssein" in sog. Kultur-Kochkursen in Frankfurt am Main. In den beforschten Kultur-Kochkursen vermitteln ethnisch markierte KochkursleiterInnen "ihre Küche und Kultur" einem (multikulturalistisch) interessiertem Publikum. Die Arbeit fokussiert auf die performative Herstellung, Umsetzung und Repräsentation von (vermarktbarem) ethnischen Andersseins durch die KochkursleiterInnen in der Kochkurssituation und überprüft die Annahme, dass Ethnizität primär durch (Selbst-)Othering – die Betonung von unüberbrückbarer, essentieller kultureller Differenz – vermarktet wird. Die Befunde, welche auf Internetrecherchen, teilnehmenden Beobachtungen und narrativen Interviews basieren, zeigen, dass die organisierenden Institutionen die Kulturkochkurse zwar mit dem Verweis auf Authentizität, Tradition und Andersartigkeit bewerben, die Kultur-KochkursleiterInnen selbst in der Kochkurssituation allerdings kein kulturalistisches, exotisierendes und Differenz betonendes Ethnizitätskonzept perfomieren, sondern vielmehr Dynamik, Vielfalt und Vermischungen artikulieren, praktizieren und stark positiv konnotieren.
"Protein Associated with Myc" (PAM) hat aufgrund seiner enormen Größe von 510 kD und der Vielzahl an Proteinbindungsstellen das Potential viele regulatorische und physiologische Prozesse zu regulieren. Mit der Funktion als E3-Ubiquitinligase und davon unabhängigen Proteininteraktionen reguliert es beispielsweise Prozesse der Synaptogenese und der spinalen Schmerzverarbeitung, wie auch die Regulation des Pteridin Stoffwechsels und des cAMP-Signalweges. Im Gegensatz zur spinalen Schmerzverarbeitung war eine Beteiligung von PAM an der peripheren Nozizeption bisher unbekannt und sollte im Rahmen dieser Arbeit untersucht werden. Dazu wurden konditionale PAM-Knockout Mäuse generiert und charakterisiert. Zum einen wurde PAM in Vorläuferzellen von Neuronen und Gliazellen und zum anderen in allen nozizeptiven und thermorezeptiven Neuronen der Dorsalganglia und der Ganglia trigeminale deletiert. Der Knockout in Neuronen und Gliazellen führte zu einer pränatalen Letalität und unterstreicht so die Bedeutung von PAM während der Neuronenentwicklung. Mit Hilfe des spezifischen Knockouts in nozizeptiven Neuronen konnte eine Rolle von PAM bei der Regulation der thermischen Hyperalgesie gezeigt werden. Keinen Einfluss hatte die Deletion von PAM auf basale thermische und mechanische Schmerzschwellen, sowie auf Formalin-induzierte akute Schmerzen. Als potentieller Mechanismus wurde der mTOR- und der p38 MAPK-Signalweg untersucht. Dabei konnte eine Vermittlung der S1P-induzierten mTOR-Aktivierung durch PAM nachgewiesen werden und Rheb als eine Komponente dieser Aktivierung ermittelt werden. Der p38 MAPK Signalweg war in Abwesenheit von PAM konstitutiv aktiviert und einige Proteine des Rezeptortraffickings waren verstärkt exprimiert. Als ursächlich für die beobachtete verlängerte Hyperalgesie in PAM-defizienten Mäusen konnte die Unterbindung der Internalisierung des TRPV1-Rezeptors nachgewiesen werden. Dieser Effekt ist spezifisch für TRPV1, da der verwandte Ionenkanal TRPA1 durch die PAM-Deletion nicht beeinträchtigt wurde. In der vorliegenden Arbeit konnte so zum ersten Mal gezeigt werden, dass PAM in peripheren nozizeptiven Neuronen über die p38 MAPK-vermittelte Internalisierung von TRPV1 die Dauer der thermischen Hyperalgesie reguliert.
Auf dem NATO-Gipfel in Lissabon wurde soeben eine neue Sicherheitsstrategie beschlossen. Die Allianz werde nun „more effective, more engaged, and more efficient“ [Quelle http://www.nato.int/cps/en/natolive/news_68216.htm], so NATO-Generalsekretär Anders Fogh Rasmussen. Ohne die Folgen dieser neuen Strategie bereits jetzt evaluieren zu können, so kann man doch festhalten, dass mit dieser Strategie tatsächlich ein sich seit geraumer Zeit abzeichnender Paradigmenwechsel seinen vorläufigen Höhepunkt gefunden hat: Die NATO 3.0 als Risikomanager...
Wer in den letzten Monaten die Zeitungen aufschlug, kam um Hiobsbotschaften über den Zustand des Euros und Europas nicht herum. Von Hilferufen diverser peripherer Mitgliedsstaaten war allerorten die Rede, gar vom Auseinanderbrechen der Gemeinschaftswährung. Die Regierungsspitzen, den Marktmechanismen scheinbar hilflos ausgeliefert, beraten sich auf Krisengipfeln, beginnend mit dem ersten Sondergipfel zur Eurokrise am 11. Februar. Rettungsschirme überall, die dann zu klein sind für die Menge an Mitgliedsstaaten, die man spekulativ noch darunter verorten könnte. Hermann von Rompuy sieht die EU gar in einem Überlebenskampf ...
Man befindet sich im Krieg: Mit der zunehmenden Vernetzung der Weltent stehen neue Sicherheitsherausforderungen. Angriffe im Internet sind keine Seltenheit mehr und die Frage, wie man damit umgeht steht überall auf der Tagesordnung. Die NATO führte mit der „Cyber Coalition 2010 Exercise“ erstmals ein Cyberwar-Manöver durch und die USA aktivierten 2010 eine reine Cyberwar-Einheit [Quelle]. Sowohl auf staatlicher als auch zwischenstaatlicher Ebene haben sich die Räder in Bewegung gesetzt um den neuen Bedrohungen zu begegnen....
Die Präkonditionierung mit den bakteriellen Zellwandbestandteilen Lipopolysaccharid (LPS) oder Lipoteichonsäure (LTA) führt in vivo zu einer Reduktion der myokardialen Infarktgröße nach Ischämie und Reperfusion (I/R). Hierbei wird durch die Präkonditionierung u.a. die Akkumulation neutrophiler Granulozyten im Ischämiegebiet während der Reperfusionsphase reduziert und somit einer der wichtigsten Mechanismen bei der Entstehung des Reperfusionsschadens am Herzen vermindert. In dieser Studie bedienten wir uns eines ex vivo Modells nach Langendorff mit regionaler I/R und zellfreier Perfusion. Wir konnten erstmalig eine LTA-Präkonditionierung in einem leukozytenfreien System zeigen und somit demonstrieren, dass die LTA-Präkonditionierung Mechanismen involviert, die unabhängig sind von einer Akkumulation neutrophiler Granulozyten. 24 Stunden nach einer Vorbehandlung der Ratten mit LPS, LTA, Kochsalz und/oder Dexamethason wurden die Herzen entfernt und retrograd mit oxygenierter Krebs-Henseleit-Lösung perfundiert. Die Herzen wurden einer 20-minütigen Ischämie, gefolgt von einer 2-stündigen Reperfusionsphase, unterzogen. Das Infarktrisikogebiet (Evans-Blue-Färbung) und das Infarktgebiet (pNBT-Färbung) wurden planimetrisch bestimmt. Die ischämische Präkonditionierung (IPC) wurde als Positivkontrolle unseres Modells verwendet. LTA- und LPS-Präkonditionierung führten - ebenso wie IPC - bei gleicher Dosierung in vergleichbarem Umfang zu einer signifikanten Reduktion der Infarktgröße. Dieser Effekt konnte durch Vorbehandlung mit Dexamethason vollständig aufgehoben werden, so dass gefolgert werden kann, dass die Protektion durch LPS bzw. LTA. von der Modulation der inflammatorischen Vorgänge im Endothel und Myokard mit abhängt.
Durch die steigende Bedeutung von multimedialen Lernmaterialien in der Lehre und in der Wirtschaft, wachsen die Anforderungen, die an die Herstellung der Materialien gestellt werden. Verwaltung, Archivierung und Wiederverwendbarkeit sind die zentralen Begriffe um die Effektivität von multimedialen Lernmaterialien zu steigern und damit auch kommerziellen Erfolg zu erzielen. Es ist effektiv wenn Lernmaterialien ein Thema nicht erneut aufarbeiten, wenn es bereits ausreichend Materialien dazu gibt. Vorhandene Materialien können genutzt werden und sparen somit Ressourcen, die ansonsten zur Herstellung neuer Materialien genutzt werden müssten. In dieser Arbeit werden Metadaten als Mittel eingesetzt, um die Effektivität zu steigern. Dabei soll vor allem der Mehrwert durch die Verwendung von Metadaten deutlich gemacht werden. Eine Analyse aktueller Autorensysteme soll zeigen, wie Metadaten bereits eingesetzt werden und wo Probleme existieren. Die Stärken und Schwächen der untersuchten Autorensysteme werden für die Anforderungsanalyse einer Erweiterung des Autorensystems LernBar verwendet. Um den Mehrwert der Metadaten deutlich zu machen, soll der gesamte Autorenprozess innerhalb der LernBar erweitert werden. Das heißt, dass der gesamte Ablauf, vom Erfassen bis zum Verwenden der Metadaten, abgebildet wird. Im Fokus der Erweiterung steht die Unterstützung des Autors bei der Erstellung von Lernmaterialien. Vorlagen und automatisierte Vorgänge dienen der Bedienbarkeit der neuen Funktionen.
Aufbau der Arbeit Auf der Grundlage einer Definition von Integrationsprozessen bzw. Integrationszuständen (Kap. 2.1) werden Heterogenitätsmerkmale diskutiert, die für Anerkennungsunterschiede zwischen Ingroup und Outgroup verantwortlich sein können (Kap. 2.1.2). Anschließend werden Integrations- und Desintegrationsmechanismen moderner Gesellschaften aufgezeigt und Erkenntnisse der Vorurteilsforschung zur Verbesserung der Outgroup-Anerkennung erörtert (Kap. 2.1.3 und 2.1.4). Im darauffolgenden Kapitel 2.2 werden Formen des Sports im Hinblick auf deren Integrations- und Desintegrationspotenziale diskutiert. Kapitel 2.3 beschäftigt sich zunächst mit der grundlegenden pädagogischen Rahmung des erziehenden Sportunterrichts, stellt einzelne Integrationsansätze vor und legt dabei den Fokus auf die Frage der bewussten oder unbewussten Auseinandersetzung mit Heterogenität. Da Kooperatives Lernen als eine erfolgversprechende Methode für gelingende Integration gehandelt wird und diese Methode zudem Integrationsmechanismen sowie Kontakthypothese berücksichtigt, wird sie in Kapitel 2.4 ausführlich beschrieben. Nachdem die wichtigsten Theorien zu heterogenitätsbedingten Anerkennungsunterschieden sowie integrationspädagogischen Überlegungen im Sportunterricht behandelt worden sind, schließt der Theorieteil mit der Ableitung der Fragestellungen (Kap. 2.5). Fragestellungen: In der soziologischen Untersuchung wird der Frage nach den tatsächlich desintegrierenden Heterogenitätsmerkmalen im Sportunterricht nachgegangen. In der pädagogischen Untersuchung wird erforscht, ob Kooperatives Lernen im Sportunterricht in der Lage ist, den selektiven Einfluss der desintegrierenden Heterogenitätsmerkmale abzubauen.
Wassergefiltertes Infrarot A (wIRA) ist eine spezielle Form der Wärmestrahlung mit hohem Penetrationsvermögen ins Gewebe bei geringer thermischer Oberflächenbelastung. wIRA entspricht dem Großteil der Sonnenwärmestrahlung, die in gemäßigten Klimazonen die Erdoberfläche wasserdampfgefiltert erreicht. wIRA steigert die drei energetisch für die Wundheilung wichtigen Faktoren Temperatur, Sauerstoffpartialdruck und Durchblutung im Gewebe. wIRA mindert Schmerzen, Entzündung und Wundsekretion. Entsprechend kann wIRA sehr gut zur Verbesserung der Wundheilung bei akuten und chronischen Wunden eingesetzt werden.
Eines der markantesten Symbole der Advents- und Weihnachtszeit sind die in unterschiedlichsten Farben, Formen und sogar Düften angebotenen Kerzen. Ihr Licht gibt der Jahreszeit eine besondere Atmosphäre, sie unterstützen neben anderen Dekorationsartikeln die erwünschte besinnliche Stimmung. Kerzen stehen traditionell sinnbildlich für Licht, Wärme und Reinheit und symbolisieren damit im Christentum das Lebenslicht des Menschen und Christus als das Licht der Welt. Man könnte nun meinen, dass Kerzen auf den Seiten des Bochumer Botanischen Vereins nichts zu suchen haben, sondern eher dem Bereich Chemie (Stearin) oder Zoologie (Bienenwachs) zugeordnet werden sollten. Aber die Botanik hat auch hier schon immer eine wesentliche Rolle gespielt und steht auch heute noch im wörtlichen Sinne im Zentrum jeder Kerze, denn Wachs brennt ohne sie nicht: die Kerzendochte. Dabei ist die Erfindung des Dochtes weitaus älter als die der Kerzen. Bei den alten Griechen z. B. waren Kerzen noch weitestgehend unbekannt, man verwendete Öllampen, die einen (meist) pflanzlichen Docht enthielten.
Östlich des Rwenzori Gebirges im Westen Ugandas wurden magnetotellurische Messungen durchgeführt. An 23 Stationen wurden Übertragungsfunktionen und Phasen Tensor Elemente zwischen den gemessenen magnetischen- und tellurischen Feldern im Periodenbereich von 10s bis 10000s geschätzt. Die Übertragungsfunktionen deuten eine komplexe drei dimensionale Leitfähigkeitsstruktur innerhalb der Kruste an, insbesondere in der Verbindungszone zwischen dem Rwenzori Gebirge und der östlichen Riftschulter. In dieser Arbeit wird eine alternative Darstellung der Phasen Tensor Ellipsen als Balken eingeführt. Für Perioden größer 100s zeigen die maximalen Phasen der Phasen Tensor Balken aller Stationen einheitlich in SSW-NNE und die Phasen Tensor Invarianten f min und f max weisen eine Differenz von mindestens 20° auf. Dieses auffällige Verhalten und die kleinen vertikalen magnetischen Feldr im gleich Periodenbereich kann mit einer anisotropen Leitfähigkeit in einer Tiefenbereich zwischen 30-50km mit der gut leitenden Richtung senkrecht zur Riftachse erklärt werden. Die Anisotropie könnte ihren Ursprung in orientierten Olivien Kristallen im oberen Mantel haben, wobei die Orientierungsrichtung mit der Delamination der Unterkruste unter den Rwenzoris zusammen hängen kann. Eine gut leitende Zone süd-östlich der Rwenzoris wurde in 15km Tiefe gefunden, die mit einer seismischen low velocity zone übereinstimmt und partielle Schmelzen innerhalb der Kruste andeutet. An allen Stationen steigt die minimale Phase bei der Periode 200s über 45° und zeigt einen Anstieg der elektrischen Leitfähigkeit unterhalb der Lithosphäre an.
Die P-Typ-ATPasen finden sich in allen Domänen des Lebens und stellen die größte Gruppe aktiver Ionentransporter in Zellen dar. Es handelt sich bei den P-Typ-ATPasen um integrale Membranproteine, die eine große Anzahl verschiedenster Ionen aktiv über eine biologische Membran transportieren. Die für diesen Ionentransport notwendige Energie wird durch Bindung und Hydrolyse von Adenosintriphosphat (ATP) und durch Phosphorylierung des Enzyms gewonnen. Diese, im cytoplasmatischen Teil gewonnene Energie, muss für den Ionentransport von der Phosphorylierungsstelle zur räumlich entfernten transmembranen Ionenbindungsstelle übertragen werden, bei dem das Protein einem Reaktionszyklus mit zwei Hauptkonformationszuständen E1 und E2 unterliegt. Zwischen diesen beiden Zuständen finden große strukturelle Änderungen statt, durch die die Ionenaffintät und die Zugänglichkeit der Ionenbindungsstelle reguliert wird. Da dieser Mechanismus der Energiegewinnung für alle Ionenpumpen dieser Art ähnlich ist, wurde die Ca2+-ATPase und die Na+/K+-ATPase als Modellproteine für die Untersuchung molekularer Mechanismen in P-Typ-ATPasen ausgewählt. Im Rahmen der vorliegenden Arbeit soll die Energietransduktion in P-Typ-ATPasen im Allgemeinen und der Protonengegentransport bzw. ein potentieller Protonentransportweg in der Ca2+-ATPase im Speziellen untersucht werden. Die beiden oben genannten Mechanismen sollen mittels computergestützter Methoden analysiert werden. Vor allem die Ca2+-ATPase ist prädestiniert für computergestützte Untersuchungen, da für diese sehr viele hochaufgelöste Röntgenstrukturdaten vorliegen, wenn auch bisher aufgrund der Größe und Komplexität des Systems nur sehr wenige theoretische Arbeiten durchgeführt wurden. Um den Energietransduktionsmechanismus in P-Typ-ATPasen zu untersuchen, wurde mittels Elektrostatik-Rechnungen der Einfluss eines elektrischen Feldes auf die verschiedenen Transmembranhelices untersucht. Dazu wurde ein Simulationssystem entwickelt, welches aus einem molekularen Kondensator besteht, der im Modell das Anlegen eines homogenen elektrischen Feldes über den Transmembranbereich simuliert. Da es sich bei dem Energietransduktionsmechanismus um einen dynamischen Prozess handelt, wurden die Elektrostatik-Rechnungen um Molekulardynamik-Simulationen erweitert. Mit diesen kann die konformelle Dynamik der P-Typ-ATPasen während der Energietransduktion in die Elektrostatik-Rechnungen einbezogen werden. Aus Spannungsklemmen-Fluorometrie-Experimenten, bei denen eine Spannung über eine Membran angelegt wird, kann geschlossen werden, dass die Helix M5 für die Energietransduktion verantwortlich ist. Mit den in dieser Arbeit durchgeführten Elektrostatik-Rechnungen konnte für verschiedene Enzymzustände der Ca2+-ATPase und für die Na+/K+-ATPase gezeigt werden, dass die Helix M5 die größten Konformeränderungen aufgrund des elektrischen Feldes aufweist. Durch die Erweiterung der Elektrostatik-Rechnungen um die Methode der Molekulardynamik-Simulation konnte zusätzlich die elektrische Feldstärke reduziert werden. Auch dabei zeigte sich, dass auf der Helix M5 die meisten Rotameränderungen durch das elektrische Feld induziert werden. Die aus Experimenten vermutete Rolle der Helix M5 als wichtiges Energietransduktionselement ließ sich mit diesen Simulationsrechnungen bestätigen. Um einen möglichen Protonenweg durch den Transmembranbereich der Ca2+-ATPase aufzuklären, wurden explizite Wassermoleküle in sechs verschiedene Enzymzustände der Ca2+-ATPase eingefügt. Aus Experimenten ist bekannt, dass in der Ca2+-ATPase ein Protonengegentransport stattfindet. Deshalb wurden für verschiedene Enzymzustände der Ca2+-ATPase mittels Elektrostatik-Rechnungen die Protonierungen der eingefügten Wassermoleküle sowie der titrierbaren Aminosäuren bestimmt. Aus den Ergebnissen dieser Rechnungen kann geschlossen werden, dass es sich bei dem Protonentransfer nicht um einen linearen Transport der Protonen handelt. Die Untersuchungen zeigen einen mehrstufigen Prozess, an dem Protonen in verschiedenen Transmembranbereichen der Ca2+-ATPase beteiligt sind. Anhand der berechneten Protonierungszustände der eingefügten Wassermoleküle und der pK-Werte der Aminosäuren im Transmembranbereich konnte weiterhin ein möglicher Protonenweg identifiziert werden.
In der vorliegenden Arbeit wurde in einer Fall-Kontroll-Studie mit 483 Fällen und 300 Kontrollen das Risiko für die berufsbedingte Supraspinatussehnenruptur durch Arbeiten auf oder über Schulterniveau untersucht. Dabei ergab sich eine statistisch signifikante Risikoerhöhung durch das Arbeiten auf oder über Schulterniveau. Eine Dosis-Antwortbeziehung zeigte einen Zusammenhang der Ereignisse. Am stärksten war die Risikoerhöhung bei Patienten, die lebenslang kumulativ mindestens 3195 Stunden auf oder über Schulterniveau arbeiteten. Die adjustierte Odds Ratio dafür betrug 2,1 (CI 1,2-3,7), das Ergebnis ist statistisch signifikant. Neben dem beruflichen Arbeiten auf oder über Schulterniveau gibt es andere Faktoren, die die Entstehung einer Rotatorenmanschettenruptur begünstigen. Dabei sind Alter, Heben/Tragen von Lasten über 20 kg und Arbeiten mit handgeführten vibrierenden Werkzeugen zu nennen. Deshalb wurden die Daten hinsichtlich dieser Faktoren adjustiert. Auch einige Sportaktivitäten können das Risiko für die Rotatorenmanschettenruptur erhöhen. Deshalb wurden die Daten auch für Geräteturnen, Kugelstoßen, Speer- und Hammerwerfen, Ringen und Tennis adjustiert, und die sportliche Anstrengung wurde als Confounder behandelt. Die Ergebnisse stehen im Einklang mit Ergebnissen früherer Studien, die ebenfalls eine Risikoerhöhung für die Entstehung der Rotatorenmanschettenruptur durch Arbeiten auf oder über Schulterniveau zeigen. Eine genaue Dosis, die zu dieser Risikoerhöhung führt, wurde in der Literatur bisher nicht genannt. Die vorliegende Arbeit liefert die Evidenz für die Annahme eines erhöhten Risikos der Ruptur der Sehne des M. supraspinatus bei Arbeiten auf oder über Schulterniveau. Weiterhin besteht ein Potential für eine primäre Prävention, indem Arbeiten auf oder über Schulterniveau möglichst ganz vermieden wird. Daher sollte die Ruptur der Sehne des M. supraspinatus als eigene Berufskrankheit in die Liste der Berufskrankheiten aufgenommen und die Betroffenen bei kumulativem Arbeiten von mindestens 3200 Stunden auf oder über Schulterniveau entschädigt werden.