Refine
Year of publication
- 2013 (65) (remove)
Document Type
- Doctoral Thesis (65) (remove)
Language
- German (65) (remove)
Has Fulltext
- yes (65)
Is part of the Bibliography
- no (65)
Keywords
- Agent (1)
- Akustik (1)
- Anisotropie (1)
- Armenien (1)
- Augmented Reality (1)
- Autorensystem (1)
- Bewältigung (1)
- Bilderwelten (1)
- Bildverarbeitung (1)
- Buchgeschichte (1)
Institute
- Biowissenschaften (11)
- Biochemie und Chemie (9)
- Medizin (7)
- Pharmazie (6)
- Physik (6)
- Geschichtswissenschaften (3)
- Psychologie (3)
- Sportwissenschaften (3)
- Gesellschaftswissenschaften (2)
- Informatik (2)
Adaptive Radiation und Zoogeographie anisakider Nematoden verschiedener Klimazonen und Ozeane
(2013)
Anisakide Nematoden sind Parasiten aquatischer Organismen und weltweit in marinen Habitaten verbreitet. Ihre Übertragungswege sind tief im marinen Nahrungsnetz verwurzelt und schließen ein breites Spektrum pelagisch/benthischer Invertebraten (z.B. Cephalopoda, Gastropoda, Crustacea, Polychaeta) und Vertebraten (z.B. Teleostei, Elasmobranchia, Cetacea, Pinnipedia, Aves) als Zwischen- bzw. Endwirte ein. Aufgrund der hohen Befallszahlen u.a. in der Muskulatur und Viszera kommerziell intensiv genutzter Fischarten (z.B. Clupea harengus, Gadus morhua, Salmo salar) sowie ihrer Rolle als Auslöser der menschlichen Anisakiasis nehmen die Vertreter der Gattung Anisakis unter den anisakiden Nematoden eine Sonderstellung ein. Anhand der verbesserten Diagnostik und der Etablierung sowie Weiterentwicklung molekularbiologischer Methoden ist es in den letzten zwei Dekaden gelungen, die bestehende Taxonomie und Systematik der Gattung Anisakis zu erweitern bzw. zu revidieren. Aktuelle molekulare Analysen weisen auf die Existenz von insgesamt neun distinkten Arten hin, welche eine hohe genetische Heterogenität und Wirtsspezifität aufweisen, äußerlich jedoch nahezu identisch sind (sog. kryptische Arten). Trotz kontinuierlicher Forschung auf dem Gebiet ist das Wissen über die Biologie von Anisakis immer noch unzureichend.
Die vorliegende Dissertation ist in kumulativer Form verfasst und umfasst drei (ISI-) Einzelpublikationen. Die Zielsetzung der durchgeführten Studien bestand unter anderem darin, unter Verwendung molekularbiologischer und computergestützter Analyseverfahren, Fragestellungen zur Zoogeographie, (Co-)Phylogenie, Artdiagnostik, Lebenszyklus-Ökologie sowie des bioindikatorischen Potentials dieser Gattung zu bearbeiten und bestehende Wissenslücken zu schließen.
Die Verbreitung von Anisakis, welche bisher ausschließlich anhand von biogeographischen Einzelnachweisen abgeschätzt wurde, konnte durch den angewandten Modellierungsansatz erstmalig interpoliert und in Kartenform vergleichend dargestellt werden. Dabei wurde gezeigt, dass die Verbreitung von Anisakis spp. in den Ozeanen und Klimazonen nicht gleichmäßig ist. Die Analysen deuten auf die Existenz spezies-spezifischer horizontaler und vertikaler Verbreitungsmuster hin, welche neben abiotischen Faktoren durch die Verbreitung und Abundanz der jeweiligen Zwischen- und Endwirte sowie deren Tiefenverteilung und Nahrungspräferenzen geprägt sind.
Durch die umfangreiche Zusammenstellung und anschließende Kategorisierung der (mit molekularen Methoden) geführten Zwischenwirtsnachweise konnten indirekte Rückschlüsse über die vertikale Verbreitung von Anisakis spp. entlang der Tiefenhabitate gezogen werden.
Während Anisakis auf Gattungsebene in der gesamten Wassersäule entlang verschiedener Tiefenhabitate abundant ist, wurde für die stenoxene Art Anisakis paggiae ein meso-/bathypelagisch orientierter Lebenszyklus postuliert. Durch den Einbezug eines breiten Spektrums (paratenischer) Zwischen- und Transportwirte aus unterschiedlichen trophischen Ebenen werden Transmissionslücken im Lebenszyklus der Gattung weitestgehend minimiert und der Transmissionserfolg auf den Endwirt, und damit die Wahrscheinlichkeit einer erfolgreichen Reproduktion, erhöht. Ausgeprägte Wirtspräferenzen sowie phylogenetische Analysen des ribosomalen ITS-Markers stützen eine Theorie zur co-evolutiven Anpassung der Parasiten an ihre Endwirte. Anisakis eignet sich daher unter Einschränkungen als Bioindikator für die vertikale und horizontale Verbreitung und Abundanz der Endwirte und lässt Rückschlüsse auf trophische Interaktionen im Nahrungsnetz zu. Durch die weitere Beprobung von Zwischenwirten aus verschiedenen trophischen Ebenen in zukünftigen Studien, kann eine genauere Bewertung potentiell abweichender Lebenszyklus-Strategien gewährleistet werden. Insbesondere ist die Datenlage zur Prävalenz und Abundanz anisakider Nematoden in Cephalopoda und Crustacea noch unzureichend. Die Probennahme sollte dabei unter besonderer Berücksichtigung bislang wenig oder unbeprobter geographischer Regionen, Tiefenhabitate und Wirtsarten durchgeführt werden.
Die vorliegende Dissertation behandelt die Entwicklung eines Verkehrssimulationssystems, welches vollautomatisch aus Landkarten Simulationsgraphen erstellen kann. Der Fokus liegt bei urbanen Simulationsstudien in beliebigen Gemeinden und Städten. Das zweite fundamentale Standbein dieser Arbeit ist daher die Konstruktion von Verkehrsmodellen, die die wichtigsten Verkehrsteilnehmertypen im urbanen Bereich abbilden. Es wurden Modelle für Autos, Fahrräder und Fußgänger entwickelt.
Die Betrachtung des Stands der Forschung in diesem Bereich hat ergeben, dass die Verknüpfung von automatischer Grapherstellung und Modellen, die die Wechselwirkungen der verschiedenen Verkehrsteilnehmertypen abbilden, von keinem vorhandenen System geleistet wird. Es gibt grundlegend zwei Gruppen von Verkehrssimulationssystemen. Zum Einen existieren Systeme, die hohe Genauigkeiten an Simulationsergebnissen erzielen und dafür exakte (teil-)manuelle Modellierung der Gegebenheiten im zu simulierenden Bereich benötigen. Es werden in diesem Bereich meist Verkehrsmodelle simuliert, die die Verhaltensweisen der Verkehrsteilnehmer sehr gut abbilden und hierfür einen hohen Berechnungsaufwand benötigen. Auf der anderen Seiten existieren Simulationssysteme, die Straßengraphen automatisch erstellen können, darauf jedoch sehr vereinfachte Verkehrsmodelle simulieren. Es werden meist nur Autobewegungen simuliert. Der Nutzen dieser Herangehensweise ist die Möglichkeit, sehr große Szenarien simulieren zu können.
Im Rahmen dieser Arbeit wird ein System mit Eigenschaften beider grundlegenden Ansätze entwickelt, um multimodalen innerstädtischen Verkehr auf Basis automatisch erstellter Straßengraphen simulieren zu können. Die Entwicklung eines neuen Verkehrssimulationssystems erschien notwendig, da sich zum Zeitpunkt der Literaturbetrachtung kein anderes vorhandenes System für die Nutzung zur Erfüllung der genannten Zielstellung eignete. Das im Rahmen dieser Arbeit entwickelte System heißt MAINSIM (MultimodAle INnerstädtische VerkehrsSIMulation).
Die Simulationsgraphen werden aus Kartenmaterial von OpenStreetMap extrahiert. Kartenmaterial wird zuerst in verschiedene logische Layer separiert und anschließend zur Bestimmung eines Graphen des Straßennetzes genutzt. Eine Gruppe von Analyseschritten behebt Ungenauigkeiten im Kartenmaterial und ergänzt Informationen, die während der Simulation benötigt werden (z.B. die Verbindungsrichtung zwischen zwei Straßen). Das System verwendet Geoinformationssystemkomponenten zur Verarbeitung der Geodaten. Dies birgt den Vorteil der einfachen Erweiterbarkeit um weitere Datenquellen.
Die Verkehrssimulation verwendet mikroskopische Verhaltensmodelle. Jeder einzelne Verkehrsteilnehmer wird somit simuliert. Das Modell für Autos basiert auf dem in der Verkehrsforschung weit genutzten Nagel-Schreckenberg-Modell. Es verfügt jedoch über zahlreiche Modifikationen und Erweiterungen, um das Modell auch abseits von Autobahnen nutzen zu können und weitere Verhaltensweisen zu modellieren. Das Fahrradmodell entsteht durch geeignete Parametrisierung aus dem Automodell. Zur Entwicklung des Fußgängermodells wurde Literatur über das Verhalten von Fußgängern diskutiert, um daraus geeignete Eigenschaften (z.B. Geschwindigkeiten und Straßenüberquerungsverhaltensmuster) abzuleiten. MAINSIM ermöglicht folglich die Betrachtung des Verkehrsgeschehens auch aus der Sicht der Gruppe der Fußgänger oder Fahrradfahrer und kann deren Auswirkungen auf den Straßenverkehr einer ganzen Stadt bestimmen.
Das Automodell wurde auf Autobahnszenarien und innerstädtischen Straßengraphen evaluiert. Es konnte die gut verstandenen Zusammenhänge zwischen Verkehrsdichte, -fluss und -geschwindigkeit reproduzieren. Zur Evaluierung von Fahrradmodellen liegen nach dem besten Wissen des Autors keine Studien vor. Daher wurden an dieser Stelle der Einfluss der Fahrradfahrer auf den Straßenverkehr und die von Fahrrädern gefahrenen Geschwindigkeiten untersucht. Das Fußgängermodell konnte die aus der Literaturbetrachtung ermittelten Verhaltensweisen abbilden.
Nachdem die wichtigsten Komponenten von MAINSIM untersucht wurden, begannen Fallstudien, die verschiedene Gebiete abdecken. Die wichtigsten Ergebnisse aus diesem Teil der Arbeit sind:
- Es ist möglich, mit Hilfe maschineller Lernverfahren Staus innerhalb Frankfurts vorherzusagen.
- Nonkonformismus bezüglich der Verkehrsregeln kann je nach Verhalten den Verkehrsfluss empfindlich beeinflussen, kann aber auch ohne Effekt bleiben.
- Mit Hilfe von Kommunikationstechniken könnte in der Zukunft die Routenplanung von Autos verbessert werden. Ein Verfahren auf Basis von Pheromonspuren wurde im Rahmen dieser Arbeit untersucht.
- MAINSIM eignet sich zur Simulation großer Szenarien. In der letzten Fallstudie dieser Arbeit wurde der Autoverkehr eines Simulationsgebietes um Frankfurt am Main herum mit ca. 1,6 Mio. Trips pro Tag simuliert. Da MAINSIM über ein Kraftstoffverbrauchs- und CO2-Emissionsmodell verfügt, konnten die CO2-Emissionen innerhalb von Frankfurt ermittelt werden. Eine angekoppelte Simulation des Wetters mit Hilfe einer atmosphärischen Simulation zeigte, wie sich die Gase innerhalb Frankfurts verteilen.
Für den professionellen Einsatz in der Verkehrsforschung muss das entwickelte Simulationssystem um eine Methode zur Kalibrierung auf Sensordaten im Simulationsgebiet erweitert werden. Die vorhandenen Ampelschaltungen bilden nicht reale Ampeln ab. Eine Erweiterung des Systems um die automatische Integrierung maschinell lesbarer Schaltpläne von Ampeln im Bereich des Simulationsgebietes würde die Ergebnisgüte weiter erhöhen.
MAINSIM hat mehrere Anwendungsgebiete. Es können sehr schnell Simulationsgebiete modelliert werden. Daher bietet sich die Nutzung für Vorabstudien an. Wenn große Szenarien simuliert werden müssen, um z.B. die Verteilung der CO2-Emissionen innerhalb einer Stadt zu ermitteln, kann MAINSIM genutzt werden. Es hat sich im Rahmen dieser Arbeit gezeigt, dass Fahrräder und Fußgänger einen Effekt auf die Mengen des Kraftstoffverbrauchs von Autos haben können. Es sollte bei derartigen Szenarien folglich ein Simulationssysytem genutzt werden, welches die relevanten Verkehrsteilnehmertypen abbilden kann. Zur Untersuchung weiterer wissenschaftlicher Fragestellungen kann MAINSIM beliebig erweitert werden.
Abdominale Aortenaneurysmen sind in Industrienationen eine häufige Erkrankung der Personengruppe über 65 Jahre. Diese Dilatationen der abdominalen Aorta zeichnen sich durch eine lokale Inflammation aus, die mit der Infiltration von Immunzellen, dem Verlust von glatten vaskulären Muskelzellen und der Degeneration der extrazellulären Matrix einhergeht. Ursprünglich als Symptom einer Atherosklerose angesehen, sind die Ursachen dieser progressiv verlaufenden Erkrankung nach wie vor nicht vollständig verstanden; obwohl steigendes Alter, männliches Geschlecht, genetische Prädisposition, Rauchen und ein zuvor erlittener Myocardinfarkt als Risikofaktoren identifiziert werden konnten. Der lange Zeit asymptomatische Krankheitsverlauf, die Gefahr einer Ruptur mit häufig letalen Folgen und der Mangel einer effizienten pharmakologischen Therapie machen eine weitere Untersuchung dieser Erkrankung unabdingbar.
Diltiazem ist ein Inhibitor spannungssensitiver L Typ-Calciumkanäle, der seit über 25 Jahren zur Behandlung von arterieller Hypertonie, verschiedener Arrhythmien und Angina pectoris verwendet wird. Im Rahmen der vorliegenden Arbeit sollte untersucht werden, ob Diltiazem auch einen antianeurysmatischen Effekt besitzt. Eine vierwöchige subcutane Infusion des blutdrucksteigernden Hormons Angiotensin II führte nach vier Wochen zur Bildung abdominaler Aortenaneurysmen, sowie zu atherosklerotischen Gefäßveränderungen der thorakalen Aorta Apolipoprotein E (ApoE)-defizienter Mäuse. Eine parallele Therapie mit Diltiazem über das Trinkwasser konnte diese Entwicklung unabhängig vom arteriellen Blutdruck und damit unabhängig von der antihypertensiven Wirkung verhindern. Im Aortenbogen Diltiazem-behandelter Tiere konnte im Rahmen dieses in vivo-Modells nach sechs Tagen eine deutlich geringere lokale Expression proinflammatorischer Cytokine, wie Tumornekrosefaktor-a, Interleukin-1ß (IL1B) und Interleukin-6 (IL6), Chemokine, wie CCL2, und degenerativer Proteasen, wie der Matrix-Metalloprotease 9 (MMP9), festgestellt werden. Dies war die Folge einer reduzierten Anzahl von Macrophagen in der Gefäßwand. Zirkulierende proinflammatorische Cytokine, wie CCL12, konnten im Serum teilweise ebenfalls vermindert nachgewiesen werden.
Obwohl die antihypertensive Wirkung von Diltiazem in glatten vaskulären Muskelzellen vermittelt wird, war es nicht möglich, die Angiotensin II-induzierte Produktion von promigratorischem CCL2 und proinflammatorischem IL6 in isolierten Aortenringen ApoE-defizienter Mäuse oder in glatten vaskulären Muskelzellen der Ratte zu reduzieren. Diltiazem war zudem nicht in der Lage, die CCL2-induzierte Migration proinflammatorischer Ly6C+-Monocyten in vivo zu unterbinden. In isolierten peritonealen Macrophagen ApoE-defizienter Mäuse dagegen, konnte die IL6 induzierte Expression von IL1B- und CCL12-mRNA durch eine Inkubation mit Diltiazem verhindert werden. In der RAW264.7-Zelllinie, die morphologische und funktionelle Merkmale von Monocyten und Macrophagen aufweist, konnte die Dilitiazem-sensitive IL6-induzierte Expression von IL1B-mRNA in vitro ebenfalls nachgewiesen werden. Eine Stimulation mit IL6 war in diesen Zellen jedoch nicht ausreichend, um die Sekretion von IL1B-Protein auszulösen.
Thorakales Aortengewebe wies im Vergleich mit RAW264.7-Zellen eine veränderte Ausstattung spannungssensitiver Calciumkanäle auf. In letzteren fanden sich keine muskelzellspezifischen L-Typ-Calciumkanäle (CACNA1C), aber eine relevante Expression neuronaler P/Q-Typ-Calciumkanäle (CACNA1A). Mittels fluorimetrischer Bestimmung mit Fura-2AM konnte jedoch festgestellt werden, dass die intrazelluläre Calciumkonzentration Diltiazem-behandelter RAW264.7-Zellen unverändert war und der antiinflammatorische Effekt somit calciumunabhängig vermittelt wurde.
Diltiazem war nicht in der Lage, eine Lipopolysaccharid (LPS)-bedingte Inflammation in RAW264.7-Zellen zu unterbinden. Weder die LPS-induzierte Sekretion von IL1B Protein, noch die nucleäre Translokation des Transkriptionsfaktors NF-?B oder die Aktivierung des NF-?B-Promotors konnten durch eine Inkubation der Zellen mit Diltiazem verhindert werden. Diltiazem reduzierte jedoch, die IL6-induzierte Aktivierung des AP 1-Promotors unabhängig von der MAPK1-Phosphorylierung oder der Phosphorylierung und nucleären Translokation des Transkriptionsfaktors STAT3 zu unterbinden. Eine Unterdrückung von c-Jun N-terminale Kinase JNK- oder p38 Proteinkinase-vermittelten Signalwegen ist damit wahrscheinlich.
Das Pirinixinsäurederivat LP105 ist ein neuer Inhibitor der Arachidonat-5-Lipoxygenase (LOX5), der im Rahmen dieser Arbeit erstmals in vivo auf seine antianeurysmatischen Eigenschaften hin untersucht wurde. LOX5 katalysiert die Reaktion von Arachidonsäure zu Leukotrien A4 und kontrolliert damit einen wichtigen Schritt in der Synthese proinflammatorischer Leukotriene. LP105 war im Tiermodell nicht in der Lage die Angiotensin II-induzierte Bildung abdominaler Aortenaneurysmen in ApoE-defizienten Mäusen komplett zu unterbinden, führte aber über die Reduktion der vaskulären Inflammation zu einer deutlich verringerten Krankheitslast. LP105 selbst beeinflusste die mRNA-Expression verschiedener Enzyme des Arachidonsäuremetabolismus nicht, verstärkte jedoch durch die Blockade von LOX5 die Metabolisierung von Arachidonsäure über Arachidonat-15-Lipoxygenase und Cytochrom P450-Enzyme.
Auf dem Martberg, einem Bergplateau über dem Unterlauf der Mosel zwischen den Orten Pommern und Karden (Landkreis Cochem-Zell), befand sich nahe einer spätkeltischen Siedlung der Treverer ein gallo-römisches ländliches Heiligtum, eines der bedeutendsten archäologischen Denkmäler im westlichen Mitteleuropa. Seine vollständige Freilegung in den Jahren 1994 bis 2002 ergab neben Erkenntnissen zur Jahrhunderte langen mehrphasigen Baugeschichte des Tempelareals von der Spätlatènezeit bis zum Ende des 4. Jhs. n.Chr. auch eine Fülle an Funden, insbesondere von Münzen, Fibeln, Keramiken und Kleinfunden aus Metall wie Waffen, Amulette, Schmuck, Statuetten und anderes mehr. Viele dieser Funde sind wohl rituell im Tempelbezirk niedergelegt worden, insbesondere für Münzen, Fibeln und Waffen ist dies aus anderen gallo-römischen Heiligtümern bekannt. Weitere Funde wurden möglicherweise während des Betriebs der Tempelanlage verloren, weggeräumt oder kamen bei den häufigen Umbaumaßnahmen in die Erde.
An Hand der Datenbanken der Funde vom Martberg wurde eine systematische Analyse der Fundlagen aller Artefaktgruppen durchgeführt und ihnen mit Hilfe der gut datierbaren Münzen ein zeitliches Gerüst gegeben. Damit konnten die sich im Laufe der Zeit verändernden rituellen Gepflogenheiten anhand der Funde quantifiziert werden. Durch einen Vergleich mit der zeitabhängigen räumlichen Verteilung der Münzen wurden mit Hilfe von Cluster- und Hauptkomponentenanalysen rituell deponierte Artefaktgruppen identifiziert und von nicht rituell deponierten Artefaktgruppen unterschieden. Dazu wurden zunächst die zahlreichen Münzen (über 10.000 Münzen, darunter über 2000 keltische und gallo-römische Münzen) aus archäologischen Befunden im Tempelbezirk und von Lese/Streufunden als Funktion der Zeit vorgestellt beginnend mit den keltischen Münzen aus dem 1. Jh. v.Chr. bis zu den Münzen aus theodosianischer Zeit gegen Ende des 4. Jhs. n.Chr. Dabei wurden auch Besonderheiten unter den Münzen wie Münzen mit Einhieben, Halbierungen/Viertelungen, Imitationen, Gegenstempel, Prägeorte etc. quantitativ erfasst. Die räumlichen Verteilungen der Münzen zeigten deutliche zeitabhängige Unterschiede. Die sich zeitlich und räumlich verändernden kultischen Praktiken verliefen zudem völlig parallel, was die Deponierung von intakten Münzen, Imitationen, Halbierungen und Viertelungen sowie insbesondere Münzen mit Einhieben anging. Im Gegensatz zu den deutlich erkennbaren räumlichen Verschiebungen in den Münzhäufigkeiten bis zur Mitte des 2. Jhs. n.Chr. änderten sich die Verteilungen von Münzen im Tempelbezirk aus den folgenden Jahrhunderten nur wenig.
Diese sich zeitlich verändernden aber gut datierbaren lokalen Fundmünzhäufigkeiten wurden zu einer wenn auch groben Datierung vieler anderer Kleinfundgattungen herangezogen. Mithilfe von statistischen Verfahren (Clusteranalysen bzw. Hauptkomponentenanalysen) konnten zeitliche und räumliche Beziehungen zwischen den einzelnen Fundgattungen identifiziert und teilweise auch datiert werden. Außerdem konnte zwischen absichtlich niedergelegten, geopferten Gegenständen wie Münzen, Schmuck oder Waffenbestandteilen und wohl als Abfall entsorgten Keramik-Waren, Metallteilen oder auch Produkten von Metall-, Keramik- oder anderen Werkstätten unterschieden werden. So waren Lanzenspitzen, keltische Fibeln aus der zweiten Hälfte des 1. Jhs. v.Chr., Statuetten, Spiegel und Phallusamulette ähnlich wie die entsprechenden zeitgleichen keltischen und frühkaiserzeitlichen Münzen verteilt, konnten dadurch auch datiert werden und wurden wohl ähnlich wie die Münzen als Weihegaben deponiert. Frühe keltische Fibeln bildeten zusammen mit Funden aus Blei (Bleiplättchen, Bleibleche, Gussreste) sowie mit Schlacken, Fingerringen und Perlen aus Bronze oder Glas einen eigenen Cluster. Die anderen metallenen Kleinteile waren ähnlich wie die Münzen aus dem 2.-3. Jh. gleichmäßig über das Tempelareal verteilt, wohl weil in dieser Zeit Umbaumaßnahmen zu einer großflächigen Zerstreuung dieser Funde führten. Zusammen mit den Resten der Keramik wurden dabei offensichtlich auch viele metallene Kleinfunde entsorgt, die an Hand der ähnlich verteilten Keramik wiederum zum Teil datiert werden konnten.
Im zweiten Teil der Arbeit wurde versucht, dem Phänomen der sogenannten „claudischen Imitationen“ anhand von Untersuchungen der physikalischen, typologischen und physikochemischen Eigenschaften dieser Münzen sowie von Provenienzstudien des für die Münzen verwendeten Kupfers näher zu kommen. Aus den Ergebnissen von Bleiisotopenanalysen (Massenspektrometrie mit induktiv gekoppeltem Plasma, ICP-MC-MS) an insgesamt 115 claudischen Imitationen ließ sich schließen, dass das Kupfer für die Imitationen mit claudischen und augusteischen Münzbildern ebenso wie die offiziellen claudischen Münzen wohl aus zwei verschiedenen Lagerstätten in Spanien, der Zentralen Iberischen Zone (Kupferminen der Sierra Morena) und aus dem Gebiet des Rio Tinto (Iberischerer Pyrit-Gürtel), stammte. Ob dieses Kupfer (möglicherweise aus verhandelten Barren) direkt zur Herstellung der Imitationen verwendet wurde oder über den Umweg einer Umprägung von offiziellen Münzen, konnte jedoch nur durch eine Analyse der Spurenelementverteilung in den Imitationen selbst im Vergleich zu ähnlichen Messungen an offiziellen Münzen herausgefunden werden. Die Ergebnisse der Spurenelementanalysen (Elektronenstrahlmikrosonde) an über 110 claudischen Imitationen vom Martberg im Vergleich zu früher publizierten Ergebnissen an über 200 offiziellen Kupfermünzen von Augustus bis Claudius haben gezeigt, dass viele der Imitationen mit claudischen Münzbildern sehr stark offiziellen Münzen ähneln, die unter Augustus, Tiberius und Claudius geprägt wurden. Ähnliches gilt für Imitationen mit augusteischen und tiberischen Münzbildern. Etwa ein Drittel der Imitationen enthielten Zink in unterschiedlichen Konzentrationen und unterschieden sich bereits dadurch von den offiziellen Münzen. Man muss aus diesen Ergebnissen den Schluss ziehen, dass die große Mehrheit der Imitationen mit augusteischen oder tiberischen Münzbildern erst in claudischer Zeit aus denselben Münzmetallen wie die Imitationen mit den claudischen Münzbildern hergestellt wurden: aus den in dieser Zeit zur Verfügung stehenden Münzen der vorangehenden Kaiser und/oder den offiziellen Münzen des Claudius.
Da auch an eine Verwendung von Kupfer aus verhandelten Kupferbarren zur Herstellung vieler der Imitationen möglich ist, wurden ähnliche Vergleiche auch mit publizierten Daten von Kupferbarren durchgeführt, die in römischen Schiffswracks im westlichen Mittelmeer gefunden wurden. Die Ergebnisse zeigten, dass für die Herstellung von Imitationen auch die Verwendung von handelsüblichen Kupferbarren denkbar ist.
Im dritten Teil der Arbeit wurde anhand der Münzfunde vom Martberg untersucht, ob Münzen mit bestimmten Rückseitentypen für eine Weihung im sakralen Bereich selektiert oder auch gemieden worden sein könnten. Dazu wurde die Verteilung der Rückseitentypen der auf dem Martberg gefundenen Antoniniane mit Münzreihen verglichen, die in einem zweiten sakralen Kontext, dem Tempelbezirk des Castellberg gefunden wurden, außerdem mit zwei Einzelfundreihen aus zivilen Kontexten und zwei Schatzfunden von Antoninianen. Die sechs Fundkomplexe zeigten eine ähnliche Struktur, da sie aus dem Pool der umlaufenden Münzen zusammengesetzt waren. Die Unterschiede innerhalb der beiden Münzreihen desselben Kontextes waren jedoch erheblich geringer als die zwischen den Münzreihen aus unterschiedlichen Kontexten. Die Ergebnisse einer Hauptkomponentenanalyse zeigten zunächst, dass die beiden Heiligtümer in ganz ähnlicher Weise von der „Referenzkurve“ des Vicus Castellberg abwichen. Die in allen Fundkomplexen am häufigsten vorkommenden Münzbilder Pax, Salus und Spes waren verglichen mit dem Vicus in beiden Heiligtümern deutlich überrepräsentiert. Eine „positive Selektion“ dieser Rückseitentypen, d.h. ihre bewusste Niederlegung, war aber eher unwahrscheinlich. Für die in beiden Heiligtümern unterrepräsentierten Typen wie Laetitia, Fides, Sol, Mars und Jupiter, vielleicht auch Tiere/Fabelwesen, Uberitas und Fortuna war eine bewusste Vermeidung der Niederlegung eher anzunehmen. Neben der eindeutig nachweisbaren Tendenz der Niederlegung von eher geringwertigen Münzen ist davon auszugehen, dass bei der rituellen Niederlegung von Münzen im sakralen Kontext auch die Bilder auf den Rückseiten dieser Münzen eine wie auch immer geartete Rolle gespielt haben müssen. Damit zeigt sich die Funktion der Münzen im rituellen Kontext nicht nur als Wertmesser, als Geld, sondern auch als ein Informationsträger, mit dessen Hilfe möglicherweise auch Zwiesprache mit den Göttern gehalten wurde.
Are books different? : Die Auswirkungen des Falls der Buchpreisbindung in Großbritannien 1995 - 2006
(2013)
Sicherlich gibt es im Buchhandel wie in jeder anderen Branche Zeiten der Krise und des Umsatzrückgangs, aber grundsätzlich legen die Zahlen nicht nah, dass das Ende bevorsteht. Es stellt sich also die Frage, ob zutrifft, was Richter Buckley in seinem zum geflügelten Wort gewordenen Urteil feststellte: Sind Bücher wirklich anders, oder anders gefragt, braucht der Buchhandel den Schutz des Staates, um seine Funktion erfüllen zu können?
Um eine Antwort auf diese Fragen zu finden, soll in dieser Arbeit das Hauptaugenmerk auf die Entwicklung des britischen Buchhandels im Zeitraum von 1995 (dem Jahr der faktischen Abschaffung des Net Book Agreement bis 2006 gelegt werden. Nach dem beinahe hundertjährigen Bestehen der Buchpreisbindung waren diese Jahre richtungweisend für die Neuorientierung des britischen Buchhandels auf die Bedingungen eines freien Marktes, und es soll untersucht werden, welche Umwälzungen sich daraus für die Branche ergeben haben.
Am Ende seiner Tage sprach der König Salomon: "Die Sonne geht auf und unter [...]. Was gewesen ist, wird [wieder] sein, was getan worden ist, wird [wieder] getan, und es gibt nichts Neues unter der Sonne".1 Im August des Jahres 1881, beim Spaziergang durch die Wälder am See von Silvaplana, bei einem mächtigen, pyramidal aufgetürmten Block, "6000 Tausend Fuß jenseits von Mensch und Zeit" kam einem Professor der klassischen Philologie jener Gedanke wieder – der Gedanke der "Ewigen Wiederkunft des Gleichen", die er später als das Hauptprinzip der altgriechischen Zeitauffassung formulierte. Der Professor hieß Friedrich Nietzsche.2 Mehr als hundert dreißig Jahre sind nach seinem Spaziergang vergangen, und mehr als hundert dreißig Jahre dauert die Diskussion über die zyklische und lineare Zeit. Es wurde mehrmals behauptet und wieder verworfen, dass der Hauptunterschied zwischen dem "hebräischen" und "griechischen" Denken, zwischen den "Gläubigen" und den "Heiden" gerade in dieser Zeitauffassung besteht. Die mythische Zeit der Griechen sei räumlich und statisch, sie habe kein Ziel und keinen Zweck, sie wandle im ewigen Kreislauf gefühllos und träge, ohne Anfang und Ende, ohne Wohin und Woher, ohne Hoffnung. Die Zeit der Tora hingegen sei zielgerichtet. Die Erschaffung der Welt und die Sintflut, der Auszug aus Ägypten und die Wüstenwanderung – all dies seien einmalige Ereignisse, welche sich nie wiederholen würden. Sie alle hätten einen Zweck – die Erlösung der Menschheit. Jede von ihnen sei ein Fortschritt – ein Schritt auf dem Pfad der Geschichte, der Geschichte mit Anfang und Ende, mit Wohin und Woher, mit Hoffnung.3
Die vorliegende Arbeit beabsichtigt nicht, die intuitive Völkerpsychologie zu untersuchen. Vielmehr handelt es sich hier um die Vorstellungen einer begrenzten Gruppe der mittelalterlichen jüdischen Intellektuellen aus dem Spanien des 12. Jhs. Ihre Gedanken waren gleichzeitig von der griechischen Philosophie und dem jüdischen Messianismus geprägt. Eben diese eigenartige Kombination macht die Frage nach ihrer Zeitauffassung so spannend. Als Quelle bei einer solchen Fragestellung scheinen mir die beiden Bücher des Rabbi Abraham Ibn Daud von Interesse zu sein – sein Geschichtsbuch Sefer ha-Qabalah (SQ) und sein philosophisch-theologisches Traktat Al-ʿAqīdah ar-Rafīʿah (AR).
Abraham Ibn Daud, Geschichtsschreiber, Philosoph, Astronom, vermutlich auch Arzt, wurde geboren um 1110 in Cordoba, der Hauptstadt des umayyadischen Kalifates und dem kulturellen Zentrum Andalusiens des 12. Jhs. Er war ein Sohn der Tochter des berühmten Gelehrten Isaak Albaliyah.4 Die Erziehung genoss er im Hause dessen Sohnes, seines Onkels, und dem Schüler von Isaak Alfasi, – Baruch Albaliyah.5 Aus seinen Schriften kann man schließen, dass er ausreichende Kenntnisse sowohl in der Bibel, dem Talmud, der hebräischen Poesie als auch in den Naturwissenschaften und der griechischen Philosophie besaß. Darüber hinaus soll er auch mit der polemischen Literatur der Christen, der Moslems und der Karäer, eventuell auch mit dem Evangelium und dem Koran vertraut gewesen sein. Von seinen Werken sind uns sieben bekannt, zwei davon allerdings nur ihrem Namen nach.6 Das auf Arabisch verfasste theologisch-philosophische Traktat Al-ʿAqīdah ar-Rafīʿah (AR, "Der erhabene Glaube") ist nur in zwei hebräischen Übersetzungen aus dem 14. Jh. – Emunah Ramah (ER)7 von R. Salomon Ben Labi und Emunah Niśʾah (EN)8 von R. Samuel Moṭoṭ erhalten.9 Das traditionshistorische Buch Sefer ha-Qabalah (SQ, "Buch der Tradition")10 wurde auf Hebräisch verfasst und von drei weiteren ebenso auf Hebräisch geschriebenen Werken begleitet: Divrey Malkey Yisraʾel (DMY, "Geschichte der Könige Israels"),11 Midraš Zeḫaryah (MZ, "Auslegung der Prophetie Sacharjas")12 und Zeḫer Divrey Romi (ZDR, "Chronik der römischen Geschichte").13
Trotz zunehmender Verbesserungen in der Diagnostik und Therapie von Krebserkrankungen leiden onkologische Patienten häufig unter gravierenden tumorund therapiebedingten Symptomen und Nebenwirkungen wie Fatigue, Reduktion der Leistungsfähigkeit und Lebensqualität (Courneya, 2003a; Crevenna et al., 2002; Ferriset al., 2009). Zahlreiche Untersuchungen und Übersichtsarbeiten zeigen, dass körperliche Aktivität in den verschiedenen Phasen der Krebstherapie möglich ist und zu einer Reduktion der Nebenwirkungen sowie zu einer Verbesserung der Lebensqualität und Leistungsfähigkeit führen kann (Cramp & Byron-Daniel, 2012; Jones & Peppercorn, 2010; Mishra et al., 2012b; Schmitz et al., 2010). In aktuellen Leitlinien wird körperliche Aktivität deshalb als wichtige supportive Therapiemaßnahme während der Akuttherapie und im Rahmen der Nachsorge sowie Rehabilitation empfohlen. Analog der zunehmenden Individualisierung medizinischer Diagnostik- und Therapiestrategien in der Onkologie (z. B. vergleichbare oder sequentielle Therapieregime, targeted therapies, Patientenwunsch), gibt es inzwischen auch im Bereich der Sportmedizin Forderungen nach individuell angepassten, effektiven körperlichen Trainingsprogrammen (Jensen et al., 2011). Bei der Erarbeitung dieser Bewegungsangebote sollten Informationen zur Einschätzung der körperlichen Leistungsfähigkeit sowie zu den individuellen persönlichen und medizinischen Voraussetzungen der Betroffenen berücksichtigt werden. Entsprechend muss bei der Planung der körperlichen Aktivität auch die aktuelle Behandlungsphase im Rahmen der onkologischen Therapien einbezogen werden. Neben der zeitlichen Einteilung der Therapiephasen in Akut- oder Rehabilitationsphase gibt es die Möglichkeit, den Therapieprozess in Abhängigkeit der Heilungsaussicht einzuordnen. Dabei wird die Prognose einer Tumorerkrankung in Abhängigkeit des Tumorstadiums, des Lymphknotenbefalls und der möglichen Metastasierung in einen heilbaren (kurativen) und nicht heilbaren (palliativen) Therapieansatz eingestuft. Während ein Großteil der Studien die Wirkung bewegungstherapeutischer Interventionen bei Patienten mit kurativem Therapieansatz untersucht, gibt es bisher nur sehr wenig Untersuchungen bei unheilbar kranken Tumorpatienten (Albrecht & Taylor, 2012). Infolgedessen sind Aussagen zu prognosebezogenen Informationen über die individuelle Leistungsfähigkeit und zu unterschiedlichen physischen und psychischen Reaktionenaufgrund körperlicher Aktivität bei dieser Patientengruppe bisher nur bedingt möglich und erlauben folglich keine zielgruppenspezifischen Empfehlungen.
Angesichts dieses Forschungsdefizits ist das Kernziel der vorliegenden Arbeit, mögliche Unterschiede von Lebensqualität, Fatigue und aerober Kapazität (VO2peak) in Abhängigkeit der Heilungsaussicht (kurativ/palliativ) initial zu identifizieren und gleichzeitig die jeweiligen Veränderungen im Rahmen der Intervention über den Gesamtuntersuchungszeitraum zu überprüfen.
Initial konnten 300 onkologische Patienten (histologisch gesichertes Malignom) mit unterschiedlichen Krebsentitäten, in verschiedenen Behandlungsphasen, mit bekannter klinischer Heilungsprognose (kurativ/palliativ) und unter Berücksichtigung definierter Ein- und Ausschlusskriterien in die Untersuchung eingeschlossen werden. Mit dem Ziel einer individuellen Sportberatung und Trainingsplangestaltung absolvierten die Studienteilnehmer eine sportmedizinische Gesundheits- und Leistungsdiagnostik zur Ermittlung der Ausdauerleistungsfähigkeit und Bestimmung des Trainingsbereichs. Die Messungen erfolgten auf dem Fahrradergometer (0W; 25W Inkrement; 3 Minuten) und umfassten Herzfrequenz, Blutdruck, maximale Sauerstoffaufnahmefähigkeit (VO2peak), Laktatkonzentration und subjektives Belastungsempfinden (Borg Skala). Baseline- und identische Wiederholungs-untersuchungen nach 4-6 und nach 16-20 Wochen dienten gleichzeitig der Erfassung der subjektiven Parameter Lebensqualität und Fatigue (EORTC QLQ-C30) (Aaronson et al., 1993). Der Trainingsplan wurde unter Einbeziehung persönlicher Präferenzen, individueller Leistungsfähigkeit und Empfehlungen zur Gesundheitsprävention der WHO (als Orientierung für den Trainingsumfang von 150 min/Wo.) erstellt und dem Patienten in einem ca. 20minütigen Beratungsgespräch erläutert. Art, Umfang und Häufigkeit des mindestens mit moderater Intensität absolvierten Ausdauertrainings wurde durch die Patienten in einem Trainingstagebuch dokumentiert. Die Gruppenzuteilung erfolgte in Abhängigkeit der Heilungsprognose (kurativ/palliativ) unter Verwendung des TNM-Systems. Patienten mit der Prognose „heilbar“ wurden der kurativen Stichprobe zugeteilt, während Patienten mit histologisch gesichertem Nachweis von Metastasen (M1) als palliativ eingestuft wurden.
Referenzwerte waren für die VO2peak: alters- und geschlechtsentsprechende Normdaten (Median) des American College of Sports Medicine und für die Daten des EORTCQLQ-C30: das Manual „EORTC QLQ-C30 Reference Values“ einer EORTCArbeitsgruppe (Scott, 2008). Die Dateneingabe und die Aufbereitung der Rohdaten erfolgte mit Hilfe von Microsoft Excel. Für die statistische Auswertung wurden alle statistischen Analysen anschließend mithilfe der Statistikprogramme SPSS 19.0 (SPSS Inc., Chicago, IL, USA) und „BIAS für Windows“, Version 10, 2012, Universität Frankfurt) durchgeführt. Das Signifikanzniveau wurde a priori auf p<0,05 festgelegt.
Insgesamt 158 Patienten (99 kurativ, 59 palliativ; 54,9±11,1 Jahre, 108 ♀, 50 ♂) nahmen an allen drei Untersuchungen teil. Der parameterfreie Mann-Whitney-Test zeigte sowohl für Lebensqualität als auch Fatigue-Symptomatik keine signifikanten Unterschiede bei der Eingangsuntersuchung zwischen kurativen und palliativen Teilnehmern. Für die VO2peak ergab der parametrische T-Test ebenfalls keine Unterschiede bei den Initialwerten. Nach Abschluss der Intervention zeigten sich in beiden Patientengruppen sowohl bei der Lebensqualität als auch der Fatigue-Symptomatik signifikante Verbesserungen über den gesamten Untersuchungszeitraum. Anschließende post-hoc-Tests ergaben keine signifikanten Gruppenunterschiede bezüglich der Entwicklung während der verschiedenen Untersuchungszeiträume und der Differenz von Initial- und Abschlusswert. Die Varianzanalyse mit Messwiederholung (Anova) zeigte sowohl für Kurativ- als auch Palliativpatienten signifikante Veränderungen der VO2peak über die Zeit. Einen Haupteffekt im Bezug auf die Gruppe oder eine Interaktion von Zeit und Gruppe gab es dabei nicht. Folglich entwickelten sich beide Gruppen über den Untersuchungszeitraum vergleichbar.
Die vorliegenden Ergebnisse zeigen, dass die Heilungsprognose, kurativ oder palliativ, keinen unterschiedlichen Einfluss auf die Trainierbarkeit der Betroffenen zu haben scheint. Körperliches Training führte bei beiden Patientengruppen dieser Studie zu signifikanten Verbesserungen der Zielparameter. Ein Vergleich der vorliegenden Daten mit bisherigen Untersuchungsergebnissen ist aufgrund der aktuell geringen Anzahl an Studien mit Palliativpatienten und einer bisher nicht einheitlichen Palliativ-Definition schwierig.
Die sporttherapeutische Beratung, welche neben der Vermittlung von Trainingsumfang und –intensität insbesondere Trainingsziele und deren Wirksamkeit aufzeigen soll, kann Patienten und ihrem Umfeld helfen, den Stellenwert von körperlichem Training zuverstehen und bestenfalls die Compliance erhalten. Darüber hinaus kann die allgemeine Leitlinien-Empfehlung von 150 Minuten moderates Ausdauertraining pro Woche als grober Richtwert bestätigt werden. Unterschiedlich hohe Trainingsumfänge in Abhängigkeit initialer Leistungsfähigkeit weisen indessen darauf hin, dass individuelle Trainingsempfehlungen zu bevorzugen sind. Als Konsequenz aus diesen Ergebnissen ist zu empfehlen, dass sich zukünftig körperliche Aktivität als unverzichtbarer Bestandteil des supportiven Therapieangebotes für Krebspatienten mit fortgeschrittener Erkrankung, speziell bei palliativ eingestuften Patienten, etabliert.
Weitere Untersuchungen zu diesem Thema sollten insbesondere darauf abzielen, Dosis-Wirkungs-Zusammenhänge zu ermitteln und diese in symptom- und entitätsspezifische Empfehlungen zu integrieren.
Das Ziel dieser Arbeit ist es, eine authentische Verdeckung eingebetteter virtueller 3D-Objekte in augmentierten Bilderwelten bei einer geringen Anzahl an Fotos innerhalb der Bilderwelt zu erreichen. Für die Verdeckung von realen und virtuellen Anteilen einer Augmented Reality-Szene sind Tiefeninformationen notwendig. Diese stammen üblicherweise aus einer 3D-Rekonstruktion, für deren Erstellung sehr viele Eingangsbilder notwendig sind. Im Gegensatz dazu wurde in dieser Arbeit ein System entwickelt, das eine vollständige 3D-Rekonstruktion umgeht. Dieses beruht auf einem direkten bildbasierten Rendering-Ansatz, welcher auch mit unvollständigen Tiefeninformationen eine hohe Bildqualität in Bezug auf eine authentische Verdeckung erreicht. Daraus erschließen sich neue Anwendungsgebiete, wie z.B. die automatisierte Visualisierung von 3D-Planungsdaten und 3D-Produktpräsentationen in Bildern bzw. Bilderwelten, da in diesen Bereichen oftmals nicht genügend große Bildmengen vorhanden sind. Gerade für diese Anwendungsgebiete sind authentische Verdeckungen für die Nutzerakzeptanz der Augmentierung wichtig. Unter authentischer Verdeckung wird die entsprechend der menschlichen Wahrnehmung visuell korrekte Überlagerung zwischen virtuellen Objekten und einzelnen Bildanteilen eines oder mehrerer Fotos verstanden. Das Ergebnis wird in Form einer Bilderwelt (eine bildbasierte 3D-Welt, die die Fotos entsprechend der Bildinhalte räumlich anordnet) präsentiert, die mit virtuellen Objekten erweitert wurde. Folglich ordnet sich diese Arbeit in das Fachgebiet der Augmented Reality ein. Im Rahmen dieser Arbeit wurde ein Verfahren für die bildbasierte Darstellung mit authentischen Verdeckungen auf der Basis von unvollständigen Tiefeninformationen sowie unterschiedliche Verfahren für die notwendige Berechnung der Tiefeninformationen entwickelt und gegenübergestellt. Das Sliced-Image-Rendering-Verfahren rendert mithilfe unvollständiger Tiefeninformationen ein Bild ohne 3D-Geometrie als dreidimensionale Darstellung und realisiert auf diese Weise eine authentische Verdeckung. Das Berechnen der dafür notwendigen Tiefeninformationen eines 2D-Bildes stellt eine gesonderte Herausforderung dar, da die Bilderwelt nur wenige und unvollständige 3D-Informationen der abgebildeten Szene bereitstellt. Folglich kann eine qualitativ hochwertige 3D-Rekonstruktion nicht durchgeführt werden. Die Fragestellung ist daher, wie einzelne Tiefeninformationen berechnet und diese anschließend größeren Bildbereichen zugeordnet werden können. Für diese Tiefenzuordnung wurden im Rahmen der vorliegenden Arbeit drei verschiedene Verfahren konzipiert, die sich in Bezug auf genutzte Daten und deren Verarbeitung unterscheiden. Das Segment-Depth-Matching-Verfahren ordnet Segmenten eines Bildes mithilfe der 3D-Szeneninformationen der Bilderwelt eine Tiefe zu. Hierfür werden Segmentbilder vorausgesetzt. Als Ergebnis liegt für jedes Foto eine Depth-Map vor. Um eine Tiefenzuordnung auch ohne eine vorangehende Segmentierung zu ermöglichen, wurde das Key-Point-Depth-Matching-Verfahren entwickelt. Bei diesem Verfahren werden die 3D-Szeneninformationen der Bilderwelt auf die Bildebene als kreisförmige Sprites projiziert. Die Distanz zur Kamera wird dabei als Tiefenwert für das Sprite verwendet. Alle projizierten Sprites einer Kamera ergeben die Depth-Map. Beide Verfahren liefern Flächen mit Tiefeninformationen, aber keine pixelgenauen Depth-Maps. Um pixelgenaue Depth-Maps zu erzeugen, wurde das Geometry-Depth-Matching-Verfahren entwickelt. Bei diesem Verfahren wird eine Szenengeometrie des abgebildeten Szenenausschnittes erzeugt und dadurch eine pixelgenaue Depth-Map erstellt. Hierfür wird ein semiautomatischer Skizzierungsschritt vorausgesetzt. Die erzeugte Szenengeometrie stellt keine vollständige 3D-Rekonstruktion der Bilderweltenszene dar, da nur ein Szenenausschnitt aus Sicht einer Kamera rekonstruiert wird. Anhand einer technischen Umsetzung erfolgte eine Validierung der konzeptionellen Verfahren. Die daraus resultierenden Ergebnisse wurden anhand verschiedener Bilderweltenszenen mit unterschiedlichen Eigenschaften (Außen- und Innenraumszenen, detailreich und -arm, unterschiedliche Bildmengen) evaluiert. Die Evaluierung des Sliced-Image-Renderings zeigt, dass mithilfe unvollständiger Tiefeninformationen der entwickelten Depth-Matching-Verfahren und unter Einhaltung der gestellten Anforderungen (wenig Eingabefotos, kleine Szenen, keine 3D-Rekonstruktion) eine authentische Verdeckung eingebetteter virtueller 3D-Objekte in Bilderwelten realisiert werden kann. Mithilfe des entwickelten Systems können bildbasierte Anwendungen auch mit kleinen Fotomengen Augmentierungen mit hoher Bildqualität in Bezug auf eine authentische Verdeckung realisieren.
In dieser Arbeit wird die Richtungsabhängigkeit seismischer Geschwindigkeiten im Erdmantel unterhalb Deutschlands und angrenzender Gebiete durch die Analyse der teleseismischen Kernphase SKS auf Doppelbrechung untersucht (Scherwellen-Splitting). Die Anisotropie wird durch die Splittingparameter Φ und δt beschrieben und erlaubt Rückschlüsse auf geodynamische Prozesse.
Untersucht werden Aufzeichnungen des Deutschen Seismologischen Regionalnetzes (GRSN) und assoziierter Stationen aus dem Zeitraum von 1993 bis 2009. Für drei Stationen des Gräfenberg-Arrays (GRF-Array) sind Wellenformen ab 1976 verfügbar, welche damit einen weltweit einmaligen Datensatz liefern.
Auf Grund des stetigen Ausbaus der seismologischen Netze und des langen Beobachtungszeitraumes können über 3.000 Seismogramme ausgewertet werden. Der Hauptteil dieser Arbeit besteht daher in der Entwicklung einer automatischen Methodik zur Analyse von SKS-Splitting: ADORE ("Automatische Bestimmung von DOppelbrechnungsparametern in REgionalseismischen Netzwerken"). Für regionale Netze wie das GRSN gewährleistet ADORE eine objektive Bestimmung der Splittingparameter. Zunächst wird das seismologische Netzwerk als seismisches Array aufgefasst, um durch eine Frequenz-Wellenzahl-Analyse den Einsatz der SKS-Phase ohne manuellen Eingriff zu bestimmen. Die Berechnung der Splittingparameter erfolgt durch eine Inversion nach der Methode der Minimierung des transversalen Energieanteils. Automatisch wird das optimale Fenster um den SKS-Einsatz positioniert, für jede Beben-Stations-Kombination werden dazu 3.600 Einzelinversionen durchgeführt.
Um diese Vielzahl von Auswertungen in akzeptabler Zeit zu berechnen, nutzt ADORE moderne Rechnerarchitekturen aus, verteilt die Berechnungen auf mehrere Computer im lokalen Netzwerk und erzielt damit eine Beschleunigung um einen Faktor 60.
Die Analyse des gesamten Datensatzes ergibt folgende Ergebnisse: An allen analysierten Stationen wurde ein Scherwellen-Splitting festgestellt, der Stationsuntergrund weist somit überall Anisotropie auf. Für 240 Erdbeben können insgesamt 494 Wertepaare mit höchster Qualität bestimmt werden.
Unter der Annahme einer homogenen ungeneigten anisotropen Schicht unterhalb der jeweiligen Station können die Einzelmessungen pro Station gemittelt werden. Damit sind Regionen mit ähnlichen Merkmalen gut zu identifizieren: Im Norden Deutschlands herrschen NW-SO-, in der Mitte W-O-Richtungen und im Süden SW-NO-Richtungen vor.
Die Verzögerungszeiten liegen im Bereich zwischen 1.0 (Station Taunus) und 2.2 Sekunden (Tannenbergsthal, TANN). Auf Grund des hohen Wertes sind die Ursachen für die hier beobachteten Zeiten dem Erdmantel und nicht der Kruste zuzuordnen. Die bevorzugte Ausrichtung von anisotropen Kristallen auf Grund von Fließprozessen von Mantelmaterial ist Quelle der beobachteten Anisotropie. Rezente Fließprozesse von Mantelmaterial sind vor allem an der Unterkante der Lithosphäre wahrscheinlich. Durch Gebirgsbildungsprozesse, vorhandene Gebirgswurzeln oder regionale Veränderungen in der Mächtigkeit der Lithosphäre entstehen Barrieren für viskoses Mantelmaterial.
Als tektonische Ursachen für die hier gemessenen Orientierungen ist im Norden die Tornquist-Teisseyre-Linie (TTZ), in der Mitte die Variszische Gebirgsbildung und im Süden Einflüsse des Alpenbogens anzusehen. Ausnahmen bilden die Stationen Clausthal-Zellerfeld (CLZ), Rügen und Black-Forest-Observatory (BFO). Während bei letzterer ein Einfluss der Spreizungszone des Oberrheingrabens zu vermuten ist, scheint die Intrusion des Brockengranits die Beobachtungen an CLZ zu prägen. Rügen liegt in einer Übergangszone zwischen Sorgenfrei-Tornquist-Zone und TTZ.
Durch die Vielzahl von vorhandenen Einzelmessungen lassen sich an manchen Stationen komplexe Modelle untersuchen. Dazu zählen neben Gradientmodellen auch die geneigte Schicht und Zwei-Schicht-Modelle. Für sechs Stationen kann ein Zwei-Schicht-Modell erstellt werden: BFO, Gräfenberg A1, Fürstenfeldbruck (FUR), Rüdersdorf (RUE), TANN und Unterbreitzbach (UBBA). Die Interpretation der Richtungen von oberer und unterer Schicht gelingt für einen Teil der genannten Stationen: An BFO liegt die Orientierung der unteren Schicht parallel zur Vorzugsrichtung der variszischen Gebirgsbildung, jene der obere Schicht antiparallel zur Spreizungsrichtung des Rheingrabens. Für die Station FUR ist eine Überlagerung mit der Streichrichtung des Alpenmassivs zu beobachten. An GRA1 wird die untere Schicht offenbar durch rezente oder eingefrorene Anisotropie des Böhmischen Massivs bzw. des Eger-Riftsystems beeinflusst. Eine vergleichbare Wirkung ist durch die TTZ an der Station RUE zu erkennen.
ADORE wurde weiterhin auf einen Datensatz des temporären RIFTLINK-Projektes angewandt.
Hintergrund: Das Burkitt Lymphom und das Diffus großzellige B-Zell Lymphom können überlappende morphologische und immunhistochemische Eigenschaften aufweisen. Eine Differenzierung beider Entitäten ist klinisch relevant. Mit Hilfe von Genexpressionsanalysen an kryo-konservierten Proben hochmaligner B-Zell Lymphome, bestehend aus Burkitt Lymphomen und Diffus großzelligen B-Zell Lymphomen, gelang 2006 die molekulare Definition des Burkitt Lymphoms (mBL) mit einer burkittspezifischen Gensignatur (Genchip-Klassifikator). Demgegenüber wurden Proben, die nicht diese Signatur aufwiesen als non-mBL bezeichnet. Proben, die weder mBL noch non-mBL klassifiziert wurden, wurden als intermediär eingestuft.
Ziel: Entwicklung einer Methode zur Unterscheidung von mBL und non-mBL mittels quantitativer Echtzeit-Polymerase Kettenreaktion (qPCR) durch die Etablierung eines Assays-Sets einer kleinen Anzahl von Genen der mBL-Signatur an formalinfixiertem, in paraffineingebettetem (FFPE) Gewebe.
Methoden: An 116 Proben, bestehend aus mBL, non-mBL und intermediären Fällen (entsprechend der Genchip-Klassifikation) wurden qPCR Messungen für sechs Gene und ein Referenzgen durchgeführt. Die Expressionsmessungen wurden auf den vorhandenen Genchip-Klassifikator projiziert.
Ergebnisse: 90 von 116 Proben konnten mit dem qPCR-Klassifikator klassifiziert werden. Bei 22 Proben kam es zu Messausfällen. 4 Fälle wurden bioinformatisch ausgesondert.13 von 14 mBL, 59 von 61 non-mBL und 8 von15 intermediären Fällen wurden identisch zu dem Genchip-Klassifikator bewertet.
Diskussion: Der entwickelte qPCR-Klassifikator ist eine objektive, schnelle und kosteneffiziente diagnostische Herangehensweise zur Bestimmung des mBL. Nicht alle FFPE-Proben waren mit dem qPCR Klassifikator eindeutig auswertbar und für eine Klassifikation zu nutzen. Eine Einflussgröße hierbei stellt das Alter der Proben dar. Mit Hilfe dieser Untersuchung können retrospektive Analysen durchgeführt werden. Der Klassifikator kann zusätzlich zur Morphologie und Immunhistochemie mit eindeutiger Klassifikation von 93% (mBL) und 97% (non-mBL) angewendet werden.
In dieser Arbeit wurde das Protein OR1 ausführlich charakterisiert und die Grundlage für weitere Studien an diesem Protein gelegt. Die Zielsetzung dieser Arbeit bestand primär in der biophysikalischen Analyse eines eukaryotischen Proteorhodopsins, da bislang keine Daten zu diesen vorlagen. Dieser Ansatz ist vergleichbar mit der Studie am BR ähnlichen Rhodopsin aus dem Pilz Leptosphaeria maculans (Waschuk et al. 2005). Auch wenn man aus den Eigenschaften von OR1 keine Signatur für eukaryotische PRs herausfiltern kann, so weist OR1 eine Reihe von Charakteristika auf, die es wert sind weiterbearbeitet zu werden. Zu den hervorzuhebenden Ergebnissen dieser Arbeit zählen:
(1) OR1 zeigte in der methylotrophen Hefe Pichia pastoris ein hohes Expressionsniveau weit über der gewohnten Ausbeute bei Membranproteinen.
(2) OR1 offenbarte sich als Proteorhodopsin mit BR ähnlichen Eigenschaften wie dem niedrigen pKs-Wert des Protonenakzeptors und damit guten Protonenpumpeigenschaften über einen großen pH-Bereich. Auch bindet OR1 keinen zweiten Chromophor, was die nahen Verwandten GR und XR hingegen tun.
(3) OR1 demonstriert, dass die Konfiguration des komplexen Gegenions von Proteorhodopsinen stark variiert und sich anscheinend flexibel den physiologischen Erfordernissen des jeweiligen Organismus anpasst. In diesem Zusammenhang spielt auch das konservierte Histidin eine Rolle, da es den primären Protonenakzeptor beeinflusst. Bei OR1 stellte sich heraus, dass das Histidin den pKs Wert der D100 Position nicht signifikant beeinflusst.
(4) OR1 wurde mit 13C und 15N Atomen erfolgreich markiert und das entwickelte Protokoll für die Rekonstitution bewährte sich. Die Proteoliposomen des Wildtyps gaben sehr gut aufgelöste Festkörper-NMR Spektren. In Zukunft sind somit ausführliche NMR Studien an OR1 möglich.
Body Integrity Identity Disorder (BIID) ist eine bisher kaum erforschte Störung, bei der die Betroffenen den Wunsch beziehungsweise das Verlangen nach einer Körperbehinderung verspüren. In den meisten Fällen, wie auch in dieser Studie, ist eine Oberschenkelamputation die gewünschte Modifikation. Durch die Amputation erhoffen die Betroffenen endlich sie selbst zu werden, da sie sich mit ihrem realen Körperbild nicht identifizieren können. Ihr vorgestelltes Körperbild ist das eines Amputierten. Die Störung manifestiert sich bereits im Kindesalter. Im Laufe der Zeit nimmt das Verlangen der Amputation zu, so dass es neben der vermehrten Beschäftigung sogar zu lebensgefährlichen Selbstverletzungen im Zuge einer Verwirklichung kommen kann.
Die vorliegende Studie beschäftigt sich erstmalig mittels funktioneller Magnetresonanztomographie mit der neuronalen Repräsentation der Störung BIID beim Anblick des eigenen realen und des gewünschten amputierten Körpers. Für die Studie wurden Fotos von den Probanden und einer fremden Person gemacht und mit einer Software so modifiziert, dass die Probanden in sechs verschiedenen Kategorien sowohl sich selbst real, sowie amputiert und mit Prothese als auch die fremde Person real, amputiert und mit Prothese gezeigt bekamen. Dasselbe Design wurde auch einer gesunden Kontrollgruppe vorgeführt. Aufgrund der Datenmenge wird in dieser Studie nur der reale und der amputierte Körper berücksichtigt.
Es zeigen sich deutliche Aktivierungsunterschiede zwischen der BIID Gruppe und der Kontrollgruppe beim Anblick des eigenen realen Körpers und beim Anblick des eigenen amputierten Körpers. Beim Anblick des eigenen realen Körpers zeigt die Kontrollgruppe gegenüber der BIID Gruppe einen stärkeren Selbstbezug zu ihrem Körper durch Aktivierungen des medialen frontalen Gyrus, des postzentralen Gyrus oder der Amygdala und einen positiver valenzierten Anblick, der sich im Gruppenvergleich durch eine Mehraktivierung im superioren temporalen Gyrus ausdrückt sowie durch die Ergebnisse der post-fMRT-Fragebögen unterstützt wird. Beim Anblick des eigenen amputierten Körpers zeigt sich durch ein fronto-parietales Netzwerk der stärkere Selbstbezug bei der BIID Gruppe. Die deutliche emotionale Involviertheit wird repräsentiert durch große Teile des limbischen Systems sowie durch präfrontale Bereiche. Hinzu kommen Aktivierungen, die eine deutliche Beteiligung des episodisch-autobiographischen und prozeduralen Gedächtnisses zeigen. So ist eine vollständig geplante Bewegungsabfolge der BIID Probanden beim Anblick ihres amputierten Körpers anhand der aktivierten Areale darstellbar, einschließlich der Feinregulationen in den Basalganglien, dem Nucleus ruber und dem Kleinhirn.
Die Ergebnisse zeigen neuronale Netzwerke der Körperrepräsentation, bei denen fehlende Aktivierungen der BIID Probanden beim Anblick des eigenen realen Körpers auf eine Fehlfunktion hindeuten könnten. Sie zeigen aber auch ein Netzwerk aus Erinnerungen und erlernten Prozessen, die mit Hilfe des mesolimbischen Dopaminsystems zur Aufrechterhaltung der Störung beitragen könnten. Zusammengefasst lässt sich sagen, dass das amputierte Wunschkörperbild neuronal stark und breitgefächert verankert ist und viel dominanter repräsentiert ist als das reale Körperbild. Durch die dargestellten Aktivierungen und Regelkreise leiten sich vor allem neue therapeutische Ansätze ab, die zu einer Linderung der Symptome von BIID beitragen könnten und vielleicht auch neue Anstöße in Hinblick auf eine Heilung der Störung liefern.
Eine Infektion mit dem Hepatitis B Virus (HBV) kann bei 5-10 % der infizierten Erwachsenen und 70-90 % der infizierten Kinder chronisch verlaufen. Trotz einer verfügbaren Impfung gegen die Erkrankung sind heute nach Angaben der WHO weltweit etwa 350 Mio. Menschen chronisch HBV-infiziert [Lupberger and Hildt, 2007, Hollinger and Liang, 2001]. In 5-10 % der Fälle führt eine chronische Infektion zu einer Leberfibrose und Zirrhose, welche letztlich zur Ausbildung eines hepatozellulären Karzinoms (HCC) führen kann. HCCs sind die dritthäufigste karzinomassoziierte Todesursache weltweit [Blum, 2005]. Um Therapien gegen eine HBV-Infektion und das damit erhöhte Risiko einer HCC-Entstehung entwickeln zu können, müssen die einzelnen Schritte des HBV-Replikationszyklus verstanden sein. Wesentliche Schritte der frühen Infektionsphase, insbesondere der Rezeptor bzw. Rezeptorkomplex, welcher den Zelleintritt des Virus vermittelt sowie der Transport des Virusgenoms in den Zellkern, sind bisher noch unklar. Auch der Exportprozess und die Freisetzung der Viruspartikel ist bisher noch nicht im Detail verstanden. Es ist jedoch bekannt, dass die Viruspartikel unter Nutzung der zellulären ESCRT (endosomal sorting complex required for transport)-Maschinerie aus der Zelle freigesetzt werden [Lambert et al., 2007]. Auf der Suche nach Faktoren, die in diese Vorgänge involviert sind, konnte in dieser Arbeit das vesikeltransportassoziierte Protein α-Taxilin identifiziert werden. Der Einfluss von HBV auf die α-Taxilin-Bildung und seine mögliche Beteiligung am viralen Export wurden dabei näher charakterisiert. In HBV-positiven Zellen konnte in vivo und in vitro eine signifikante Steigerung der α-Taxilin-Expression nachgewiesen werden. Diese wird hierbei durch die HBV-Proteine HBx und LHBs über den Raf/Mek/Erk-Signalweg induziert [Glatzel, 2011]. Mithilfe von knockdown-Experimenten konnte beobachtet werden, dass α-Taxilin für den Export der Viruspartikel, nicht aber für den Export subviraler Partikel (SVPs) essentiell ist. Der Export der Virionen findet hierbei über das ESCRT-System statt. Den HBV-Strukturproteinen fehlen jedoch die für die Interaktion mit dem ESCRT-System essentiellen late-Domänen. Die Proteinstruktur von α-Taxilin dagegen weist diese late-Domänen auf. In dieser Arbeit konnte diese interaktionsvermittelnde Funktion von α-Taxilin zwischen dem Virus und dem ESCRT-System charakterisiert werden. Über eine Interaktion von α-Taxilin mit dem viralen LHBs-Protein auf der einen Seite und der tsg101-Komponente des ESCRT-I-Komplexes auf der anderen Seite agiert α-Taxilin als eine Art Linker zwischen dem ESCRT-System und HBV.
Darüber hinaus wurde Annexin A5 als zellulärer Interaktionspartner für α-Taxilin identifiziert [Röttger, 2011]. Es dirigiert α-Taxilin in einer Art shuttle-Funktion auf die Zellmembran suszeptibler Zellen und bindet es an deren Zelloberfläche. Diese Exposition von α-Taxilin nimmt während der Dedifferenzierung in Korrelation mit dem Suszeptibilitätsverlust primärer Hepatozyten ab. Eine Maskierung von α-Taxilin durch eine vorherige Inkubation der Zellen mit α-Taxilin-spezifischen Antikörpern konnte die Bindung und die Aufnahme der Viren inhibieren. Überexpressionsstudien bestätigten die essentielle Rezeptorfunktion von α-Taxilin. Die verstärkte Produktion von α-Taxilin führte zur Suszeptibilität der Zellen. Auch die Speziesspezifität der Bindung zwischen humanem α-Taxilin und HBV konnte in einem Co-Immunpräzipitationsexperiment mit den rezeptorbindenden Domänen von HBV, WHV und DHBV identifiziert werden.
In der vorliegenden Arbeit konnte somit zum ersten Mal eine Rezeptorfunktion von α-Taxilin bei der Aufnahme von HBV in die Wirtszelle nachgewiesen werden. Darüber hinaus schreiben die in dieser Arbeit gemachten Beobachtungen α-Taxilin eine essentielle Funktion für die Vermittlung des ESCRT-abhängigen Exports der Virionen aus der Zelle zu. Die hierbei gewonnen Erkenntnisse sind von hoher Relevanz für die weitere Erforschung der HBV-assoziierten Pathogenese und die Etablierung eines in vivo Infektions-Modells.
Autophagie ist ein evolutionär stark konservierter Degradationsmechanismus für geschädigte Proteine bis hin zu ganzen Organellen eukaryotischer Zellen. Dabei umhüllt eine Doppelmembran, bisher unbekannten Ursprungs, das zu degradierende Material und bildet das Autophagosom. Dies fusioniert später mit Lysosomen, wodurch dessen Inhalt proteolytisch zersetzt und die Bestandteile der Zelle wieder zur Verfügung gestellt werden kann.
In dieser Abeit wurde der Fokus auf den mitochondrialen Abbau über Autophagie (Mitophagie) und dessen Funktion als ein mitochondrialer Qualitätsmechanismus gesetzt. Als Zellmodell wurden primäre humane Endothelzellen der Nabelschnurvene (HUVEC) verwendet. Diese zeichenen sich durch einen Übergang von einer mitotischen, jungen in eine lange postmitotische, seneszente Phase während der Kultiverungszeit aus. Dabei durchlaufen sie einer zelluläre und mitochondriale Morphologieänderung. , wodurch sich die Möglichkeit bot , die Autophagie unter verschiedenen Parametern zu betrachten.
So wird generell eine Abnahme des autophagosomalen / lysosomalen Weges mit dem Alter beschrieben und die Abhängigkeit der Mitophagie von der mitochondrialen Länge.
Mitophagie ist unter normalen Kultivierungsbedingungen ein mikroskopisch selten zu beobachtender Vorgang. Daher wurde ein mitochondriales Schädigungsystem etabliert, welches die photosensibiliesierende Wirkung des Farbstoffs MitoTracker Red Cmx Ros (MTR) nutzt, um Mitochondrien gezielt oxidativ zu schädigen und die Mitophagie zu aktivieren.
Mitotische HUVEC zeigten 2 h – 8 h nach oxidativer Schädigung eine mitochondriale Fragmentierung größtenteils begleitet von einem Verlust des Membranpotentials. Über einen Zeitraum von 72h-120h kam es zur Regeneration des mitochondrialen Netzwerks durch Neusynthese mitochondrialer Biomoleküle. Entgegen der rescue Hypothese konnten oxidativ geschädigte Mitochondrien nicht durch eine Fusion mit funktional intakten Mitochondrien gerettet werden und wurden über den autophagosomalen / lysosomalen Weg abgebaut, gekennzeichnet durch die Ubiquitin-Ligase Parkin vermittelte Markierung und finaler Kolokalisation mit den autophagosomalen und lysosomalen Markerproteinen LC3B und LAMP-2A. Auf mRNA- und Proteinebene zeigte sich in diesem Zeitraum eine erhöhte Expression autophagie-relevanter Gene (ATGs) ATG5, ATG12 und LC3B.
Der Vergleich von mitotischen mit postmitotischen HUVEC nach oxidativer Schädigung wies zwei grundlegende Unterschiede auf.
Zum einem behielten, in Gegensatz zu jungen Zellen, die Mitochondrien alter HUVEC ihre Morphologie und ihr Membranpotential bei. Diese erhöhte Widerstandfähigkeit gegenüber oxidativem Stress konnte auf die erhöhte Expression der mitochondrial lokalisierten Serin / Threonin Kinase PINK1 zurückgeführt werden, ein Schlüsselgen in Parkinson.
Die PINK1-Transkription stand invers zu der Expression der mitochondrialen Teilungsfaktoren Fis1- und Drp1, welche in postmitotischen HUVEC stark vermindert war.
Andererseits wiesen alte Zellen eine verminderte Degradationsfähigkeit geschädigter Mitochondrien auf. Dieser Umstand war durch eine verminderte lysosomale Azidität bedingt. Eine externe ATP-Zugabe förderte die Azidität der Lysosomen alter Zellen und die Fusion mit Autophagosomen, wodurch Mitochondrien und ihre geringere ATP-Produktion im Alter als ein Faktor der Autophagie ermittelt weden konnte.
Die Autophagierate steht in Verbindung mit der Lebensspanne von Zellen bis hin zu ganzen Organismen. Durch die Überexpression autophagie-relevanter GFP-Fusions-Proteine ATG5, ATG12 und LC3B, welche nach oxidativer Schädigung in ihrer Expression verstärkt wurden, förderten die Mitophagie und wurden stabil in junge HUVEC exprimiert. Diese Überexpressionen bewirkten eine verbesserte mitochondriale Qualität, veranschaulicht durch ein erhöhtes Membranpotential und die ATP-Bereitstellung, einer besseren mtDNA Integrität und sie verlängerten die Lebensspanne signifikant, wobei die Produktion von reaktiven Sauerstoffspezien (ROS), entgegen der von Harman aufgestellten Alterungstheorie, keine Verminderung zeigte. Dennoch wiesen sie einen erhöhten Gehalt oxidativ modifizierter Proteine auf, welche letztendlich auf die erhöhten Autophagosomenanzahl zurückgeführt werden konnte, in denen höchstwahrscheinlich das oxidativ geschädigte Material gelagert wird.
In dieser Arbeit kann gezeigt werden, dass Mitochondrien nach oxidativer Schädigung eine Teilung vollziehen und geschädigte Mitochondrien selektiv über Autophagie abgebaut werden. Dabei fungiert Mitophagie als ein mitochondrialer Qualitätmechanismus und steht unmittelbar mit der Lebensspanne in Verbindung.
Metallorganische Netzwerke (engl. metal-organic frameworks, MOFs) sind eine neuartige Klasse mikro/mesoporöser Materialien, für die eine Vielzahl von möglichen Anwendungen demonstriert werden konnte. Das Ziel dieser Arbeit besteht in der Synthese von MOF Mikro/Nanopartikeln sowie der Herstellung von sogenannten Oberflächen-deponierten MOFs (engl. surface-attached metal-organic frameworks, SURMOFs). MOF Partikel mit kontrollierbarer Morphologie und Größe wurden unter milden Bedingungen synthetisiert. Um MOFs als Sensoren, intelligente Membrane, oder in nanotechnologischen Bauelementen verwenden zu können, ist die Integration auf der jeweiligen Oberfläche wichtig. Daher beschäftigt sich der Großteil dieser Arbeit mit der kontrollierten Abscheidung von SURMOFs auf verschiedenartigen Trägermaterialien. Etliche interessante Eigenschaften (z.B. die Fluoreszenz in Abhängigkeit von der Gegenwart von Gastmolekülen und die dynamische Gasadsorptionskapazität) der SURMOFs wurden untersucht.
Die Funktion der äußeren Haarsinneszellen geht weit über die normale Rezeptoreigenschaft der Kategorie Mechanorezeptor hinaus. Äußere Haarzellen mit ihrer reichhaltigen efferenten Innervierung sind nicht nur für die sensorische Aufnahme mechanischer Bewegung zuständig, sondern ermöglichen aufgrund ihrer motorischen Funktionen die mechanische Verstärkung der Wanderwelle in der Cochlea. Äußere Haarzellen sind eine maßgebliche Komponente des ´cochleären Verstärkers` und ihr Ausfall führt zur Schwerhörigkeit. Beiprodukte des cochleä-ren Verstärkers sind otoakustische Emissionen, deren Messung Aufschluss über aktive mechanische Prozesse im Innenohr gibt.
Die äußeren Haarsinneszellen bilden Synapsen mit dem olivo-cochleären efferenten System, welches im Zentrum der vorliegenden Untersuchung steht. Es vermittelt den Einfluss des Zentralnervensystems auf das Corti-Organ des Innenohrs. Über die akustische Reizung des olivo-cochleären Reflexbogens ist man in der Lage, das efferente System zu aktivieren und gleichzeitig die Antworteigenschaften der Cochlea zu verändern. Efferente Modulationen des cochleären Verstärkers können sich z. B. in einer Veränderung des Emissionspegels bemerk-bar machen. Die Fledermausspezies Carollia perspicillata ist aufgrund ihres Echoortungs-systems mit einem sehr sensitiven und hochauflösenden Hörvermögen ausgestattet und eignet sich hervorragend als Modelltier in der Hörforschung, insbesondere auch deshalb, da oto-akustische Emissionen sehr gut messbar sind.
Das efferente System von C. perspicillata wurde in dieser Untersuchung durch akustische Stimulation der kontralateralen Cochlea angeregt. Die Stimuli, die nicht nur in ihrem Pegel sondern auch in ihrer Bandbreite und in der Mittelfrequenz in Relation zu den ipsilateralen Stimulusfrequenzen variierten, beeinflussten dabei die Generierung der otoakustischen Emis-sionen (DPOAE, engl: distortion product otoacoustic emissions) im ipsilateralen Ohr: akustische Stimulation der kontralateralen Cochlea bewirkte zuverlässig eine Änderung der DPOAE- Amplitude im kontralateralen Ohr. Vor allem eine Suppression des cochleären Verstärkers in Form von DPOAE-Pegelverminderungen wurde beobachtet. Die supprimieren-den Effekte erreichten trotz leiser bis moderater kontralateraler Rauschpegel (bis maximal 54 dB SPL) Werte von bis zu 14, 17.1 und 13.9 dB SPL (bei f2 = 20, 40 und 60 kHz und effek-tivstem kontralateralen Rauschstimulus) und waren damit deutlich größer als in vorangegang-enen Studien an anderen Spezies. Die DPOAE-Pegelverminderungen waren positiv mit dem x Pegel der kontralateralen akustischen Stimulation, ebenso wie seiner Bandbreite und der Mittelfrequenzen in Relation zu den ipsilateralen Stimulusfrequenzen korreliert. Es gab keinen absoluten Frequenzbereich, in dem die efferenten Effekte am größten gewesen wären. Vielmehr traten maximale Effekte immer durch etwas oberhalb der ipsilateralen Stimulusfre-quenzen gelegene kontralaterale Rauschstimuli auf. Die Effekte waren auch abhängig von der Bandbreite des kontralateralen Rauschstimulus und maximal bei einer relativen Bandbreite von 1.5 Oktaven. Die Verschiebung des efferenten Effekts hin zu hohen Frequenzen und die Bandbreitenabhängigkeit sind vereinbar mit den anatomischen Eigenschaften der Projektio-nen der medialen olivo-cochleären Efferenzen in der Säugetiercochlea. Kontralaterale akusti-sche Reizung bewirkte auch eine Verschiebung der Wachstumsfunktionen der 2f1-f2 -DPOAE in einen unsensitiven Bereich und außerdem eine Verformung der Wachstumsfunktion. Bei-des könnte durch Beeinträchtigung des cochleären Verstärkers verursacht sein. Eine Beteili-gung des Mittelohrmuskels an den Effekten kann nahezu ausgeschlossen werden und die beobachteten Effekte sind höchstwahrscheinlich dem olivo-cochleären System zuzuschreiben.
Funktionell ist denkbar, dass bei C. perspicillata das mediale olivo-cochleäre System im Kontext einer Frequenzverschärfung bei der cochleären Verstärkung der Basilarmembranbe-wegung aktiv wird. Aus diesem Grund wurden ipsilateral sogenannte DPOAE-Suppressions- Abstimmkurven gemessen, welche die mechanische Abstimmschärfe im Innenohr beschrei-ben. Während und nach kontralateraler Reizung kam es zu Veränderungen der Abstimmkur-ven. Signifikante Effekte konnten allerdings nicht festgestellt werden, da die Veränderungen der Suppressions-Abstimmkurven variabel und schlecht kategorisierbar war.
Die vorliegenden Ergebnisse unterstützen weit verbreitete Hypothesen zur Funktion der medialen olivo-cochleären Effernzen in Bezug auf mechanische Suppression, Verbesserung des cochleären Signal-Rauschverhältnisses und einer generellen frequenzspezifischen Wirkung.
Die Diskussion über die zeitgenössische Globalethik im Kontext von Hans Küng und Iḫwān aṣ-ṣafāʾ
(2013)
Die Menschheit befindet sich in einer globalen Krise, die sich nicht nur im wirtschaftlichen, politischen und ökologischen Bereich zeigt. Auch Religion und Moral sind davon betroffen. Die Modernisierung führt zunehmend dazu, dass menschliche Werte wie bedingungslose Solidarität, Aufrichtigkeit, Hilfsbereitschaft und Großzügigkeit immer mehr durch Geldgier und Ausbeutung der Umwelt ersetzt werden. Man beschwert sich oft über die Kriegsgefahren, über die Probleme des Bevölkerungswachstums, die Umweltverschmutzung und die Vergiftung von Gewässern sowie über die Gefahr des globalen Terrors. Viele dieser Probleme berühren Religion und Moral, die nicht unabhängig von modernen Problemen denkbar sind. Globaler Terror hat beispielsweise neben vielen anderen Faktoren auch religiös begründete Motive.
In der vorliegenden Arbeit konnte gezeigt werden, dass bestimmte neuronale microRNAs im Rückenmark und in den Spinalganglien konstitutiv exprimiert und nach peripherer Entzündung mit Formalin oder Zymosan differenziell reguliert werden. Bei der SNI-induzierten Neuropathie konnte indessen keine signifikante Regulation der untersuchten microRNAs nachgewiesen werden. Aufgrund der Lokalisation in den Neuronen der Schmerz-verarbeitenden Laminae I und II des Dorsalhorns des Rückenmarks und angesichts der Regulation in entzündlich stimulierten Neuronen und Mikroglia wurde der Fokus der Arbeit auf die Untersuchung von microRNA-124a gelegt. Anhand von Expressionsanalysen konnte gezeigt werden, dass eine periphere entzündliche Stimulation mit Formalin oder Zymosan microRNA-124a im Rückenmark inhibiert, die Expression pro-inflammatorischer und pro-nozizeptiver Gene hiernach ermöglicht und ein vermehrtes Schmerzverhalten bewirkt. Die funktionelle Relevanz von microRNA-124a wurde in vivo mittels intravenöser Applikation von microRNA-124a-Modulatoren bei einem Modell für entzündliche Schmerzen, dem Formalin-Modell untersucht. Dabei führte die Hemmung von microRNA-124a zu einem verstärkten Schmerzverhalten, welches mit einer Hochregulation verschiedener Entzündungsmarker einherging. Die Überexpression von microRNA-124a dagegen antagonisierte die Hochregulation entzündlicher Mediatoren und führte zu einer Schmerzhemmung. Darüber hinaus konnte in der vorliegenden Arbeit der antinozizeptive Effekt von microRNA-124a mit der Regulation der Epigenetik-regulierenden Targets MeCP2, HDAC5 und MYST2 assoziiert werden und u.a. über die Hemmung des neuromodulierenden, pro-inflammatorischen Peptids BDNF verifiziert werden. Die spezielle Darreichung von microRNA-124a könnte demzufolge einen vielversprechenden Ansatz zur Therapie chronisch-entzündlicher Schmerzen liefern. Zukünftig werden weitere Studien notwendig sein um die eindeutige Funktion, die individuelle Wirkung sowie die therapeutische Relevanz von microRNA-124a zu analysieren. Darüber hinaus müssten Dosis-Wirkungs-Beziehungen und Nebenwirkungsprofile für microRNA-124a erstellt werden, um potenzielle Risiken, Chancen und Vorteile der microRNA-Modulation hinsichtlich einer humanen Schmerztherapie bewerten zu können.
Die Transkription ist ein entscheidender Schritt in der Transition der genetischen Information, welche durch die DNA codiert und im Genom hinterlegt ist, zu dreidimensionalen Funktionseinheiten in der Zelle, den Proteinen. Während der Transkription wird die Information von der Ebene der DNA in RNA umgewandelt, welche in der Zelle zusätzlich zu dessen Rolle als Informationsmediator in Form der mRNA eine Vielzahl von Funktionen ausübt. Die Transkription benötigt in Hinblick auf ihre essentielle Rolle in der Errichtung des Proteoms und der notwendigen Adaption von Genexpressionsprogrammen an externe zelluläre Stimuli, den Zellzyklus etc. eine präzise und gleichzeitig flexible Regulation. Besonders für die Transkription von mRNA dient die eukaryotische RNA-Polymerase II (RNAP II) in diesem Prozess als eine zentrale Einheit, die einer Vielzahl regulativer Mechanismen wie post-translationaler Modifikationen und der Assemblierung dynamischer Proteinkomplexe unterliegt. Während Komponenten dieser Regulation wie die Zusammensetzung und Dynamik des Prä-Initiationskomplex bereits seit Jahrzehnten beschrieben sind, ist eine besondere Form der RNAP II-abhängigen Regulation erst in den letzten Jahren Gegenstand genauerer Untersuchungen geworden. So erfährt die RNAP II bei einer Vielzahl von Genen unmittelbar nach der Initiation einen Arrest, der das Enzym nicht weiter über die DNA prozessieren lässt und somit die produktive Elongation des Gens blockiert. Die Aufhebung dieser Blockade wird durch den positiven Transkriptions-elongationsfaktor b (P-TEFb) dominiert, der durch distinkte post-translationale Modifikationen der C-terminalen Domäne der RNAP II und assoziierter Faktoren die produktive Elongation ermöglicht. P-TEFb selbst unterliegt dabei einer strengen Regulation durch eine inaktivierende Assoziation mit Speicherkomplexen. P-TEFb wurde abseits dieser Komplexe in einer Vielzahl von Elongations-assoziierten Proteinkomplexen identifiziert, der Mechanismus der Transition aus dem inaktiven Speicherkomplex zur aktiven Form an der RNAP II war jedoch unbekannt.
Ein zentrales Element aller aktiven Komplexe ist die Anwesenheit von Proteinen der AF4/FMR2-Familie, darunter das AF4 Protein. Bemerkenswerterweise war die genaue Rolle dieses Proteins in den Komplexen bisher unbekannt oder wurde lediglich auf die strukturelle Integrität der Komplexe beschränkt. AF4 und speziell dessen N-Terminus ist über diese Rolle hinaus als Bestandteil des Fusionsproteins AF4-MLL eng mit der onkogenen Zelltransformation im Falle einer durch die t(4;11)(q21;q23) chromosomalen Translokation bedingter, akuter lymphoblastischer Leukämie assoziiert.
In dieser Arbeit konnte gezeigt werden, dass das AF4 Protein und im Speziellen sein N-Terminus in der Lage ist, die zelluläre Transkription durch die Aktivierung und Rekrutierung von P-TEFb zu aktivieren. In Anwesenheit von AF4 wird die Kinase-Untereinheit CDK9 des P-TEFb post-translational an Lysinresten modifiziert und damit aktiviert sowie die C-terminale Domäne der RNAP II im Kontext stärker phosphoryliert. Gleichzeitig wurde das P-TEFb inaktivierende Protein HEXIM1 stärker exprimiert. AF4 und AF4-MLL waren weiterhin in der Lage ein Elongations-kontrolliertes Reportergen zu aktivieren. Gleichzeitig führte die Überexpression des AF4 zu einer Erhöhung der zellulären RNA Menge. Zur genaueren Untersuchung der AF4-abhängigen Mechanismen wurden zwei Zelllinien erstellt, die zum Einen eine induzierbare und reproduzierbare Überexpression und Reinigung des AF4 erlaubten (TCZP-AF4ST) und zum Anderen durch lentiviralen knock-down eine an AF4-Mangelsituation nachstellten (AF4kd V100). Es konnte so gezeigt werden, dass AF4 über P-TEFb hinaus eine regulative Funktion gegenüber Transkription-assoziierten Faktoren wie CDK7, MENIN und NF?B besitzt und dass diese Faktoren vorrangig, analog zu P-TEFb, mit dem N-Terminus des AF4 interagieren. Die Überexpression von AF4 führte über die Bindung an die 7SK snRNA und deren Degradation zur Rekrutierung des P-TEFb aus den Speicherkomplexen in distinkte AF4-assoziierte Komplexe und zu einer Umverteilung des Faktors auf distinkte Loci im Zellkern, wobei der AF4 N-Terminus für sich alleine jedoch nicht in der Lage war, diese Funktion auszuüben. Im Falle eines Mangels an AF4 kam es zur Wachstumsretardierung der Zellen sowie zu einem völligen Aktivitätsverlust in Reportergenversuchen.
Die Tatsache, dass AF4 ein zentrales Element in der Elongationskontrolle darstellt führte zu der weitergehenden Vermutung, dass virale immediate early (IE) Proteine zur Kontrolle viraler Genexpression auf der Ebene der Elongation ebenfalls auf dieses Wirtsprotein zugreifen können. Es konnte vor diesem Hintergrund gezeigt werden, dass AF4 tatsächlich mit den IE-Proteinen IE1 (HCMV) und Zta (EBV) aus der Familie der Herpesviren interagiert und durch die Stabilisierung des AF4 Proteins eine kooperative, transaktivierende Funktion auf ein ALOX5 Reportergen ausgeübt wurde. Es wurde gezeigt, dass die viralen IE-Proteine dabei Komponenten der AF4 Komplexe sind und in der Zelle zur epigenetischen Regulation des ALOX5 Gens führen. Weiterhin konnte in diesen Experimenten dargestellt werden, dass AF4 über seine Rolle in der Elongationskontrolle hinaus auch distinkte Effekte in der Aktivierung von Promotoren und damit in der Initiation der Transkription zeigt. Damit konnte in dieser Arbeit zum ersten Mal die essentielle Rolle des AF4 Proteins in der Elongationskontrolle und der Initiation der Transkription als auch in der Infektion durch Herpesviren gezeigt werden.
Im Mittelpunkt dieser Arbeit stand die Untersuchung der Reaktivität von Chlorsilanen gegenüber Elektronenpaardonoren. Als Basis hierfür diente die Alkylamin-katalysierte (NMe3, NMe2Et, NEt3) quantitative Disproportionierung von Si2Cl6 bzw. Si3Cl8 zum Neopentasilan 3 und SiCl4 (T ≤ RT, Schema 40). Obwohl diese Reaktion bereits seit über 60 Jahren bekannt ist, sind für ihren Mechanismus nur Vermutungen aufgestellt worden. In Kooperation mit der Gruppe um M. Holthausen ist es hier gelungen, das SiCl2-Amin-Addukt 57 als entscheidende Zwischenstufe zu identifizieren (1H29Si-HMBC-NMR-Experiment sowie DFT-Rechnungen). Si(SiCl3)4, die thermodynamische Senke des Systems, entsteht durch anschließende Insertion des Dichlorsilylens in Si−Cl-Bindungen – bevorzugt am höchst substituierten Si-Zentrum (es bilden sich keine linearen bzw. weniger verzweigten Oligosilane). Zudem lässt sich das koordinierte Amin vom SiCl2-Addukt wieder abspalten, was die Si(SiCl3)4-Synthese überhaupt erst ermöglicht. Dieses Verhalten unterscheidet sich grundlegend vom jenen literaturbekannter stabilisierter Chlorsilylene: hier bindet der Donor so stark an das Si-Atom, dass er den ambiphilen Charakter des Silylens zugunsten der Lewis-basischen Funktion einschränkt. Daher kann man mit diesen Addukten auch keine Oligosilane aufbauen, die mittlerweile auch das Interesse der chemischen Industrie erweckt haben...
Durch RNAinterferenz (RNAi) läßt sich die Expression eines beliebigen Gens spezifisch unterdrücken. Dafür müssen in das Zytoplasma kurze, doppelsträngige RNA Moleküle (siRNA bzw. shRNA) eingebracht werden, die teilweise komplementäre Sequenzen zu dem Zielgen aufweisen. Um siRNAs mit einer hohen Effizienz und Kopienzahl in die Zielzelle einzubringen, wurden Transfersysteme unterschiedlicher Art entwickelt. Nicht-virale Transfersysteme können nur einen transienten Effekt auslösen - ein Umstand, der für Langzeitstudien eine mehrfache Transfektion bedingt. Zur Lösung dieses Problems wurden retrovirale Vektorsysteme entwickelt, die durch Integration der shRNA-Expressionskassette in das zelluläre Genom eine stabile Unterdrückung eines Zielgens erreichen können. Insbesondere für präklinische Studien in vivo ist jedoch ein System mit erhöhter Transferrate wünschenswert, um in möglichst vielen Zielzellen einen RNAi-Effekt zu bewirken. Sliva et al. konnten zeigen, dass das Murine Leukämie Virus (MLV) theoretisch diese Anforderung erfüllt. Dafür wurde eine shRNA-Expressionskassette in das Virusgenom eingefügt und in vitro ein RNAi-Effekt nachgewiesen. In der vorliegenden Arbeit wurde dieses System nun durch die Verwendung von microRNA-adaptierten shRNAs (shRNAmir) verbessert. In mehreren Publikationen wurde bestätigt, dass shRNAs, die endogenen microRNAs nachempfunden sind, eine höhere Effizienz und niedrigere Toxizität aufweisen. Zunächst wurde die für die genetische Stabilität optimale Orientierung der shRNAmir-Expressionskassette bestimmt. Das Konstrukt in reverser Orientierung wies eine Deletion in der shRNAmir Promotersequenz auf, die wahrscheinlich durch Interferenz mit dem 5’LTR Promoter entstanden ist. Mit dem genetisch stabilen Viruskonstrukt wurden Experimente zur Reduktion der Expression von Markergenen durchgeführt, um die Effizienz der RNAi-Aktivität leicht zu quantifizieren. Dafür wurden humane Fibrosarkom (HT1080) Zellen infiziert, die eGFP oder Luziferase stabil exprimieren.
Mit eGFP- und Luziferase-spezifischen shRNAmir-Expressionskassetten konnte nach Infektion eine Herunterregulation von eGFP auf etwa 20 % und für Luziferase auf unter 10% beobachtet werden. Das Kontrollvirus, das eine unspezifische shRNAmir kodiert, hatte keinen Einfluss auf die Expression beider Markerproteine. Die Kinetik mit der die Markerproteine herrunterreguliert wurden, war abhängig von der Virusdosis. Die Virusdosis hatte aber keinen Einfluß auf die Stärke des RNAi-Effekts, der nach Infektion aller Zellen festgestellt werden konnte. Dieses Ergebnis entspricht der Erwartung an ein replikatives Transfersystems, das je nach applizierter Virusdosis unterschiedlich schnell RNAi in der Zellkultur ausbreitet und induziert. Die Anwendbarkeit dieses RNAi-Transfersystems auch für endogene Gene wurde mit MMP14-spezifischen shRNAmirs gezeigt. Nach Infektion von HT1080 Zellen mit den entsprechenden Viren in HT1080 Zellen konnte eine verringerte Menge an MMP14 mRNA und Protein nachgewiesen werden. Dies konnte funktionell durch eine verringerte Menge an intermediärem MMP2 und durch eine reduzierte Invasivität bestätigt werden. Zudem war die Fähigkeit dieser Zellen subkutane Tumore zu bilden stark eingeschränkt.
Um die Anwendbarkeit dieses Systems für in vivo Applikationen zu zeigen, wurde in Mäuse, die Luziferase-exprimierenden Tumoren trugen, MLV-shLuc oder das Kontrollvirus systemisch appliziert. 21 Tage nach Virusgabe konnte in den Tumoren von MLV-shLuc infizierten Mäusen eine Abnahme der Luziferaseaktivität auf 15 % nachgewiesen werden. Auch in Mäusen, die systemisch applizierte Tumorzellen erhielten, konnte eine Tendenz von RNAi-vermittelter Luziferase-Reduktion beobachtet werden.
Damit wurde in dieser Arbeit ein neuartiges RNAi-Transfersystem geschaffen, das in der Lage ist, auch in vivo einen starken und lang andauernden RNAi-Effekt auszulösen. Die Einzigartigkeit besteht in der Kombination von shRNAmir und Replikations-kompetenten Retroviren. Dadurch konnte eine erweiterte Transferrate von shRNAmir in Tumorzellen erreicht werden, so dass nun Genfunktionsstudien mit sehr hoher Aussagekraft möglich sind.
Ziel der vorliegenden prospektiven, experimentellen, randomisierten kontrollierten In-vitroStudie war es, zwei Dentinadhäsive, die der sechsten (One-Up-Bond F, Tokuyama) und siebten (G-Bond, GC Tokio) Generation angehören, unter ISO-Bedingungen zu untersuchen und einer Kontrollgruppe (Clearfil SE, Kuraray), die der sechsten Generation zugeordnet wird, gegenüberzustellen. Neunzig unversehrte humane Molaren der zweiten Dentition wurden eingebettet. Das Dentin wurde mit Siliziumcarbidscheiben der Körnung 600 bearbeitet, um eine Schmierschicht zu erhalten. Anschließend wurden die Dentinproben randomisiert in drei Gruppen eingeteilt und die jeweiligen Dentinadhäsive wurden nach Herstellerangaben appliziert. Mittels einer Versuchsapparatur, die in Anlehnung an die ISO/TS 11405:2003 hergestellt wurde, wurde das Kompositmaterial Tetric EvoCeram in der Farbe A2 aufgetragen und lichtgehärtet. Eine Alterung der Proben fand bei 500 Thermocycling-Zyklen bei Temperaturen von 5°C und 55°C statt. Mit einer Universalprüfmaschine Zwicki (Vorschubgeschwindigkeit 0,5 mm/min) wurde die Scherhaftfestigkeit der Proben bestimmt. Anschließend wurden die abgescherten Dentinproben unter dem Rasterelektronenmikroskop bei einer Vergrößerung von 20-fach und 2000-fach bezüglich der auftretenden Frakturmodi untersucht.
Die Haftkraft-Mittelwerte von Clearfil SE betrugen 4,22 MPa, von G-Bond 3,83 MPa und von One-Up-Bond F 7,11 MPa. Bei der statistischen Analyse mittels Kruskal-Wallis-Test wurde die Signifikanz ermittelt. Eine Signifikanz zwischen den Dentinadhäsiven One-UpBond F und G-Bond lag vor. Einzig Clearfil SE war statistisch nicht signifikant gegenüber den anderen Produkten. Die Bruchanalyse ergab, dass G-Bond eine hohe Anzahl (46,7 %) an kohäsiven Frakturen aufwies, Clearfil SE mehr als die Hälfte (66,7 %) gemischte Frakturen und dass One-Up-Bond F kaum adhäsive (3,3 %) Frakturen zeigte, sondern hauptsächlich (80 %) gemischte Brüche. Signifikante Unterschiede waren zwischen dem Bruchverhalten von Clearfil SE und G-Bond sowie zwischen G-Bond und One-Up-Bond F zu beobachten.
Unter der Limitation der vorliegenden In-vitro-Studie erscheint die Anwendung von G-Bond aufgrund der erhaltenen statistisch signifikant niedrigeren Haftwerten als nicht empfehlenswert.
Die Schwerpunkte dieser Arbeit sind elektrische, stationäre und zeitaufgelöste Transportmessungen an EuB6 sowie die Weiterentwicklung von Messmethoden und Analyseverfahren der Fluktuationsspektroskopie. Durch die Verwendung von
modernen Computern und Datenerfassungskarten konnten die Messmethoden effektiver eingesetzt werden.
Die ersten beiden Kapitel stellen die Grundlagen dar, die für diese Arbeit von Bedeutung sind. Der erste Teil dieser Arbeit wurde der Weiterentwicklung der bereits bekannten Messmethoden unter Verwendung einer schnellen Datenerfassungskarte gewidmet. Im Gegensatz zur Verwendung eines Signalanalysators bietet die Karte die Möglichkeit, auf die Rohdaten im Zeitraum zuzugreifen und sie anschließend mit einer selbst programmierten Software auszuwerten. Die technischen Methoden und der Aufbau der Software wurden in den Kapiteln 3 und 4 vorgestellt. Durch das Ersetzen des Signalanalysators kann bis zu 50% der Messzeit eingespart werden.
Durch die Code-Erweiterung kann bereits nach zwei hintereinander gemessenen Spektren vorläufig bei tiefen Frequenzen ausgewertet und somit frühzeitig entschieden werden, ob eine längere Messzeit aussichtsreich ist. Außerdem wird durch Verwendung der Code-Erweiterung eine sehr viel höhere Spektrendichte (Anzahl von Messpunkten) erreicht. Da im Gegensatz zum Signalanalysator alle gemessenen Spektren gespeichert werden, können in jeder Messung die Spektren auf ihre Korrelation (Korrelationskoeffizient und Zweites Spektrum) hin untersucht werden, ohne zusätzliche Messzeit zu benötigen.
Der zweite Teil dieser Arbeit befasst sich mit den elektrischen Transporteigenschaften von EuB6 und dem Verständnis der Kopplung zwischen Ladungs- und magnetischen Freiheitsgraden. Mittels Widerstands- und nichtlinearer Transportmessungen sowie Fluktuationsspektroskopie wurden Hypothesen von anderen Wissenschaftlern systematisch verifiziert, sowie neue, weiterführende Erkenntnisse gewonnen.
Direkte experimentelle Hinweise für die Phasenseparation sowie das Auftreten von Perkolation aus Transportmessungen fehlten bisher. In dieser Arbeit wurden daher systematisch die elektrischen Transportseigenschaften des Systems in Abhängigkeit von der Temperatur und vom Magnetfeld untersucht. Mittels Fluktuationsspektroskopie konnte erstmals ein direkter Hinweis auf perkolatives Verhalten in den Transporteigenschaften beobachtet werden. Ein starkes nichtlineares Transportsignal (dritter harmonischer Widerstand, DHW) im Bereich von TMI und TC ist eine Signatur einer räumlich inhomogenen Stromverteilung auf der Mikroskala und ein weiterer deutlicher Hinweis auf magnetisch induzierte elektronische Phasenseparation. Insbesondere tritt nichtlinearer Transport bei H = 0 im FM Bereich auf und kann im PM-Bereich bei T > TMI durch externe Magnetfelder induziert werden.
Das Heidelberger Ionenstrahl Therapiezentrum (HIT) ist die erste klinische Anlage in Europa, an der die Strahlentherapie zur Tumorbekämpfung mit schwereren Ionen als Protonen möglich ist. Seit November 2009 wurden mehr als 1500 Patienten bei HIT behandelt.
Dabei kommt das beim GSI Helmholtzzentrum für Schwerionenforschung GmbH in Darmstadt entwickelte Rasterscan-Verfahren zum Einsatz. In der Bestrahlungsplanung wird der Tumor in Schichten gleicher Ionen-Energie und jede Schicht in einzelne Rasterpunkte eingeteilt. Für jeden Rasterpunkt wird eine individuelle Teilchenzahl appliziert, die am Ende zu der gewünschten Dosisverteilung führt. Dabei kann sich die benötigte Teilchenbelegung der einzelnen Rasterpunkte auch innerhalb einer Schicht um mehr als zwei Größenordnungen unterscheiden.
Ein auf wenige Millimeter Durchmesser fokussierter Teilchenstrahl kann in allen Raumrichtungen variiert werden, so dass selbst für unregelmäßig geformte Tumoren eine hochgenaue Dosiskonformität erreicht wird. Messkammern, die in der Ionen-Flugbahn kurz vor dem Patienten installiert sind, überwachen kontinuierlich Position, Form und Intensität des Strahls und ermöglichen so die Rasterpunkt-abhängige Dosisabgabe.
Zur Bereitstellung des Teilchenstrahls ist eine komplexe Beschleunigeranlage nötig, die eine große Bibliothek an möglichen Strahlparametern erzeugen kann. Das Herzstück der Anlage ist ein Synchrotron, in dem die Ionen auf die gewünschte Energie beschleunigt und anschließend über mehrere Sekunden extrahiert werden. Diese langsame Extraktion ist nötig, um dem Bestrahlungssystem genug Zeit für die korrekte, punktgenaue Dosisabgabe zu geben. Die zeitliche Struktur der beim Patienten ankommenden Strahlintensität wird Spill genannt.
Der verwendete Extraktionsmechanismus ist die transversale RF-Knockout Extraktion, die auf dem Prinzip der langsamen Resonanzextraktion beruht. Die im Synchrotron umlaufenden Teilchen werden dabei transversal angeregt, bis nach und nach ihre Schwingungsamplitude so groß ist, dass sie in den Extraktionskanal gelangen. Das für diese Anregung verantwortliche Gerät ist der RF-KO-Exciter. Er ist so eingestellt, dass ein möglichst konstanter Teilchenstrom das Synchrotron verlässt.
Bereits beim Befüllen des Synchrotrons variiert jedoch die injizierte Teilchenzahl und deren Verteilung im Phasenraum, so dass die voreingestellte Amplitudenfunktion des RF-KO-Exciters keinen idealen Spill liefern kann. Es kommt unweigerlich zu Schwankungen der Intensität am Strahlziel. Die erreichbare Leistungsfähigkeit der Therapieanlage hängt jedoch in hohem Maße von der Spillqualität ab. Je besser diese ist, umso schneller kann die individuelle Bestrahlung erfolgen und um so mehr Patienten können in gleicher Zeit behandelt werden.
Die vorliegende Arbeit beschäftigt sich mit der Verbesserung der Spillqualität am Bestrahlungsplatz. Dazu wird ein Regelkreis zwischen den Strahl-detektierenden Messkammern und dem die Extraktion steuernden RF-KO-Exciter geschlossen. Ionisationskammern, die auch zur Dosisbestimmung verwendet werden, messen die aktuelle Intensität. Das Therapiekontrollsystem, das den gesamten Bestrahlungsprozess steuert, gibt den Sollwert vor und leitet alle Informationen zur Reglereinrichtung. Dort wird in Abhängigkeit der Abweichung aus gewünschter und tatsächlich vorhandener Intensität sowie dem Regelalgorithmus ein Korrektursignal errechnet und dem RF-KO-Exciter zugeführt. Eine der Herausforderungen bestand dabei im Auffinden der geeigneten Regelparameter, die entsprechend der Strahlparameter Energie und Intensität gewählt werden müssen.
In einem ersten Schritt kann so der extrahierte Teilchenstrahl auf dem jeweils geforderten, konstanten Niveau gehalten werden. Diese Stufe wird seit April 2013 vollständig im Routinebetrieb der Therapieanlage verwendet. Der zweite Schritt besteht in der Anpassung der Extraktionsrate an den individuellen Bestrahlungsplan. So können die Rasterpunkte, die eine hohe Dosis benötigen, mit einer höheren Intensität bestrahlt werden, was die Bestrahlungszeit deutlich reduziert. Die Vollendung dieser Stufe ist bis Ende 2013 vorgesehen.
Im Rahmen dieser Arbeit wurden zwei Testsysteme sowie die Implementierung in den Routinebetrieb des Therapiebeschleunigers einer solchen Intensitäts- oder Spillregelung realisiert. Dies beinhaltet den Aufbau der Systeme, die Bereitstellung von Soll- und Istwert sowie die Auslegung und Einstellung des Regelkreises. Der erste Testaufbau für ein Strahlziel des Beschleunigers diente generellen Studien zur Machbarkeit einer solchen Regelung. Die dabei gesammelten Erfahrungen über nötige Erweiterungen führten zur zweiten Generation einer Testumgebung auf Basis eines Echtzeit-Ethernet-Systems. Dieses ermöglichte bereits die Regelung an allen Strahlzielen der HIT-Anlage sowie die Verwendung von unterschiedlichen Regelalgorithmen.
Mit den Systemen wurden Messungen zur Charakterisierung der Spillregelung im Parameterraum des Beschleunigers durchgeführt, um so ihre Möglichkeiten und Grenzen zu untersuchen. Erkenntnisse aus dieser Testphase flossen direkt in die Implementierung des für den Patientenbetrieb eingesetzten Systems ein, für das ein hohes Maß an Betriebs-Stabilität erforderlich ist. Es wurde in das Beschleuniger-Kontrollsystem unter Berücksichtigung des Sicherheitskonzeptes der Anlage integriert.
Die reine Bestrahlungszeit wird durch die Realisierung der ersten Stufe um bis zu 25% reduziert, nach Vollendung der zweiten Stufe wird sie um weitere bis zu 50% verringert. Strahlzeiten für Nachjustierungen der Spillqualität werden ebenfalls zum Teil eingespart. Insgesamt konnte durch die Spillregelung die Effizienz der Anlage deutlich gesteigert werden.
In dieser Arbeit wurde eine Messmethode entwickelt, die es ermöglicht, mittels Infrarotspektroskopie quantitative Aussagen über bestimmte Inhaltsstoffe in Körperflüssigkeiten zu machen. Hierfür wurden sowohl selektierte Blutplasma- und Vollblutproben gemessen als auch selektierte Urinproben. Die richtige Selektion des Probensatzes ist von großer Wichtigkeit, um für jede Komponente eine große, unabhängige Varianz der Absorptionswerte zu erhalten. Hierfür wurden sowohl physiologische als auch pathologische Proben in den Datensatz integriert. Um Referenzwerte für diese ausgewählten Proben zu erhalten, wurden konventionelle klinische Methoden verwendet. Grundsätzlich ist die Genauigkeit dieser Methode durch die Genauigkeit der jeweiligen Referenzmethode, also den konventionellen klinischen Methoden, beschränkt. Mit der neu entwickelten Methode besteht nun die Möglichkeit, die wichtigsten Parameter im Blut und Urin schnell, einfach und reagenzienfrei quantitativ zu bestimmen. Zusätzlich zu den in dieser Arbeit angegebenen Inhaltsstoffen ist es möglich, für weitere Komponenten oberhalb eines bestimmten Schwellenwerts quantitative Angaben zu machen. Hierbei könnten z.B. für Albumin oder Glukose im Urin pathologische Proben identifiziert werden und somit Rückschlüsse auf bestimmte Krankheitsbilder ermöglicht werden. ...
Kompetenzen bezeichnen „erlernbare kontextspezifische Leistungsdispositionen, die sich funktional auf Situationen und Anforderungen in bestimmten Domänen beziehen“ (Klieme & Hartig, 2007, S. 17). Für den Bereich der Lehrerbildung wurden durch die Kultusministerkonferenz (2004) Standards für die Lehrerbildung: Bildungswissenschaften formuliert, die als Explikation professioneller pädagogischer Kompetenzen gelten können. Durch die Formulierung dieser Standards sieht sich die Lehrerbildung mit der Aufgabe konfrontiert, Studierende des Lehramts so auszubilden, dass die resultierenden Kompetenzen den genannten Standards genügen. Dies impliziert eine standard- und somit kompetenzorientierte Evaluation der Lehrerbildung. Bislang wird eine Evaluation der Lehrerbildung jedoch meist durch Selbsteinschätzungsverfahren umgesetzt – eine Methodik, die im Bereich der Kompetenzdiagnostik kritisch diskutiert wird (z. B. Nerdinger et al, 2008).
Der Situational Judgement Test als kompetenzdiagnostisches Instrumentarium weist die Vorteile situationsorientierter Verfahren auf und kann zusätzlich aufgrund der schriftlichen Darbietung problemlos auf große Stichproben angewandt werden. In der vorliegenden Studie wurde ein solcher Test entwickelt, um die professionelle pädagogische Kompetenz Lehramtsstudierender kontextnah und ökonomisch erfassen zu können. Die Studie hatte zum Ziel, den entwickelten standardorientierten Situational Judgement Test anhand verschiedener Außenkriterien konvergent und diskriminant zu validieren. Hierbei wurden konvergente Validitätsnachweise lediglich teilweise signifikant, wobei diskriminante Validitätsnachweise anhand des Studienfachs (Lehramtsstudium vs. Studium technisch-naturwissenschaftlicher Fächer) deutliche Signifikanzen und Effektstärken zeigten.
Evaluierung der zellfreien Produktion sekundär aktiver Transporter für die Proteinkristallisation
(2013)
Es gibt für die Orientierung von Vögel ein allgemeingültiges Konzept, das Karte-Kompass-Prinzip (Kramer 1953, 1957): Der Karten-Schritt besteht darin, den eigenen Standort zu ermitteln und mit dem Ziel in Beziehung zu setzten. Damit wird die geografische Richtung bestimmt, die im Kompass-Schritt in eine konkrete Richtung umgesetzt wird. Für Beides nutzen Vögel auch das Magnetfeld der Erde; in der Karte als einen Faktor den Verlauf der Intensität, im Magnetkompass die Achse der Feldlinien. Der Magnetrezeptor, der die Karte mit Informationen versorgt, ist im Schnabel lokalisiert, der des Kompasses im Auge. Ich habe mich in meiner Arbeit darauf konzentriert, die zwei potenziellen Magnetrezeptoren der Vögel feinstrukturell und immunhistologisch weiter zu charakterisieren.
Für den Magnetkompass wird auf Grund des Radikalpaar-Modells angenommen, dass Cryptochrome die Rezeptormoleküle sein könnten (Ritz et al. 2000). Bei Vögeln sind vier Cryptochrome bekannt, allerdings muss das Rezeptormolekül des Magnetkompasses auch in seiner Lokalisation bestimmte Kriterien erfüllen. Die für meine Arbeit bedeutsamen Kriterien sind: (1) die gleiche Ausrichtung der Proteine in einer Rezeptorzelle und (2), dass die einzelnen Rezeptorzellen alle Raumrichtungen abdecken. Ich habe in meiner Arbeit Cryptochrom 1a (Cry1a) und Cryptochrom 1b (Cry1b) auf ihr Vorkommen in der Retina von Rotkehlchen (Erithacus rubecula) und Hühnern (Gallus gallus) untersucht. Cry1b befindet sich bei Rotkehlchen während der Zugzeit in den Ganglienzellen, in denen es teilweise an Membranen gebunden vorliegt, die jedoch keine bevorzugte Richtung haben. Somit erscheint mir Cry1b als Rezeptormolekül für den Magnetkompass als eher ungeeignet. Cry1b könnte, wie viele Cryptochrome, an der Steuerung von circadianen Rhythmen beteiligt sein. Cry1a hingegen ist bei beiden untersuchten Vogelarten in den UV/V-Zapfen an die Diskmembranen gebunden, was eine Ausrichtung ermöglicht. Die UV/V-Zapfen sind über die gesamte Retina gleichmäßig verteilt, und durch die sphärische Form des Auges decken die einzelnen Rezeptoren jede Raumrichtung ab. Somit erfüllt Cry1a die Bedingungen des Radikalpaar-Modells, und ich schließe daraus, dass es sich hierbei um das Rezeptormolekül des Magnetkompasses handeln könnte. Cry1a ändert nach Lichtabsorption wie viele Cryptochrome seine Konformation. Der von mir verwendete Antikörper bindet nur die lichtaktivierte Form des Proteins. In Versuchen, in denen Hühner verschiedenen monochromatischen Lichtern ausgesetzt wurden, zeigt sich, dass sich Cry1a in UV bis Gelb in lichtaktiviertem Zustand befindet. Dies stimmt sowohl mit der spektralen Empfindlichkeit des Magnetkompasses der Vögel als auch mit der des Flavins, des lichtsensitiven Teils des Cryptochroms, überein. Versuche mit grünem Licht lassen vorsichtige Rückschlüsse auf das für den Magnetkompass relevante Radikalpaar zu: so ist das Flavin erst im zweiten Oxidationsschritt grünlicht-sensitiv, und Cry1a ist nur nachweisbar, also lichtaktiviert, wenn der erste Schritt bereits im Hellen abgelaufen ist. Versuche in denen die Tiere vorab im Dunkeln waren, führen nicht zur erneuten Lichtaktivierung unter grünem Licht. Dies macht nur eines der beiden im Flavinzyklus entstehenden Radikalpaare wahrscheinlich, nämlich das in der Reoxidation entstehende, da das Radikalpaar im ersten Schritt der Oxidation unter Grün nicht entsteht.
In Bezug auf den Magnetrezeptor im Schnabel konnte bereits bei Tauben eine detaillierte Struktur beschrieben werden, die als Magnetrezeptor geeignet ist, nämlich Magnetit- bzw. Maghemit-Teilchen in Dendriten der Nerven (Fleissner et al. 2003). Auch Hühner haben eisenhaltige Strukturen im Oberschnabel, die in ihrer Eisenoxid-Zusammensetzung denen der Tauben entsprechen (Falkenberg et al. 2010). Ich konnte in meiner Arbeit zeigen, dass die eisenhaltigen Strukturen im Oberschnabel der adulten Hühner an oder in Nervenfasern liegen. Elektronenoptisch bestehen diese eisenhaltigen Strukturen im Nervengewebe bei Hühnern, wie bei Tauben beschrieben, aus einem 3-5 µm großen Vesikel, der von eisenhaltigen ‘Schuppen’ besetzt ist, aus circa 1 µm langen Plättchen und Kugeln mit einem Durchmesser von etwa 1 µm. Sie sind in Feldern angeordnet, in denen diese Zellstrukturen gleich ausgerichtet sind. In der Anzahl und Lokalisation der Felder der eisenhaltigen Dendriten gibt es Unterschiede zwischen Hühnern und Tauben, allerdings ist unklar, inwie¬weit dies zu Unterschieden in der Verarbeitung im Gehirn führt. Die Entwicklung der eisenhaltigen Dendriten der Hühner beginnt erst nach dem Schlupf, am Tag des Schlupfes haben Küken noch keine eisenhaltigen Strukturen, abgesehen von roten Blutkörperchen. In den ersten 5 Tagen werden eisenhaltige Makrophagen im frontalen Bereich des Schnabels gebildet, die anschließend wieder reduziert werden. Bei 12 Tage alten Hühnern werden diese auch im lateralen Bereich des Oberschnabels angelegt und ebenfalls dort bis Tag 21 wieder reduziert. 21 Tage alte Hühner haben nur noch wenige eisenhaltige Makrophagen, allerdings ein erstes Feld von eisenhaltigen Dendriten. Die Röntgenabsorption zeigt einen Unterschied in der Eisenoxid-Zusammensetzung zwischen eisenhaltigen Makrophagen und eisenhaltigen Dendriten. Es könnte sein, dass die eisenhaltigen Makrophagen an der Synthese der eisenhaltigen Dendriten beteiligt sind, da sie Eisen aufnehmen, aber auch wieder abgeben können und in demselben Zeitraum reduziert werden, wie die eisenhaltigen Dendriten aufgebaut werden.
Sowohl Tauben als auch Rotkehlchen haben sich phylogenetisch bereits vor 95 Millionen Jahren von den Hühnern abgespalten. Es gibt sowohl in der Lokalisation von Cry1a als auch in der Struktur der einzelnen eisenhaltigen Dendriten keine Unterschiede, so dass es sich bei den beiden Magnetrezeptoren der Vögel vermutlich um sehr alte Mechanismen handelt, die sich in der Evolution kaum verändert haben. Vermutlich sind sie vogelspezifisch, da es in dieser Hinsicht keine erkennbare Gemeinsamkeit mit anderen Wirbeltieren gibt.
Im Rahmen einer prospektiven Kohortenstudie wurde in der vorliegenden Arbeit die Epidemiologie und Ätiologie von Fieber während chemotherapiebedingter Neutropenie bei Patienten mit hämatologischen Neoplasien untersucht. Das diagnostische und therapeutische Vorgehen wurde beschrieben und die Übereinstimmung mit den Vorgaben einer hausinternen Leitlinie wurde evaluiert und der Verbrauch an antimikrobiellen Substanzen dokumentiert. Febrile Episoden konnten in 74% der Neutropenieepisoden dokumentiert werden; in 51% der Neutropenieepisoden kam es zu persistierendem Fieber ≥ 3 Tage. Eine dem Fieber zugrunde liegende Infektion wurde in 55% der Chemotherapiezyklen (Neutropeniedauer Median 16 Tage) mittels klinischer, apparativer und mikrobiologischer Diagnostik gefunden. Die häufigsten infektiösen Komplikationen waren Enteritiden mit Nachweis von C. difficile (11%), Enteritiden ohne Nachweis von C. difficile (29%), Pneumonien mit pilztypischen Infiltraten (12%) und Pneumonien mit unspezifischen Infiltraten (11%), sowie mikrobiologisch bestätigte Septikämien (18%). Im Vergleich zu Angaben in der Literatur wurde FUO in der vorliegenden Untersuchung häufiger diagnostiziert (11,8 Tage pro 1000 Patiententage vs. 8,2 Tage pro 1000 Patiententage). Die Gesamtmortalität des Kollektivs lag bei 7%. Die häufigste Todesursache war der septische Schock (8 von 5 Patienten; 63%), welcher sich auf dem Boden einer gramnegativen Septikämie mit multiresistenten Keimen entwickelt hatte (3 von 5 Septikämien; 60%). Die Mortalitätsrate war ähnlich hoch wie im Literaturvergleich bei Studien mit akuten myeloischen Leukämien. Prognoserelevante Faktoren, welche im Rahmen der vorliegenden Studie evaluiert wurden, sind durch schwer therapierbare Grunderkrankungen hervorgerufene prolongierte Neutropeniezeiten, sowie infektiöse Komplikationen, vor allem bei Nachweis multiresistenter Erreger.
Die Compliance bezüglich des diagnostischen und therapeutischen Vorgehens bei persistierendem Fieber betrug in der vorliegenden Arbeit zwischen 47% und 82%. Die Compliance mit den in der Leitlinie vorgeschlagenen antimikrobiellen prophylaktischen und initialen empirischen Therapien lag zwischen 83% und 85%. Der Gesamtverbrauch an antibiotischen und antimykotischen Substanzen war in der vorliegenden Studie höher als im Literaturvergleich (1647 DDD vs. 1140 DDD und 650 DDD vs. 430 DDD). Dabei fällt insbesondere der hohe Verbrauch an Reservemedikamenten gegen grampositive Bakterien auf. Allerdings fehlen aktuelle Vergleichsdaten vergleichbarer Patientenkollektive.
Bezüglich der Optimierung der diagnostischen Maßnahmen ist vor allem die Erhöhung der Sensitivität der Bronchoalveolären Lavage bei Pilzinfektionen, rechtzeitig und regelmäßig durchgeführte Surveillanceabstriche bei febriler Neutropenie, sowie die Diskussion der diagnostischen Ergebnisse und des weiteren therapeutischen Vorgehens mit infektiologischen Experten zu fordern. Patienten mit persistierendem Fieber - vor allem bei positivem Blutkulturnachweis - sollten, aufgrund des positiven prädiktiven Wertes erregerpositiver Blutkulturen für die Notwendigkeit einer intensivmedizinischen Betreuung und einer erhöhten Mortalität, Anlass sein, diagnostische und therapeutische Maßnahmen zu verbessern. Ziel ist es, durch verstärkten Einsatz diagnostischer Maßnahmen und Diskussion mikrobiologischer Befunde im Einzelfall, Reservesubstanzen seltener einzusetzen, gegebenenfalls Breitspektrum-Antibiotika oder ihre Kombinationen zu deeskalieren und somit die Kolonisation mit resistenten Erregern positiv zu beeinflussen, sowie das Ansprechen auf antimikrobielle Therapien zu optimieren.
Die Teilnahme an multizentrischen Surveillancestudien zur Inzidenzerfassung wichtiger, eindeutig definierter neutropener nosokomialer Infektionen wie radiologisch detektierter Pneumonien, mikrobiologisch bestätigter Septikämien und C. difficilepositiver Enteritiden, sowie zur Generierung von Antiinfektivaverbrauchszahlen, könnte helfen, die Beratung und Entscheidungsfindung am Krankenbett zu unterstützen. Auch könnten in diesem Rahmen Zahlen generiert werden, welche bisher zum Vergleich fehlten.
Die vorliegende Arbeit versteht sich im Rahmen der Erfassung von Ätiologie, Diagnostik und antimikrobieller Therapien bei febriler Neutropenie als Teil eines solchen Surveillanceprogrammes und hat somit eine Grundlagen für zukünftige Datenerhebungen geliefert.
Die lakustrinen Sedimente im Vorotan-Becken (Armenien) wurden palynologisch untersucht. Aus den Ergebnissen konnte die Vegetationsgeschichte im Südlichen Kaukasus während des Frühpleistozäns teilweise rekonstruiert werden.
Bei den Sedimenten handelt es sich um diatomeenreiche Tone, Silte und Feinsande, in denen Pollen gut und pflanzliche Makroreste ausgezeichnet erhalten sind. Die Datierung ist durch die Kombination von Paläomagnetik und 39Ar/40Ar-Methode eindeutig: Die Sedimente decken den Beginn der „mid Pleistocene transition“ (1?110?–?960 ka) ab.
An zehn Aufschlüssen wurden insgesamt 506 Sedimentproben genommen und die darin enthaltenen Pollen untersucht. So konnten insgesamt 64 Taxa nachgewiesen werden. Sie wurden in Pollenprofilen zusammengefasst und ökologisch bewertet. Die erhobenen Daten wurden zudem einer Faktorenanalyse und einer Clusteranalyse unterzogen, deren Ergebnisse ebenfalls in die Pollenprofile eingingen.
Die Pollenprofile lassen deutlich regionale Vegetationszyklen während des Frühpleistozäns erkennen. Diese Zyklen werden ausführlich beschrieben und mit Ergebnissen anderer Autoren aus dem Mittelmeerraum verglichen. Auch ein Bezug zur rezenten Vegetation im Südlichen Kaukasus und den angrenzenden Gebieten wird hergestellt.
Die Paläovegetation im Südlichen Kaukasus ist demnach während des Frühpleistozäns geprägt von einem Vegetationsmosaik aus Grassteppe und offenen Wäldern. Je nach Klima lassen sich Einflüsse von angrenzenden Vegetationszonen erkennen: borealer Nadelwald der Höhenlagen des Kaukasus, thermophiler Laubwald der euxinischen und hyrkanischen Wälder sowie xerotherme Steppe des Nordiran.
Während der Interglaziale herrscht eine Waldsteppe aus thermophilem Laubwald (z.?B. Quercus, Carpinus, Ulmus, Zelkova, Tilia) vor, in der bei starken Erwärmungsphasen die Grassteppe deutlich dominiert und die Wälder wohl an Nordhänge und in Uferbereiche zurückgedrängt werden. In den Glazialphasen finden sich zunehmend Koniferen in der Vegetation (z.?B. Tsuga, Abies, Picea, Pinus) – bis hin zu einem nahezu geschlossenen Kiefernwald am Ende des ersten lang andauernden Glazials MIS 30.
Es zeigt sich, dass sich die einzelnen Klimazyklen in der Ausprägung der Vegetation signifikant unterscheiden. Hierbei spielt sowohl die Amplitude der Erwärmung als auch die Dauer der jeweiligen Phase eine Rolle.
Der Vergleich mit anderen Untersuchungen zeigt, dass die Vegetationszyklen im Südlichen Kaukasus teilweise deutlich anders verlaufen als im westlichen, zentralen und östlichen Mittelmeerraum. Entlang einer Ost-West-Achse ist hier ein „Vegetationsgradient“ zu erkennen.
Das hat Auswirkungen auf die Interpretation der Ausbreitung früher Menschen aus Afrika nach Eurasien. Es ist davon auszugehen, dass sich nicht jeder Vegetationszyklus des Frühpleistozäns gleichermaßen gut für ein Vordringen nach Eurasien eignete. Geeignete Bedingungen (offene Landschaft, Vegetationsmosaik, warmes Klima) herrschten im Südlichen Kaukasus vor allem während stark ausgeprägter Interglaziale. Dagegen brachten lang anhaltende Glazialphasen wohl eher lebensfeindlichere Bedingungen für Homo erectus.
Weil in den südlichen Regionen Europas teilweise eine stark abweichende Vegetation während der unterschiedlichen Klimaphasen vorherrschte, ist es naheliegend, dass der Südliche Kaukasus für die frühen Menschen eine Rolle als Refugium spielte.
Deutlich zeichnen sich in den Ergebnissen Veränderungen in der Vegetation beim Übergang von den obliquitätsdominierten 41-ka-Klimazyklen zu den exzentrizitätsbestimmten 100-ka-Zyklen ab („mid Pleistocene transition“). Diese Veränderungen haben sich sicherlich auch auf die Population der Menschen ausgewirkt und größere Wanderbewegungen und/oder Anpassungen hervorgerufen. Möglicherweise haben in dieser drastischen Veränderung sogar kulturelle Entwicklungen ihren Anfang – zum Beispiel die Nutzbarmachung des Feuers.
Nikotinische Acetylcholin Rezeptoren (nAChR) sind ligandengesteuerte Ionenkanäle der pentameren Cys-Loop Familie, welche nach Bindung des Neurotransmitters Acetylcholin exzitatorische Signale in Muskeln und Neuronen vermitteln. Während die Funktion der Rezeptoren an der synaptischen Membran relativ gut untersucht wurde, gibt es bis heute kaum Erkenntnisse über die intrazellulären Prozesse und Proteine, die der selektiven Assemblierung von homologen Untereinheiten zu funktionalen Rezeptorpentameren zugrundeliegen.
Das C. elegans Genom kodiert für mehr als 29 nAChR Untereinheiten-Gene und besitzt damit die größte Anzahl bekannter Homologe innerhalb der untersuchten Arten. An der neuromuskulären Synapse (NMJ) des Nematoden sind zwei Typen von nAChR bekannt: der heteromere Levamisolrezeptor (L-AChR) und der homomere Nikotinrezeptor (N-AChR). Innerhalb dieser Arbeit wurde der funktionale Zusammenhang zwischen den nikotinischen Rezeptoren der NMJ von C. elegans und einem neuen rezeptorassoziierten ER-Proteinkomplex der Proteine NRA-2 und NRA-4 untersucht. Ihre vertebraten Homologe Nicalin und Nomo wurden zuerst im ER vom Zebrafisch im Zusammenhang mit dem TGF-β Signalweg beschrieben. Mutation der Proteine hat einen Agonist-spezifischen Einfluss auf die Aktivität von L-AChR und N-AChR. Die subzellulären Lokalisationsstudien demonstrierten, dass die beiden Proteine im ER von Muskelzellen wirken und dort mit Rezeptoruntereinheiten co-lokalisieren. Weiterhin ließ sich nachweisen, dass die relative Menge einzelner L-AChR-Untereinheiten an der synaptischen Oberfläche reduziert bzw. erhöht ist. Da die Rezeptoraktivität in Zusammenhang mit der Untereinheiten Komposition steht, wurde die Rolle von zusätzlichen Untereinheiten wie ACR-8 untersucht. Dies zeigte, dass die zusätzliche Mutation der Untereinheit acr-8 in nra-2 Mutanten den Einfluss der nra-2 Einzelmutation auf die Aktivität des L-AChR revertiert. Basierend auf diesen Ergebnissen lässt sich die Hypothese formulieren, dass der NRA-2/NRA-4 Komplex im ER von C. elegans als Kontrollinstanz fungiert welche dafür sorgt, dass nur die jeweils „korrekten“ Untereinheiten in funktionale Rezeptoren eingebaut bzw. andere vom Einbau in das Pentamer abgehalten werden. Durch Fehlen des aktiven Komplexes in Mutanten können nicht vorgesehene -Untereinheiten (z. B. ACR-8) in funktionale Pentamere mit veränderter Funktionalität eingebaut werden.
Die vorliegende Arbeit versteht sich als Angebot im Hinblick auf die Ergänzung der Fortschreibung einer Morphologie (Jeismann, 1977) von Geschichtsbewusstsein. Die Konkretisierung des Begriffes Geschichtsbewusstsein über den Zusammenhang der individuellen Ausprägung historischen Interesses und Wissens erfolgt in dieser Arbeit vor dem Hintergrund eines allgemeinen Interesses an der Evidenzbasiertheit von theoretischen Konstrukten.
Entsprechend der Jeismann’schen Vorstellung eines Zusammenhanges von Sachanalyse, Sachurteil und Werturteil gestaltet sich auch die Annahme, die dieser Arbeit zugrunde liegt. Neben der Sachanalyse und dem Sachurteil als faktisch bezogenes Element und dem Werturteil als reflexivem Vorgang wird dem individuellen Interesse als motivational - volitionalem Aspekt in der Beschreibung von Geschichtsbewusstsein besonders Gewicht gegeben. Die Grundannahme der vorliegenden Arbeit besteht darin, dass Geschichtsbewusstsein wesentlich mit dem Umfang des historischen Wissens und individuellem Interesse zusammenhängt. Kernpunkt der Überlegung ist das individuelle historische Interesse als Ausdruck von Geschichtsverlangen (Kölbl, 2004), das, je stärker es ausgeprägt ist, zu einem Verlangen nach dezidiertem Geschichtswissen führt und so die Auseinandersetzung mit Geschichte zu einer wissensbasierten macht. Dieser Zusammenhang kann anhand von semantischen Netzwerken identifiziert, die es ermöglichen, das individuell vorhandene historische Wissen sichtbar zu machen. Ebenfalls sind individuelle historische Reflexionsvorgänge und Auseinandersetzungsmomente in semantischen Netzwerken vorzufinden. Von den theoretischen Überlegungen ausgehend und mit Blick auf die unterschiedlichen Angebote theoretischer Konstruktionen des Begriffes Geschichtsbewusstsein erfolgt eine gegenstandsbezogene Beschreibung. Diese bezieht sich auf Äußerungen von Schüler/innen zu unterschiedlichen historischen Schlüsselbegriffen, die durch ein Zeitzeugengespräch stimuliert und mit einem standardisierten Fragebogen erfasst wurden. Ziel der Arbeit ist es, zu prüfen, ob sich semantische Netzwerke zur Sichtbarmachung von Geschichtsbewusstsein eignen. Des Weiteren soll der Fragebogen als mögliche Methode zur Erhebung von historischen Einstellungen und Wissenskonzepten erprobt werden.
In den vergangenen Jahren haben ökologische Fragen in der Naturstoffforschung mehr und mehr an Bedeutung gewonnen. Naturstoffe bilden dabei einen wichtigen Aspekt in der Aufrechterhaltung symbiotischer Systeme.
Symbiosen stellen eine der treibenden Kräfte der Evolution dar. Diese artenübergreifende Interaktion zweier Organismen ermöglicht die Evolution in wechselseitiger Anpassung, wobei per Definition in die Kategorien Mutualismus, Kommensalismus und Parasitismus unterschieden wird. Teilweise führt die obligatorische Abhängigkeit eines Organismus zum partiellen Merkmals- und Stoffwechselwegverlust, der durch seinen Symbiose-Partner kompensiert wird. In den meisten Fällen stellt Symbiose ein komplexes Netzwerk aus mehr als zwei Lebewesen dar.
Diese Arbeit beschreibt die Anwendung der Klonierungsmethode ExRec ("overlap extension PCR-yeast homologous recombination") für die vereinfachte Bereitstellung von Naturstoffen. Es konnte ein 45 kb großes Gencluster erfolgreich kloniert und zwei neue Peptide Ambactin und Xenolindicin aus Xenorhabdus charakterisieren werden, wobei letztgenanntes von einem stillen Gencluster stammt. ExRec stellt eine sehr effiziente und wichtige Methode für die Klonierung großer Gencluster als auch für die Klonierung aus Metagenombibliotheken und RNA Pools dar...
Die phylogenetisch hochkonservierte Jak/Stat‐Signaltransduktionskaskade repräsentiert eines der zentralen Säulen zellulärer Signalübertragung eukaryotischer Organismen. Ubiquitär im Organismus exprimiert und über eine Vielzahl von Zytokinen, Hormonen und Wachstumsfaktoren aktiviert, sind Stat‐Transkriptionsfaktoren maßgeblich an dem Erhalt der Physiologie und Homöostase von Organen und Geweben beteiligt. So sind die Mitglieder Stat5A und Stat5B (als homologe Proteine im Verbund als Stat5 bezeichnet) entscheidende Regulatoren des Immunsystems und der Hämatopoese, der Funktion und Entwicklung des Prostata‐ und Brustdrüsengewebes (Mammogenese) oder bestimmter Funktionen der Leber. Wie auch Stat3, konnten Stat5 Proteine in aberrant aktiver Form in verschiedensten Typen und Stadien humaner Tumore nachgewiesen werden, wo sie über die Expression ihrer Zielgene sowie über weitere nicht‐kanonische Funktionen im Zytoplasma und im Zellkern einer fortschreitend malignen Entartung entscheidend beitragen. Als Folge der Unterstützung essentieller Tumorgenese‐
Mechanismen, wie gesteigertes Zellwachstum, Apoptosehemmung, Migration und Metastasierung, Sauerstoff‐unabhängiger Energiestoffwechsel, Angiogenese oder Umgehung der Immunabwehr, entwickeln Tumore häufig eine Abhängigkeit gegenüber der gesteigerten Aktivität dieser Vertreter der Stat‐Proteinfamilie und reagieren mit einem Wachstumsstopp und Apoptoseinduktion auf ihre Inhibierung. Perspektivisch stellt die gezielte Interferenz mit aberranten, Tumortyp‐spezifischen Stat5‐Aktivitäten einen relevanten Ansatz in der personalisierten Therapie Stat5‐abhängiger Tumore, vorrangig leukämischen Ursprungs, dar. ...
Kunsthistorische oder betriebswirtschaftliche Arbeiten der letzten fünfzehn Jahre zur Kunstförderung in deutschen Wirtschaftsunternehmen konzentrieren sich auf die Beschreibung einer Firmenkunstsammlung oder Sammlerpersönlichkeit in Unternehmen. Die aktuellen Formen der Kunstförderung sind bislang nicht eingehend dargestellt worden, auch die Gründe für eine Kunstförderung wurden eher ansatzweise betrachtet. Meine Dissertation untersucht die Motive und Zielsetzungen für ein Kunst-Engagement unter Berücksichtigung innovativer Kunstkonzepte, die über tradierte Formen hinausgehen. Die Dissertation setzt sich damit zugleich ein theoretisches Ziel: Sie will ausgehend von vier Fallbeispieluntersuchungen und unter kritischer Auseinandersetzung mit aktuellen Studien und Literatur ein Modell für ein effektives und zukunftsgerichtetes Kunst-Engagement entwickeln.
Ausgangspunkt ist die Überlegung, dass sich Motive und Zielsetzungen für Kunst-Engagements aus Ideen und Wertvorstellungen ableiten lassen, die durch Begriffe im Zusammenhang mit Kunst-Engagements ausgedrückt werden. Um diese Begriffe zu ermitteln, wurden offene, qualitative Experteninterviews geführt und in qualitativer Inhaltsanalyse ausgewertet.
Anhand der Beschreibung der aktuellen Kunstkonzepte der untersuchten Unternehmen werden die identifizierten Motive überprüft. Interdisziplinäre Recherche zahlreicher Literatur diente zur Erweiterung und Vertiefung der Untersuchung. Dabei setzt sich die Dissertation mit kritischen Einwänden gegenüber Kunst-Engagements in Unternehmen auseinander.
Aktuelle Kunstförderung ist unternehmensstrategisch eingebunden und zielgruppenorientiert.
Der Fokus liegt auf zeitgenössische Kunst unter Anwendung innovativer, mediengestützter Vermittlungsformen. Innovative Kunst-Engagments unterscheiden sich von tradierten Konzepten des Corporate Collecting auch durch den Kontext, insbesondere durch ihren Einsatz im Bereich der Unternehmenskommunikation. Bei relevanten gesellschaftlichen Interessengruppen (stakeholder) sollen durch Kunst positive Assoziationen mit den Unternehmen verankert werden. Anhand der Fallbeispiele der Arbeit hat sich gezeigt, dass ein positiver Einfluss auf das Unternehmensimage durch Kunst-Engagements anzunehmen ist. Die Ergebnisse der Untersuchung legen nahe, dass durch diese imagefördernde Wirkung auch der Markenwert des Unternehmens gestärkt werden kann. Mit Kunst werden ferner Anlässe für Gespräche geschaffen, die unter Mitarbeitern oder mit Kunden über weitergehende, geschäftsbezogene Themen oder aber im politischen Kreis zur Kontaktpflege stattfinden.
Zeitgemäße Kunstkonzepte dienen unternehmensintern dazu, sowohl Mitarbeiter an das Unternehmen zu binden, als auch zukunftsfähiges Denken bei Mitarbeitern zu fördern und dadurch die Innovationsfähigkeit des Wirtschaftsunternehmens zu begünstigen. Indem Unternehmen mit Kunstförderung so genannte „gesellschaftliche Verantwortung“ übernehmen, beabsichtigen sie, sich in einem globalen, kompetitiven Wirtschaftsumfeld von Wettbewerbern abzugrenzen. Die Übernahme „gesellschaftlicher Verantwortung“ im Bereich der Kunst ist überwiegend nicht altruistisch motiviert, sondern ist im besten Fall für das Unternehmen ökonomisch sinnvoll. Allerdings übernimmt die Wirtschaft einen Teil der Kulturförderung, die von staatlicher Seite nicht mehr geleistet werden kann, und setzt als Initiator eigene kulturelle Impulse. Die Untersuchung hat gezeigt, dass Kunst in der Verknüpfung mit unternehmerischen Zielen für Firmenzwecke genutzt, also instrumentalisiert wird. Die Kooperation von Kunstwelt und Wirtschaft kann dessen ungeachtet für beide Seiten vorteilhaft sein, insbesondere wenn die Glaubwürdigkeit eines Kunst-Engagements gewährleistet ist.
In der modernen Hochschullehre haben sich eLearning-Elemente als ein Teil des Lehrrepertoires etabliert. Der Einsatz interaktiver webbasierter Selbstlernmodule (Web Based Trainings (WBT)) ist dabei eine Option. Hochschulen und Unternehmen versprechen sich dadurch neue Möglichkeiten des Lehrens und Lernens, um z. B. einen Ausgleich heterogener Vorerfahrungen sowie eine stärkere aktive Beteiligung der Lernenden zu bewirken. Damit die Erstellung und Strukturierung dieser Inhalte mit möglichst geringem Aufwand erfolgen kann, bieten Autorensysteme Unterstützung.
Zu den Grundfunktionen von Autorensystemen gehören unter anderem, das Einbinden gebräuchlicher Medienformate, die einfache Erstellung von Fragen sowie verschiedene Auswertungs- und Feedbackmöglichkeiten. Obwohl Autorensysteme schon vor vielen Jahren ihre erste praktische Anwendung fanden, gibt es nach wie vor Schwachstellen, die sich auf den gesamten Erstellungsprozess wie auch auf einzelne Funktionen beziehen. Im Detail wird bemängelt, dass die Werkzeuge zu komplex und unflexibel sind. Darüber hinaus fehlt häufig eine zufriedenstellende Verknüpfung der vielen Werkzeuge entlang der Prozesskette zu einer Gesamtlösung.
Des Weiteren wird die Konzentration auf die Produktionsphase kritisiert, wodurch andere wichtige Prozesse in den Hintergrund treten bzw. außer Acht gelassen werden.
Im Rahmen der Zusammenarbeit mit einem Automobilhersteller, für den die erste Version des Autorensystems LernBar weiterentwickelt wurde, spielte der Begriff „Lean Production“ inhaltlich in der Umsetzung der WBTs eine wesentliche Rolle. Die Lean Production, die über viele Jahre für die Automobilindustrie entwickelt, verbessert und angepasst wurde, liefert Optimierungsansätze für den Produktionsbereich. Ein wirtschaftlicher Nutzen des Lean-Ansatzes wird auch in anderen Bereichen gesehen wie z. B. in der Softwareentwicklung („Lean Software Development“) oder im Management („Lean Management“). Dabei bietet die Wertschöpfungsorientierung Lösungen für die widersprüchlichen Ziele mehr Leistungen zu geringeren Kosten, schneller und in höherer Qualität zugleich zu liefern. Aus der Grundidee der Lean Production entwickelte sich vorliegendes Dissertationsthema in Bezug darauf, inwiefern sich diese Prinzipien auf den WBT-Produktionsprozess übertragen lassen und die LernBar (das hierfür weiterentwickelnde Autorensystem) dabei Unterstützung bieten kann.
Zunächst wurde analysiert, welche Werkzeuge und Hilfestellungen benötigt werden, um unter dem Aspekt der Lean Production WBTs im universitären Umfeld erstellen zu können. In diesem Zusammenhang wurden Merkmale einer „Lean Media Production“ definiert sowie konzeptionell und technisch umgesetzt. Zur Verbesserung der Prozesse flossen Ergebnisse aus empirischer und praktischer Forschung ein. Im Vergleich zu anderen Entwicklungen bei denen häufig das Hauptziel eine umfangreiche Funktionalität ist, werden u.a. folgende übertragbare Ziele bei der Umsetzung verfolgt: Verschwendung vermeiden, eine starke Einbeziehung der Kunden, Werkzeuge die nahtlos ineinandergreifen, eine hohe Flexibilität und eine stetige Qualitätsverbesserung.
Zur Erreichung dieser Zielsetzungen wurden alle Prozesse kontinuierlich verbessert, sich auf das Wesentliche und die Wertschöpfung konzentriert sowie überflüssige Schritte eliminiert. Demnach ist unter dem Begriff „Lean Media Production“ ein skalierbarer, effizienter und effektiver Produktionsprozess zu verstehen, in dem alle Werkzeuge ineinandergreifen.
Die Realisierung der „Lean Media Production“ erfolgte anhand des Autorensystems LernBar, wobei die typischen Softwareentwicklungsphasen Entwurf, Implementierung und Evaluierung mehrfach durchlaufen wurden. Ausschlaggebend dabei war, dass der „Lean“-Aspekt berücksichtigt wurde und dies somit eine neue Vorgehensweise bei der Umsetzung eines Autorensystems darstellt. Im Verlauf der Entwicklungen ergaben sich, durch eine formative Evaluation, den Einsatz in Projekten und eine empirische Begleitforschung, neue Anforderungen an das System. Ein Vergleich der zwei Produktionssysteme, Automobil vs. WBT-Produktion, zeigt und bestätigt die Erwartung, dass nicht alle Prinzipien der Lean Production übertragbar sind.
Dennoch war diese Untersuchung notwendig, da sie Denkanstöße zur Entwicklung und Optimierung des Erstellungsprozesses eines WBTs gab. Auch die Ergebnisse der abschließenden Online-Befragung ergaben, dass die Ziele der Arbeit erreicht wurden, dass aber weiterer Optimierungsbedarf besteht. Die LernBar Release 3 bietet für alle Produktionsphasen Werkzeuge an, durch die eine effektive und effiziente Erstellung von WBTs von der Idee bis zur Distribution möglich ist.
Stand noch vor fünf Jahren zu Beginn dieser Arbeit das Endprodukt bei der LernBar Entwicklung im Vordergrund, verlagerte sich durch den Einfluss dieser Dissertation der Schwerpunkt auf den gesamten Produktionsprozess. Unter Berücksichtigung der in diesem Zusammenhang entwickelten Prinzipien einer „Lean Media Production“, nehmen bspw. die Wirtschaftlichkeit und die starke Kundenorientierung während des Produktionsprozesses einen wichtigen Stellenwert ein. Dieser Ansatz ist eine neue Vorgehensweise im Bereich der Entwicklung von Autorensystemen, der seine Anerkennung und Professionalität durch die Ergebnisse des selbstentwickelten Evaluationsbogens sowie dem stetig wachsenden Einsatz in Schulen, Hochschulen und Unternehmen belegen kann.
In weiteren Forschungsarbeiten ist zu untersuchen, welche Lean Production Prinzipien zu verwenden oder anzupassen sind, wenn z. B. in größeren Teams oder mobil produziert wird. Des Weiteren sollte überprüft werden, inwieweit die Lernenden mit dem Endprodukt zufrieden sind und in ihrem Lernprozess unterstützt werden. Durch diese Forschungsarbeit wurde ein Beitrag dazu geleistet, die Lehre und Ausbildung zu optimieren, indem die Autoren/Lehrende in der Erstellung ihrer digitalen Lerninhalte im gesamten Prozess von aufeinander abgestimmten Werkzeugen unterstützt werden.
Die Idee photolabile Schutzgruppen zur temporären Inaktivierung von Biomolekülen zu verwenden, um deren Funktion dann in einem biologischen System präzise orts- und zeitaufgelöst wieder zu aktivieren und so biologische Prozesse genau steuern zu können, wurde erstmals Ende der 1970er Jahre von J. W. Engels und von J. F. Hoffman verfolgt. Seit diesen ersten Arbeiten im Bereich des „Cagings“ wurde in den vergangenen Jahrzehnten eine Vielzahl von Arbeiten auf diesem Gebiet veröffentlicht und mit nahezu alle wichtigen Klassen von Biomolekülen wurden Caging-Experimente durchgeführt. Das Caging von Nukleinsäuren ist noch ein recht neues Feld. Es gab aber aufgrund der Beteiligung von Nukleinsäuren an vielen zentralen zellulären Prozessen im letzten Jahrzehnt ein enorm gesteigertes Interesse an lichtinduzierbaren Nukleinsäuren, vornehmlich zur lichtgesteuertem Genregulation. Der Arbeitskreis von Prof. Heckel befasst sich unter anderem mit dem Caging von Nukleinsäuren, wobei die zentrale Strategie im Anbringen der photolabilen Schutzgruppen an den Nukleobasen besteht. Dies hat den Hintergrund, dass auf diese Art und Weise die Wechselwirkung mit anderen Strängen durch Störung der Watson-Crick-Basenpaarung verhindert werden kann. Die Watson-Crick-Basenpaarung ist das zentrale Element für die Funktionalität nahezu aller Nukleinsäure-vermittelter Prozesse. In den vergangenen Jahren konnte mit dieser Strategie unter anderem erfolgreich die Aktivität von siRNAs und Aptameren mit Licht kontrolliert werden. Alle vier Projekte, welche in dieser Arbeit verfolgt wurden, befassten sich mit dem Caging von Nukleinsäuren. ...
Hintergrund und Fragestellung: Patientensicherheit ist in den letzten Jahren zum intensiv diskutierten Thema geworden. Zudem rückt als potenzielle Basis der Patientensicherheit die Patientensicherheitskultur von Einrichtungen des Gesundheitswesens in den Fokus, bislang wurde dahingehend vor allem der stationäre Bereich untersucht. Ziel dieser Arbeit ist es, einen Einblick in den aktuellen Stand der Patientensicherheitskultur in Hausarztpraxen zu geben, und diesbezügliche Einflussfaktoren und Zusammenhänge aufzuzeigen. Dabei wurden insbesondere zwei Fragestellungen untersucht: 1. Lässt sich ein Zusammenhang aufzeigen zwischen einzelnen Praxis- und Teammerkmalen einerseits und den Ergebnissen in den Bereichen Sicherheitsklima, Patientensicherheitsindikatoren und Fehlermanagement andererseits? 2. Lassen sich durch einzelne Praxis- und Teammerkmale bzw. Sicherheitsklimafaktoren die Ausprägungen einer Praxis in bestimmten Patientensicherheitsindikatoren und dem Fehlermanagement einer Praxis vorhersagen?
Material und Methoden: In 60 allgemeinärztlich tätigen Praxen aus Hessen wurde die Patientensicherheitskultur anhand von drei Methoden gemessen. Dies waren 1. der auf Selbstauskunft beruhende „Fragebogen zum Sicherheitsklima“, 2. durch Praxisbegehungen und Interviews erfasste Patientensicherheitsindikatoren, sowie 3. detailliert analysierte Fehlerberichte. Die statistische Auswertung umfasste u.a. Korrelationsanalysen (Mann-Whitney-U, Wilcoxon-W, Spearman-Rangkorrelation) sowie multivariate schrittweise Regressionsanalysen.
Ergebnisse: Die Beurteilung des Sicherheitsklimas fiel über alle Praxen hinweg homogen positiv aus (acht von neun Sicherheitsklimafaktoren mit Mittelwerten von mind. vier von fünf Punkten). Bei den 12 Patientensicherheitsindikatoren ergaben sich differenziertere Werte (niedrigster Mittelwert: Indikator „Marcumartherapie“ mit 0,43 von 1, höchster Mittelwert: Indikator „Allergiehinweis“ mit 0,75 von 1). Es gingen 24 Berichte kritischer Ereignisse ein, die zu 79% als „Kein Fehlermanagement“ oder „Unbefriedigendes Fehlermanagement“ beurteilt wurden. Die Korrelations- und Regressionsanalysen zeigten Zusammenhänge auf, z.B. erzielten größere Praxisteams niedrigere Werte beim Patientensicherheitsklima und höhere Werte bei den Patientensicherheitsindikatoren im Vergleich zum Durchschnitt.
Diskussion: Sicherheitsklima, Patientensicherheitsindikatoren und Fehlermanagement sind in einer Hausarztpraxis mit den verwendeten Instrumenten messbar. Jedes der drei Instrumente misst einen anderen, wichtigen Bereich der Sicherheitskultur, wodurch jeweils unterschiedliche Einstellungen und Prozesse beleuchtet und anschließend auch beurteilt und verbessert werden können. In den Analysen zur Beantwortung der beiden Fragestellungen konnten Zusammenhänge und Vorhersagevariablen herausgearbeitet werden, allerdings waren diese Zusammenhänge zum Teil entgegengesetzt. Daraus ergibt sich die Hypothese, dass Praxis- und Teammerkmale als Voraussetzungen zu unterschiedlichen Ausprägungen von Sicherheitsklima, Patientensicherheitsindikatoren und Fehlermanagement führen können. Insgesamt könnte die Qualität der hausärztlichen Arbeit und die Sicherheit der Versorgung durch eine regelmäßige Reflektion der Praxisabläufe anhand der drei Messmethoden gesteigert werden.
Die Proteomforschung wurde die letzten beiden Dekaden maßgeblich durch die Massenspektrometrie geprägt und vorangetrieben. Ohne die Ionisationstechniken MALDI und ESI wäre die Analyse von Peptiden und Proteinen nicht in dem Maße möglich. Durch das Zusammenspiel zwischen Probenvorbereitung und effektiven Trennmethoden mit hochauflösenden Massenspektrometern und Auswertungssoftware können heute problemlos komplexe Proteinmischungen oder ganze Proteome untersucht werden.
Um Proteine in Peptide zu schneiden, wird in den allermeisten Fällen die Protease Trypsin verwendet, deren Eigenschaften in vielerlei Hinsicht die bestmögliche Lösung für die nachfolgende Analyse mit Massenspektrometern bieten. Allerdings stößt die Anwendbarkeit dieses Enzyms bei der Analyse von einigen Proteinen oder Proteinklassen wie Membranproteinen an ihre Grenzen, da nur sehr wenige potentielle Schnittstellen vorhanden sind. In solchen Fällen wurden eine Reihe von weniger spezifischen Enzymen wie Chymotrypsin, Proteinase K oder Elastase in den vergangenen Jahren genutzt, die Proteine auch in für Trypsin weniger gut zugänglichen Bereichen wie Transmembranhelices, in massenspektrometrisch analysierbare Peptide spalten können.
Allerdings stellen die wenig spezifischen Enzyme und die von ihnen generierten Peptide die Massenspektrometrie vor neue Herausforderungen. Für eine Identifizierung benötigen die Peptide eine sehr hohe Massengenauigkeit, daneben sind insbesondere bei der Verwendung von MALDI-Massenspektrometern neutrale und sehr saure Peptide schwerer ionisierbar und analysierbar als basische.
Genügte es bis vor einigen Jahren, nur die Identität einzelner Proteine in komplexen Proben zu bestimmen, hat sich die Fragestellung mittlerweile einem Wandel unterzogen. Heute ist man daran interessiert, wie viel eines bestimmten Proteins vorliegt, besonders im Vergleich mit anderen, unterschiedlich behandelten Proben ist die Regulation von Proteinen von Interesse. Zum Quantifizieren stehen viele unterschiedliche Methoden zur Verfügung. Eine solche stellen die isobaren Derivatisierungsreagenzien TMT und iTRAQ dar, mit denen unterschiedliche Proben nach Peptidfragmentierung quantifiziert werden können.
Fast alle Arbeiten zur Quantifizierung in der Vergangenheit benutzten Trypsin als Protease.
Im Zuge dieser Arbeit sollten die Vorteile, die durch die Verwendung von Elastase bei der Identifizierung von Membranproteinen bereits gezeigt werden konnten, auf die Quantifizierung mit TMT erweitert werden.Wurde in der Vergangenheit noch in manchen Publikationen davon abgeraten, Elastase zu verwenden,weil die Nutzbarkeit der dabei gebildeten komplexen Peptidmischungen in Frage gestellt wurde, konnte in dieser Arbeit gezeigt werden, dass Elastase wie auch Trypsin sich eignen, als Enzym für Quantifizierungsexperimente verwendet zu werden. Dies wurde an Modellproteinen evaluiert und dann auf komplexe Membranproben von Hefezellen erweitert.
Bei Vorexperimenten zur Derivatisierung mit TMT wurde desweiteren festgestellt, dass Peptidklassen, die zuvor nur mit ESI als Ionisationsmethode identifiziert werden konnten, durch die Derivatisierung nun auch mit MALDI zugänglich waren. Die dadurch analysierten kleinen, hydrophoben und sehr sauren Peptide lieferten bei der Kombination mit der underivatisierten Probe einen deutlichen Zugewinn in der Sequenzabdeckung der identifizierten Proteine.
Ein weiterer Teil der Arbeit beschäftigt sich mit der nachträglichen Korrektur von gemessenen Peptidmassen über selbst geschriebene Softwarelösungen für verschiedene Massenspektrometer. Es wurde das Ziel verfolgt, eine möglichst hohe Massengenauigkeit und damit hohe Anzahl an Identifizierungen von Proteinen nach Verdau mit wenig spezifischen Proteasen zu erreichen. Weitere Computerprogramme wurden mit dem Ziel geschrieben, den Arbeitsablauf zu erleichtern und zu verbessern.
Für die früher schon beschriebene Kombination zweier Massenspektrometer mit hoher Massengenauigkeit und Auflösung auf der einen Seite und effizienter Peptidfragmentierung auf der anderen Seite konnte durch Veränderung der Instrumentierung und Software nun eine Automatisierbarkeit geschaffen werden, die es ermöglicht, die Methode standardmäßig bei Routineanalysen zu verwenden.
So ergeben sich viele neue Möglichkeiten neben den oft gewählten Standardprotokollen mit der Analyse tryptischer Verdauansätze mittels LC-ESI-MS/MS, die häufig nur der Einfachheit halber und ohne Anpassung an die eigene Zielsetzung gewählt werden.
Die Arbeit zeigt aber auch auf, dass die Verwendung weniger spezifischer Enzyme sowohl eine Optimierung des Arbeitsablaufs als auch eine Datenauswertung benötigt, die die Besonderheiten der Proteasen berücksichtigt. Wenn dies gewährleistet wird, kann vor allem mit dem Zugewinn durch die Derivatisierung mit TMT eine wertvolle Alternative zu Trypsin genutzt werden.
Das Ziel der vorliegenden Arbeit war, die systematischen Anfangsverluste im SIS18 zu minimieren. Das SIS18 soll als Injektor für das SIS100 in der neuen geplanten FAIR-Anlage eingesetzt werden und dafür die Strahlintensität erhöht werden. Eine wesentliche Rolle spielen das dynamische Vakuum im SIS18 und die anfänglichen Strahlverluste, verursacht durch Multiturn-Injektions- (MTI) oder HF-Einfangsverluste. Um den dynamischen Restgasdruck im SIS18 zu stabilisieren, müssen diese systematischen Anfangsverluste minimiert werden. Strahlteilchen, welche auf der Vakuumkammerwand verloren gehen, führen durch ionenstimulierte Desorption zu einem lokalen Druckanstieg. Dies wiederum erhöht die Wahrscheinlichkeit für Stöße zwischen Restgasteilchen und Strahlionen, wodurch diese umgeladen werden können und nach einem dispersiven Element (Dipol) auf der Vakuumkammer verloren gehen. Dies produziert einen weiteren lokalen Druckanstieg und verursacht eine massive Erhöhung der Umladungsraten. Eine Möglichkeit, die anfänglichen Verluste zu minimieren bzw. zu kontrollieren, ist die MTI-Verluste auf den Transferkanal (TK) zu verlagern, da dort ein Druckanstieg den umlaufenden Strahl im SIS18 nicht stört. Im Transferkanal werden die Strahlränder mit Hilfe von Schlitzen beschnitten und somit eine scharf definierte Phasenraumfläche erzeugt. ...
C-Typ Lektin-ähnliche Rezeptoren (CTLRs) auf Lymphozyten des Immunsystems modulieren deren Effektorfunktionen wie Zytotoxizität oder Zytokinsekretion. Die Gene dieser Immunrezeptoren befinden sich in einer definierten genomischen Region, dem Natürlichen Killer Genkomplex (NKC), welcher im Menschen auf Chromosom 12 und in der Maus auf Chromosom 6 lokalisiert ist. Namensgebend für diesen Gencluster ist die erste Beschreibung von CTLRs auf Natürlichen Killerzellen (NK-Zellen), den Effektorlymphozyten des angeborenen Immunsystems. Einige NKC-kodierte CTLR, insbesondere Vertreter der C-Typ Lektin Familie 2 (CLEC2)-Rezeptorfamilie, werden jedoch auch in nicht-lymphozytären Zellen (z.B. humanes KACL in Keratinozyten, Maus Clr-f in Darmepithelzellen) vorgefunden und in Zusammenhang mit einer gewebsspezifischen Immunüberwachung gebracht. Bemerkenswerterweise sind die Lymphozytenassoziierten Rezeptoren dieser CLEC2-Proteine ebenso CTLRs, welche zudem eng benachbart zu den CLEC2-Proteinen im NKC kodiert sind, sodass es sich um genetisch gekoppelte Rezeptor-Liganden-Paare mit immunologischer Funktion handelt.
Zu Beginn der vorliegenden Arbeit richtete sich das Interesse auf ein bislang uncharakterisiertes Mitglied der CLEC2-Proteinfamilie (CLEC2L), das jedoch außerhalb des NKC und in unmittelbarer Nachbarschaft zu einem weiteren und ebenso uncharakterisierten CTLR (KLRG2) kodiert ist. Im Unterschied zu anderen Mitgliedern der CLEC2-Familie ist CLEC2L (wie auch KLRG2) in Säugetieren hochkonserviert. Im Rahmen dieser Arbeit wurde der Frage nachgegangen, ob CLEC2L wie andere Mitglieder der CLEC2-Proteinfamilie eine gewebsspezifische Expression aufweist, mit einem genetisch gekoppelten CTLR, d. h. mit KLRG2, interagiert und funktionell in Verbindung mit dem Immunsystem gebracht werden kann. Ziel dieser Arbeit war es somit, eine detaillierte Expressions- und Funktionsstudie zu CLEC2L durchzuführen.
Mittels quantitativer Echtzeit-PCR und in situ Hybridisierung konnte CLEC2L-RNA im humanen und Maus-Gehirn nachgewiesen werden. Da die Mengen dort das Expressionsniveau in anderen Organen bei Weitem überstiegen, wurde das CLEC2L-kodierte Protein als BACL (engl. Brain-Associated C-type Lectin) neu benannt. Ektop exprimiertes BACL bildet ähnlich wie viele andere CLEC2-Mitglieder ein disulfid-verknüpftes Homodimer auf der Zellmembran von Säugetierzellen. Um die endogene Proteinexpression dieses gehirnassoziierten „Waisen"-Rezeptors zu charakterisieren, wurde die BACL-Ektodomäne rekombinant produziert und als Immunogen zur Herstellung BACLspezifischer Antikörper eingesetzt. Mit diesen Antikörpern und einer Kombination immunologischer Techniken wie Immunhistochemie, Immunfluoreszenz und Immunpräzipitation konnte die Präsenz von BACL auf humanen und Maus-Neuronen des Gehirns mit einer besonders ausgeprägten Expression in Purkinje-Zellen zum ersten Mal gezeigt werden. Neben dem Gehirn wurden andere Bereiche des Nervensystems, darunter Spinalganglien und Retina, auf die Expression des BACL-Proteins untersucht. Hierbei konnte mittels Immunfluoreszenz und hochauflösender konfokaler Mikroskopie gezeigt werden, dass BACL mit Neuronenmembranen assoziiert ist. Die durchflusszytometrische Analyse von in vitro kultivierten Neurosphären untermauerte die Expression von endogenem BACL als membranständiges Oberflächenprotein.
Diverse Ansätze zur Identifizierung von Interaktionspartnern von BACL erbrachten letztlich keine eindeutigen Ergebnisse. KLRG2 wurde ursprünglich aufgrund seiner benachbarten genomischen Lokalisation als möglicher Rezeptor von BACL favorisiert, jedoch konnten weder Reporterassays noch durchflusszytometriebasierte Bindungsanalysen eine Interaktion dieser beiden Proteine aufzeigen. Auch die aus den massenspektrometrischen Analysen von humanen und Maus BACL-Immunpräzipitaten erhaltenen Kandidatenproteine konnten letztendlich nicht als Interaktionspartner von BACL eindeutig verifiziert werden.
Eine mögliche immunologische Bedeutung von BACL in vivo wurde im Rahmen von Tumorimplantationsexperimenten mit BACL-exprimierenden Tumorzellen untersucht. Hierbei wurde das Tumorwachstum von BACL- mit Kontroll-Transfektanten in C57BL/6 Mäusen verglichen. Der beobachtete Effekt des verlangsamten Tumorwachstums nach BACL-Überexpression war jedoch nicht auf BACL-Erkennung durch Lymphozyten zurückzuführen, wie anhand von immundefizienten Rag1-k.o. und NOD-SCID-gammak.o. Mäusen gezeigt werden konnte.
Insgesamt liefert diese Arbeit die Erstbeschreibung des bislang uncharakterisierten CTLRs BACL. Das Protein teilt strukturelle Merkmale mit Mitgliedern der CLEC2-Familie, unterscheidet sich jedoch deutlich durch (i) seine hohe Konservierung in Säugetieren, (ii) seine Kodierung außerhalb des NKC und (iii) seine pan-neuronale Expression. Die Erkenntnis, dass BACL in Maus- und in humanen Neuronen exprimiert wird, wirft die Frage nach seiner funktionellen Relevanz auf. Als Membranprotein könnte es eine wichtige Rolle in der neuronalen Kommunikation und bei zellulären Kontakten spielen. Die Frage nach der Funktion von BACL wird in zukünftigen Forschungsarbeiten zu klären sein.
Im Rahmen dieser Arbeit wurde die Rolle des Proteins S100B in humanen Neuroblastomzellen und primären hippokampalen Neurone der Ratte beim apoptotischen Zelltod untersucht. Hierfür wurden verschiedene zelltodinduzierende Agentien und Stresskonditionen verwendet. Für den exzitotoxischen, glutamatabhängigen Zelltod wurde eine NMDA-induzierte Zellschädigung sowie eine Hypoxieinduktion in einer Hypoxiekammer benutzt. Hier konnte für beide Apoptosemodelle und in beiden Zellarten eine signifikante Neuroprotektion in Anwesenheit von S100B gezeigt werden. Besonders in Hinblick auf bereits gezeigte aktive Sezernierung von S100B nach metabolomischem Stress in Astrozyten sollten die weiteren Signalwege und Effekte dieses Proteins erforscht werden. Im Zuge der Untersuchung eines möglichen Wirkungsmechanismus von S100B zeigte sich zunächst eine signifikante Aktivierung des Zellrezeptors RAGE. Weiterhin zeigte sich in primären hippokampalen Neuronen eine Aktivierung des RAF/MEK/MAPKERK-Signalwegs zumindest partiell verantwortlich für die Vermittlung der neuoprotektiven Wirkung von S100B bei NMDA-induzierter Apoptose. Durch Experimente unserer Arbeitsgruppe wurde bereits zuvor eine S100B abhängige Aktivierung von NFκB beobachtet. In dieser Arbeit konnte mit VEGF ein evtl. NFκB-abhängig aktiviertes Zielgen für die neuroprotektive Wirkung von S100B bei hypoxieinduzierter Apotpose gefunden werden. Demnach erklärt sich ein möglicher neuroprotektiver Wirkmechanismus von S100B beim exzitotoxischen Zelltod durch Aktivierung des Rezeptors RAGE an der Zelloberfläche, mit anschließender Aktivierung des MEK-Erk Signalwegs. Dieses kann seinerseits zu einer Aktivierung von NFκB in der Zelle mit Hochregulierung des VEGF-Gens führen.
Ein weiteres untersuchtes Apoptosemodell für die Rolle von S100B war die direkte DNA-Schädigung durch UV-Bestrahlung und Etoposid sowie die Schädigung durch den Proteasom-Inhibitor und p53 Aktivator Epoxomicin in humanen SHSY5Y Neuroblastoma-Zellen und primären hippokampalen Neuronen der Ratte. Auch hier zeigte sich in allen drei Modellen eine signifikante Neuroprotektion in Anwesenheit von S100B.
Da es einige Hinweise (unter anderem noch nicht publizierte Daten unserer eigenen Arbeitsgruppe) für eine Aufnahme von S100B in die Zelle gibt, wurde eine evtl. Wechselwirkung von S100B mit dem, nach DNA-Schädigung hochreguliertem, apoptoseinduzierenden Protein p53 untersucht. Hier zeigte sich, dass S100B sowohl nach DNA-Schädigung durch UV-Bestrahlung, als auch nach Etoposid-Behandlung die Hochregulierung von p53 auf Proteinebene signifikant reduziert und eine Translokation zum Zellkern verhindert. In Zusammenschau dieser Daten und den aktuellen Literaturdaten über direkte Wechselwirkungen von S100B und p53 kann man davon ausgehen, dass S100B seine Wirkung nicht nur über den Zelloberflächenrezeptor RAGE ausübt, sondern nach einem noch nicht vollständig erforschten Aufnahmemechanismus in die Zelle durch direkte Proteininteraktionen, z. B. wie hier mit dem Protein p53, in den Zellprozess insbesondere im Apoptoseprozess eingreift. Abgesehen von der in dieser Arbeit beschriebenen Herunterregulierung des p53-Proteinlevels in Anwesenheit von S100B, welche die Folge einer proteasomalen Degradation nach Formationsänderung sein kann, sollten die weiteren p53-abhängigen Apoptoseinduktionswege wie eine Veränderung von dessen Transkriptionsaktiviät, Hemmung proapoptotischer Proteine und ein evtl. Einfluss auf die Translokation von sog. Todesrezeptoren an die Zellmembran in Anwesenheit von S100B als evtl. Ursachen des neuroprotektiven Effekts von S100B weiter erforscht werden.
Im Rahmen dieser Arbeit bereits durchgeführte Untersuchungen auf Veränderungen der Expressionsrate von möglichen p53-Zielgenen haben noch keine endgültigen Ergebnisse geliefert. Zum einen ist evtl. die Auswahl der ausgewählten Zielgene nicht ausreichend gewesen und zum anderen besteht eine evtl. Limitation der semiquantitativen RT-PCR Methode gegenüber neueren Methoden wie die quantitative Real-Time-PCR in der Detektion auch kleinerer Expressionsunterschiede (siehe oben). Der Mechanismus der Neuroprotektion kann in diesem Modell abschließend noch nicht vollständig geklärt werden. Weiterführende Untersuchungen sollten den genauen Aufnahmemechanismus von S100B in die Zelle untersuchen, und die neuroprotektiven Schritte nach einer Blockierung/Herunterregulierung von p53 weiter klären.
In vier aufeinander aufbauenden Studien wird den Fragen nachgegangen „Was sind Nicht-Ereignisse?“ und „Welche Verarbeitungshilfen sind effektiv für den Bewältigungsprozess?“. Am Beispiel der ungewollten Kinderlosigkeit wird aus gesundheitspsychologischer Sicht nach zwei Aspekten von psychosozialem Wohlbefinden gefragt: „globaler Lebenszufriedenheit“ und „negativen Emotionen“ (z.B. Scham und Schmerz).
Es werden Bewältigungsstrategien und Bewältigungsstile unterschieden. Die Bewältigungsstile „religiöses Coping“ sowie „hartnäckige Zielverfolgung“ und „flexible Zielanpassung“ werden als andauernde Einflussfaktoren im Bewältigungsprozess betrachtet. Die entwickelten Bewältigungsstrategien „planendes Problemlösen“, „Unterstützung durch Freunde“, „regenerative Strategien“ und „kognitive Umdeutung zur Akzeptanz“ sind erlernbare Vorgehensweisen.
In der Pilotstudie 1 wurden 22 Menschen interviewt, die sich im Nicht-Ereignis-Prozess befinden. In Studie 2 wurden qualitativ und quantitativ 76 Männer und Frauen mit ungewollter Kinderlosigkeit befragt. Studie 3 erhob online mit 216 Teilnehmern die Häufigkeit und eingeschätzte Effektivität von Verarbeitungshilfen. Studie 4 erfasste zu zwei Messzeitpunkten (n = 732, n = 409) vier Bewältigungsstrategien, vier Bewältigungsstile, „globale Lebenszufriedenheit“, „negative Emotionen“ und kinderwunschspezifische Antworten von Menschen mit Kinderwunsch.
Für eine gewünschte Schwangerschaft kann geschlussfolgert werden, dass ein bedeutsamer Prädiktor für die Eintrittswahrscheinlichkeit im frühen Prozess fertility awareness ist. Das Alter der Frau dagegen leistet keinen Beitrag zur Vorhersage. Die Prädiktoren „negatives religiöses Coping“ und „planendes Problemlösen“ im fortgeschrittenen Nicht-Ereignis-Prozess stellen Risikofaktoren für das psychosoziale Wohlbefinden dar. Die Schutzfaktoren „Unterstützung durch Freunde“, „kognitive Umdeutung zur Akzeptanz“ und „flexible Zielanpassung“ sind signifikante Prädiktoren für psychosoziales Wohlbefinden. Interaktionseffekte von „Flexibler Zielanpassung“ und „Hartnäckiger Zielverfolgung“ konnten nicht identifiziert werden.
Pharmakologische Charakterisierung zentraler cholinerger Dysfunktionen in transgenen Mausmodellen
(2013)
Die cholinerge Dysfunktion steht in Zusammenhang mit der Ätiologie der Alzheimer-Krankheit (AD). Das Absterben cholinerger Neurone führt zu einer verminderten cholinergen Neurotransmission im Gehirn. Die Abnahme der Acetylcholinesterase-(AChE)-Aktivität und eine leichte Zunahme der Butyrylcholinesterase-(BChE)-Aktivität zählen zu den charakteristischen Merkmalen der AD. Acetylcholinesterase-Inhibitoren (AChEI) sollen Acetylcholin (ACh)-Konzentrationen im Gehirn steigern, um cholinerge Defizite auszugleichen. Allerdings zeigen AChEI in der Klinik nur einen mäßigen Erfolg. Zur Optimierung der Therapie mit Esterasehemmern, wurden im Rahmen dieser Arbeit drei transgene Mausmodelle mit cholinergen Veränderungen untersucht.
Zunächst wurde die AChE-heterozygote (AChE +/-) Maus analysiert. Die Maus weist bei einer 60-prozentigen AChE-Restaktivität (60,6 U/mg in AChE +/- versus 100,0 U/mg in WT-Mäusen) nur sehr leicht erhöhte ACh-Konzentrationen im Gehirn (9,0±5,1 fmol/5 µl in AChE+/- versus 5,0±3,6 fmol/5 µl in der WT-Maus) auf, die mithilfe der in vivo Mikrodialyse bestimmt wurden. PET-Studien haben gezeigt, dass die zerebrale AChE-Restaktivität in AD-Patienten, die mit Donepezil behandelt wurden, immer noch 70 bis 90% beträgt. Vom AChE +/- Modell kann abgeleitet werden, dass eine bis zu 50-prozentige AChE-Hemmung durch AChEI nicht genügt, um ACh-Konzentrationen im Gehirn von Patienten deutlich zu erhöhen. Leider ist eine Dosiserhöhung der AChEI durch das Auftreten von unerwünschten Wirkungen (Diarrhö, Übelkeit, Erbrechen) begrenzt.
Hippocampale ACh-Konzentrationen in der AChE +/- Maus steigen nach intrazerebraler und intraperitonealer Gabe von selektiven AChEI signifikant stärker an als in WT Mäusen. AChEI können ACh-Konzentrationen also auch noch bei einer verminderten AChE-Aktivität steigern. Die Cholinacetyltransferase-Aktivität ist in AChE +/- Mäusen unverändert, während der hochaffine Cholintransport signifikant um 58% erhöht ist. Veränderungen der kognitiven Leistungsfähigkeit der AChE +/- Maus sind in Verhaltenstests nicht zu erkennen. Es folgte die Untersuchung der PRiMA (Prolin-reicher Membrananker) defizienten Maus und der AChE del5 6-Maus. PRiMA ist ein transmembranäres Protein, das zur Prozessierung der AChE und ihrer Verankerung in der Membran verantwortlich ist. PRiMA kommt hauptsächlich im Gehirn vor, daher kann die PRiMA-KO-Maus dort keine AChE-Verankerung ausbilden. Die AChEdel5 6-Maus kann weder im Gehirn noch in der Peripherie AChE-Verankerungen formen, da eine Domäne fehlt, die essentiell für die Wechselwirkung mit Anker-Proteinen ist. Beide Mausmodelle weisen geringe AChE-Restaktivitäten (< 10 %) und drastisch erhöhte ACh-Konzentrationen im Gehirn auf. Die ACh-Konzentrationen im Striatum der PRiMA-KO-Maus sind circa 350 fach erhöht (4±3 fmol/5 µl in WT-Mäusen versus 1450±700 fmol/5 µl in PRiMA-KO-Mäusen). Allerdings zeigt die PRiMA-KO-Maus keinen Phänotyp, während die AChE del5 6 Maus krank aussieht (Tremor, geringes Körpergewicht, stumpfes Fell). Beide Modelle bestätigen, dass ACh-Spiegel im Gehirn nur dann stark ansteigen, wenn die AChE immens gehemmt ist. Ferner kann aus der PRIMA-KO-Maus gefolgert werden, dass die Interaktion zwischen AChE und PRiMA ein geeignetes Target für die Therapie der cholinergen Dysfunktion darstellen könnte.
Nach intrazerebraler Applikation eines selektiven AChE-Inhibitors (BW284c51 1 µM), steigen die ACh-Spiegel im Gehirn beider transgener Mäuse signifikant an. Eine Veränderung der ACh-Konzentrationen nach BChEI Gabe ist weder bei der AChE +/-, der PRiMA-KO, noch bei der AChE del5 6 Maus zu sehen. Die BChE trägt bei einer AChE-Restaktivität (10 bis 40 %) nicht zum hydrolytischen Abbau von ACh bei. Daraus lässt sich ableiten, dass bei stark verminderten AChE-Aktivitäten, der Einsatz von BChEI vermutlich keinen weiteren Nutzen erbringt. Um die Adaptionsmechanismen der PRiMA-KO-Maus aufzuklären, wurde die M2-Rezeptor Funktion (negativer Feedback-Mechanismus) getestet. Da die striatalen ACh-Konzentrationen in der PRiMA-KO-Maus nach Behandlung (lokal und i.p.) mit M2-Agonisten und -Antagonisten kaum verändert sind, lässt dies einen nicht-funktionalen M2 vermuten.
Aus den Ergebnissen können wichtige Erkenntnisse über die Therapie der Alzheimer-Krankheit gewonnen werden. Die Bestimmung der ACh-Konzentrationen, in Gegenwart unterschiedlicher AChE-Aktivitäten der verschiedenen Mausmodelle, zeigt den Zusammenhang zwischen ACh und AChE im Säugerhirn und erklärt die limitierte klinische Wirksamkeit der AChE-Inhibitoren. Die Hemmung der Interaktion zwischen PRiMA und der AChE stellt eine denkbare Interventionsmöglichkeit dar, um ACh-Konzentrationen im Gehirn zu steigern, ohne dabei periphere Nebenwirkungen auszulösen. Ziel der weiteren Forschung sollte sein, PRiMA bzw. die Interaktion zwischen PRiMA und AChE als Target für die Therapie der Alzheimer-Krankheit weiter zu erforschen.
Gegenstand dieser Arbeit ist die Untersuchung der Genexpression der axonalen wachstumsassoziierten Proteine NAP-22, GAP-43 und CAP-23 in den dopaminergen Neuronen der Substantia nigra pars compacta (SNc), einer im Mesencephalon gelegenen Zellregion, relativ zu der Genexpression eines Referenzgens. Als Versuchstiere dienten sechs Monate alte, männliche CB6F1 Wildtypmäuse sowie sechs Monate alte, männliche CAP-23 transgene (CAP-23tg) Tiere, die das wachstumsassoziierte Protein CAP-23 überexprimieren. Die dopaminergen Zellen der SNc wurden zunächst morphologisch charakterisiert und ihre Ausdehnung im Mittelhirn durch alternierende Immunfärbungen der Tyrosinhydroxylase, einem Schlüsselenzym der Dopaminsynthese, sowie Toluidinblaufärbungen ermittelt. Anschließend wurden die Neurone durch die Methode der Lasermikrodissektion (LMD) im Zellverband isoliert. Hierfür war die Optimierung der Toluidinblaufärbung erforderlich, mit dem Ziel, sowohl eine gute Färbung der Neurone als auch eine hohe RNA-Nativität zu erzielen. Die RNA wurde isoliert und nach Integritätsprüfung in cDNA umgeschrieben. Daraufhin erfolgte die Analyse der Genexpression der beschriebenen Gene durch die quantitative Echtzeit-Polymerase-Kettenreaktion (qRT-PCR). Dabei war feststellbar, dass das Transgen Cap-23 in den transgenen Tieren stärker exprimiert wird als das Endogen Nap-22. Es zeigte sich jedoch kein signifikanter Unterschied der Expression von endogenem Nap-22 und endogenem Gap-43 in den CAP-23tg Tieren im Vergleich zu der Expression in den Wildtypmäusen. Das bedeutet, dass die Überexpression von Cap-23 in den transgenen Tieren die Expression der mRNA der beiden endogenen wachstumsassoziierten Proteine NAP-22 und GAP-43 nicht beeinflusst. Auf Grundlage der in dieser Arbeit vorgelegten Ergebnisse soll in Folgeexperimenten untersucht werden, inwieweit die Überexpression von CAP-23 die Reorganisationsfähigkeit dopaminerger Neuronen der SNc nach einer Schädigung beeinflusst, wie sie zum Beispiel beim Menschen im Verlauf des Morbus Parkinson beobachtet wird.