Universitätspublikationen
Refine
Year of publication
Document Type
- Doctoral Thesis (1738) (remove)
Language
- German (1738) (remove)
Is part of the Bibliography
- no (1738)
Keywords
- Schmerz (9)
- Grundschule (5)
- HIV (5)
- RNA (5)
- Depression (4)
- Digitalisierung (4)
- Hepatitis C (4)
- Polytrauma (4)
- Prostatakarzinom (4)
- Schmerzforschung (4)
Institute
- Medizin (721)
- Biowissenschaften (172)
- Biochemie und Chemie (132)
- Biochemie, Chemie und Pharmazie (98)
- Pharmazie (91)
- Physik (91)
- Gesellschaftswissenschaften (47)
- Erziehungswissenschaften (38)
- Neuere Philologien (37)
- Psychologie (36)
Trotz einer fast 30-jährigen Forschungs- und Umsetzungshistorie stellen Projekte zum Aufbau integrierter Datenhaushalte (Data Warehouses) für Unternehmen immer noch eine große Herausforderung dar. Gerade in Data Warehouse-Projekten bei Finanzdienstleistern führt eine hohe semantische Komplexität häufig zu Projektverzögerungen oder zum Scheitern der Vorhaben. Dies zeigt die Arbeit anhand von explorativen Fallstudien auf und fragt nach den Gründen für diesen typischen Verlauf. Eine mögliche Ursache liegt in einer unzureichenden Kommunikation zwischen den Projektbeteiligten, was zu Missverständnissen in der Konzeption und somit zu Fehlimplementierungen führt, die – gerade wenn sie spät erkannt werden – deutliche Verzögerungen und Budgetüberschreitungen zur Folge haben. Ausgehend von diesen beobachteten Praxisproblemen sucht die vorliegende Arbeit auf der Grundlage des Design-Science-Research nach Lösungsansätzen: unter Übertragung der Erkenntnisse der Kommunikationstheorie wurden drei Artefakte entwickelt, sukzessive verbessert und validiert. Die Paper zeigen auf, dass sich durch den Einsatz formalisierter Templates, eines verbesserten Vorgehensmodells in Verbindung mit einem korrespondieren Softwaretool das Kommunikationsverhalten in den Projekten verbessern lässt und somit eine höhere Projekt-Performance erreicht wird. Hierzu wurden insgesamt sechs Projekte zum Aufbau von Data Warehouses im Finanzdienstleistungsumfeld in Fallstudien analysiert und zudem Experten-Interviews mit den Projektbeteiligten durchgeführt, die im Ergebnis die positive Wirkung der Artefakte unterstützen.
Es wurde das Leitfähigkeitsverhalten von reinem, lufthaltigem Wasser bei kontinuierlicher und impulsgetasteter Röntgenbestrahlung (60 kV8) untersucht. Hierbei ergaben sich zwei einander überlagerte Effekte: 1. Ein der Röntgen-Dosisleistung proportionaler irreversibler Leitfähigkeitsanstieg, der vermutlich auf eine Strahlenreaktion des gelösten CO2 zurückzuführen ist, 2. eine reversible Leitfähigkeitserhöhung während der Bestrahlung, die sich mit der Entstehung einer Ionenart mit einer mittleren Lebensdauer von ca. 0,15 sec erklären läßt. Es wird angenommen, daß es sich dabei um Radikalionen O2⊖ handelt, welche durch die Reaktion der als Strahlungsprodukt entstehenden Η-Radikale mit dem gelösten Sauerstoff gebildet werden. Ein möglicher chemischer Reaktionsmechanismus wird angegeben, der zu befriedigender quantitativer Übereinstimmung der Versuchsergebnisse mit Ausbeutewerten und Reaktionskonstanten aus der Literatur führt.
Im Rahmen dieser Arbeit wurden verschiedene Apolipoproteine des Liquors untersucht, um bestehende Zusammenhänge nachzuweisen, die eventuell später bei der Diagnose von Erkrankungen eingesetzt werden könnten. Das ApoE aller Proben wurde phänotypisiert. Die Konzentrationen des ApoJ und Apo(a) wurden mit Hilfe selbst- bzw. in der Arbeitsgruppe entwickelter ELISAs bestimmt. Durch Kombination der existierenden ELISAs konnte der von Borghini et al. 1995 beschriebene LpE-Partikel und ein bisher nicht bekannter Apolipoprotein-Partikel aus Apo(a) und ApoE nachgewiesen werden. Die relative Konzentration dieses Apo(a)/E- und des ApoJ/E-Partikels wurde bestimmt. Mit Hilfe der Kreuzimmunelektrophorese konnte nachgewiesen werden, daß die Apolipoproteine Bestandteil eines Partikels sind. Aufgrund der gefundenen Informationen wurde die These postuliert, daß es sich bei diesen Partikeln um einen gemeinsamen Partikel aus ApoE, ApoJ und Apo(a) handelt. Detaillierte Daten über den Aufbau und die Zusammensetzung des Partikels konnten bisher nicht gewonnen werden. Im Liquor wurden die Konzentrationen von ApoE, Apo(a) und ApoJ gemessen. Diese Konzentrationen wurden in Zusammenhang zu dem ApoE-Phänotyp der entsprechenden Probe gesetzt. Wo möglich wurde ApoE und Apo(a) auch im Serum der entsprechenden Patienten bestimmt. Auch diese Konzentrationen wurden in Beziehung zu ihrem ApoE-Phänotyp gesetzt. Zuletzt wurden für die Apolipoproteine E und (a) die Liquor- und Serumkonzentration in Beziehung zueinander gesetzt. Außer für das ApoE und den ApoJ/E-Partikel konnte für keines der untersuchten Apolipoproteine weder im Liquor noch im Serum ein offensichtlicher Zusammenhang zwischen der Konzentration des Apolipoproteins und dem ApoE-Phänotyp gefunden werden. Zusätzlich zu den Apolipoproteinen des Liquors wurde in Zusammenarbeit mit der Universität Dresden das Tau-Protein gemessen. Die Ergebnisse bestätigen die diagnostische Wertigkeit der Bestimmung von Protein Tau bei degenerativen Erkrankungen des ZNS. Eine Differenzierung zwischen verschiedenen degenerativen Erkrankungen des ZNS ist jedoch nicht möglich. Ein weiterer Teil dieser Arbeit untersuchte die Rolle des ApoE im Gehirn. Dabei zeigte sich, daß die Synthese des ApoE durch die Astrozyten ein sehr komplexer Vorgang sein muß. Eine weitere Untersuchung des ApoE wies die stärkere Glykolisierung im Liquor im Vergleich zum Serum nach.
Die Wandreliefs aus dem Nordwest-Palast Aššurnasirpals II. (883-859 v. Chr.) in Nimrud zählen zu den forschungsgeschichtlich frühesten und bedeutendsten Funden des Alten Orients. Sie befinden sich heutzutage in zahlreichen Sammlungen weltweit und bieten durch ihre Darstellungen einen tiefgreifenden Einblick in die assyrische Kultur. Insbesondere Kontext und Position der Reliefs bieten Hinweise zur Bedeutung der dort angebrachten Figuren. Zwar ist eine "Schutzfunktion" vergleichbarer Repräsentationen textlich bezeugt – jedoch bisher nur unter Vorbehalt auf die Reliefdarstellungen zu übertragen. An dieser Stelle kann die Systematisierung ikonographischer Details in Abhängigkeit von ihrem Anbringungsort konzeptionelle Aspekte erkennbar machen.
Durch eine relationale Datenbank und dreidimensionale Visualisierungstechniken wird geprüft, ob die stilistische Variationsbreite ikonographischer Details eine potentielle Systematik aufweist; ebenso, bis zu welchem Grad die jeweilige Form eines bestimmten Zeichnungsdetails einem intentionalen Anbringungskonzept entspricht. Als Teil dieser Vorgehensweise fungiert die in diesem Zusammenhang generierte 3D-Rekonstruktion als methodisch unterstützende Maßnahme. Sie ermöglicht sowohl eine moderne Zusammenführung ehemals benachbarter Reliefplatten unabhängig ihres gegenwärtigen Aufbewahrungsortes als auch die Wiederherstellung heute kaum noch sichtbarer Gewandverzierungen und Pigmentreste. Anhand der Ergebnisse wird deutlich, dass eine Systematisierung der Reliefdetails mittels 3D-Modell einen erweiterten Erkenntnisfortschritt impliziert und – nicht zuletzt aufgrund der zurückliegenden Zerstörungen der Palastruine und der damit verbundenen unwiederbringlichen Verluste – auch weitere Untersuchungen unterstützen können.
Die Wandreliefs aus dem Nordwest-Palast Aššurnasirpals II. (883-859 v. Chr.) in Nimrud zählen zu den forschungsgeschichtlich frühesten und bedeutendsten Funden des Alten Orients. Sie befinden sich heutzutage in zahlreichen Sammlungen weltweit und bieten durch ihre Darstellungen einen tiefgreifenden Einblick in die assyrische Kultur. Insbesondere Kontext und Position der Reliefs bieten Hinweise zur Bedeutung der dort angebrachten Figuren. Zwar ist eine ‚Schutzfunktion‘ vergleichbarer Repräsentationen textlich bezeugt – jedoch bisher nur unter Vorbehalt auf die Reliefdarstellungen zu übertragen. An dieser Stelle kann die Systematisierung ikonographischer Details in Abhängigkeit von ihrem Anbringungsort konzeptionelle Aspekte erkennbar machen.
Durch eine relationale Datenbank und dreidimensionale Visualisierungstechniken wird geprüft, ob die stilistische Variationsbreite ikonographischer Details eine potentielle Systematik aufweist; ebenso, bis zu welchem Grad die jeweilige Form eines bestimmten Zeichnungsdetails einem intentionalen Anbringungskonzept entspricht. Als Teil dieser Vorgehensweise fungiert die in diesem Zusammenhang generierte 3D-Rekonstruktion als methodisch unterstützende Maßnahme. Sie ermöglicht sowohl eine moderne Zusammenführung ehemals benachbarter Reliefplatten unabhängig ihres gegenwärtigen Aufbewahrungsortes als auch die Wiederherstellung heute kaum noch sichtbarer Gewandverzierungen und Pigmentreste.
Anhand der Ergebnisse wird deutlich, dass eine Systematisierung der Reliefdetails mittels 3D-Modell einen erweiterten Erkenntnisfortschritt impliziert und – nicht zuletzt aufgrund der zurückliegenden Zerstörungen der Palastruine und der damit verbundenen unwiederbringlichen Verluste – auch weitere Untersuchungen unterstützen können.
In der so umfangreichen wie differenzierten Bruegelforschung dominieren religiöse und moralische Deutungen, die auf eine pessimistische Weltsicht des Künstlers schließen. Dem gegenüber priorisiert die vorliegende Arbeit säkulare und materielle Optionen, die einer optimistischen Weltsicht den Boden bereiten konnten. Diese ambitionierte Akzentsetzung ist anhand des zeitgenössischen Kontexts prinzipiell legitimiert und anhand von Bildbelegen praktisch veranschaulicht.
Eine konkretisierte kunstgeschichtliche Positionsbestimmung Bruegels seine systematische Abgrenzung von der romanistischen Konkurrenz ebenso heraus wie den originären Beitrag zur Weiterentwicklung der nicht-romanistischen Malerei seiner Zeit. Für seine innovativen Bildkonzepte gibt es einen gemeinsamen Nenner. Das ist die erweiterte Einbeziehung des Betrachters, der vom passiven Rezipienten zum aktiven Interpreten aufgewertet ist, nicht zuletzt mit dem Ziel, zeitgenössische Wirklichkeit und deren Widersprüche, Defizite und Alternativen diskutierbar zu machen.
Eine modifizierte sozialgeschichtliche Positionsbestimmung Bruegels geht vom Doppelcharakter der zeitgenössischen Transformationsprozesse in den spanischen Niederlanden aus. In der Regel rückt man religiöse Kontroversen und politische Konflikte in den Vordergrund, die destruktiven Potenziale des gesellschaftlichen Wandels und deren Wiederspiegelung im Bruegelwerk. Danach wird der Künstler tendenziell als religiöser Dissident und politischer Opponent qualifiziert. Stattdessen wird hier die ökonomische Expansion, die wirtschaftliche Dynamik als vorrangig angesehen, welche die Heimat Bruegels, die Metropole Antwerpen und ihr Umland, zu einer europäischen Vorsprungsregion werden ließ. Das lenkt den Blick auf die Reflexion des sozialökonomischen Kontexts im Bruegel-Oeuvre, die der Entwicklung der gesellschaftlichen Produktivkraft und die Rolle nicht nur der agrarischen Arbeit erkennbar werden lässt.
Damit ist der Boden bereitet für die Frage nach säkularer Kritik und sozialer Utopie in den Gemälden, denen die beiden folgenden Hauptteile der Arbeit gewidmet sind, dem „Sturz des Ikarus“ (Teil B) und dem „Turmbau zu Babel“ (Teil C). Beide Kapitel setzten sich intensiv mit Referenztexten und Referenzbildern sowie mit der Rezeptionsgeschichte auseinander und münden jeweils in den Entwurf einer konkurrierenden Deutung zu den traditionellen Thesen von der Bestrafung menschlicher Hybris ein:
Die konkurrierende Deutung des „Ikarussturzes“ kommt zu dem Ergebnis, dass die sozialgeschichtliche Substanz des Gemäldes in der Überbietung antiker durch frühneuzeitliche Arbeits- und Verkehrsformen zu entdecken ist. Eine latente sozialutopische Perspektive klingt in den dabei imaginierten Indizien für Arbeits- und Techniklob an.
Die konkurrierende Deutung der Turmbaugemälde gipfelt in dem Vorschlag, die sozialutopischen Potenziale aus dem Übergang vom „Wiener Turmbau“ zum Rotterdamer Turmbau“ abzuleiten. Sie kommt zu dem Ergebnis, dass die Bruegelsche Turmbau-Folge die Entwicklung einer Arbeitsutopie und einer Architekturutopie sowie deren Zusammenfassung zu einer Gesellschaftsutopie vorstellbar macht. Dabei ist der Optimismus keineswegs ungebrochen, das Konstrukt nicht frei von Skepsis, weil Bedrohungen des Projekts von innen und außen Teil des Bildgeschehens sind.
Die vorgelegte Arbeit setzt sich aus drei Veröffentlichungsstücken zusammen. Im ersten Teil zeigten Michalczyk und Hasselhorn (2010) einen Überblick über die Vielfalt der Modellvorstellungen des Arbeitsgedächtnisses. Dabei wurde insbesondere das Baddeley Modell (1986) hervorgehoben. Dieses steht für eine ganze Klasse komponentenbasierter, meist dem experimentellen oder dem Ansatz interindividueller Differenzen zugehöriger, Modellvorstellungen und ist zudem maßgeblich im pädagogischentwicklungspsychologischen Kontext für Theorie und Praxis von Bedeutung. Die Ergebnisse der ersten empirischen Vertiefung der hier vorgelegten Arbeit bestätigten die Gültigkeit der Dreikomponentenstruktur (Baddeley, 1986) und deren weitestgehende Altersinvarianz hinsichtlich der funktionalen Interdependenz der Komponenten phonologische Schleife, visuell-räumlicher Notizblock und zentrale Exekutive im Laufe der kindlichen Entwicklung. Lediglich bei Kindern jünger als 7 Jahre war der Zusammenhang der phonologischen Schleife und der zentralen Exekutive weniger stark ausgeprägt als bei älteren Kindern. In der zweiten empirischen Untersuchung wurden Subkapazitäten des Arbeitsgedächtnisses und die phonologische Bewusstheit zur Entwicklung früher numerischer Kompetenzen (Krajewski, 2008; Krajewski & Schneider 2009a,b) in Beziehung gesetzt. Es zeigte sich, dass die phonologische Bewusstheit auf die phonologische Schleife, den episodischen Puffer und phonologische, zentral-exekutive Prozesse zurückgreift. Zudem beeinflusste die phonologische Bewusstheit frühe numerische Basisfertigkeiten (QNC Level I), nicht aber (höhere) Mengen-Zahlen Kompetenzen (QNC Level II), was die „isolated number words“-Hypothese (Krajewski & Schneider, 2009a) bestätigte. Diese Zusammenhangsmuster, bei denen die phonologische Bewusstheit eine mediierende Rolle zwischen Arbeitsgedächtnissubkapazitäten und frühen numerischen Kompetenzen einnimmt, galten gleichermaßen für Kinder mit und ohne sprachlichem Migrationshintergrund.
Auf dem Martberg, einem Bergplateau über dem Unterlauf der Mosel zwischen den Orten Pommern und Karden (Landkreis Cochem-Zell), befand sich nahe einer spätkeltischen Siedlung der Treverer ein gallo-römisches ländliches Heiligtum, eines der bedeutendsten archäologischen Denkmäler im westlichen Mitteleuropa. Seine vollständige Freilegung in den Jahren 1994 bis 2002 ergab neben Erkenntnissen zur Jahrhunderte langen mehrphasigen Baugeschichte des Tempelareals von der Spätlatènezeit bis zum Ende des 4. Jhs. n.Chr. auch eine Fülle an Funden, insbesondere von Münzen, Fibeln, Keramiken und Kleinfunden aus Metall wie Waffen, Amulette, Schmuck, Statuetten und anderes mehr. Viele dieser Funde sind wohl rituell im Tempelbezirk niedergelegt worden, insbesondere für Münzen, Fibeln und Waffen ist dies aus anderen gallo-römischen Heiligtümern bekannt. Weitere Funde wurden möglicherweise während des Betriebs der Tempelanlage verloren, weggeräumt oder kamen bei den häufigen Umbaumaßnahmen in die Erde.
An Hand der Datenbanken der Funde vom Martberg wurde eine systematische Analyse der Fundlagen aller Artefaktgruppen durchgeführt und ihnen mit Hilfe der gut datierbaren Münzen ein zeitliches Gerüst gegeben. Damit konnten die sich im Laufe der Zeit verändernden rituellen Gepflogenheiten anhand der Funde quantifiziert werden. Durch einen Vergleich mit der zeitabhängigen räumlichen Verteilung der Münzen wurden mit Hilfe von Cluster- und Hauptkomponentenanalysen rituell deponierte Artefaktgruppen identifiziert und von nicht rituell deponierten Artefaktgruppen unterschieden. Dazu wurden zunächst die zahlreichen Münzen (über 10.000 Münzen, darunter über 2000 keltische und gallo-römische Münzen) aus archäologischen Befunden im Tempelbezirk und von Lese/Streufunden als Funktion der Zeit vorgestellt beginnend mit den keltischen Münzen aus dem 1. Jh. v.Chr. bis zu den Münzen aus theodosianischer Zeit gegen Ende des 4. Jhs. n.Chr. Dabei wurden auch Besonderheiten unter den Münzen wie Münzen mit Einhieben, Halbierungen/Viertelungen, Imitationen, Gegenstempel, Prägeorte etc. quantitativ erfasst. Die räumlichen Verteilungen der Münzen zeigten deutliche zeitabhängige Unterschiede. Die sich zeitlich und räumlich verändernden kultischen Praktiken verliefen zudem völlig parallel, was die Deponierung von intakten Münzen, Imitationen, Halbierungen und Viertelungen sowie insbesondere Münzen mit Einhieben anging. Im Gegensatz zu den deutlich erkennbaren räumlichen Verschiebungen in den Münzhäufigkeiten bis zur Mitte des 2. Jhs. n.Chr. änderten sich die Verteilungen von Münzen im Tempelbezirk aus den folgenden Jahrhunderten nur wenig.
Diese sich zeitlich verändernden aber gut datierbaren lokalen Fundmünzhäufigkeiten wurden zu einer wenn auch groben Datierung vieler anderer Kleinfundgattungen herangezogen. Mithilfe von statistischen Verfahren (Clusteranalysen bzw. Hauptkomponentenanalysen) konnten zeitliche und räumliche Beziehungen zwischen den einzelnen Fundgattungen identifiziert und teilweise auch datiert werden. Außerdem konnte zwischen absichtlich niedergelegten, geopferten Gegenständen wie Münzen, Schmuck oder Waffenbestandteilen und wohl als Abfall entsorgten Keramik-Waren, Metallteilen oder auch Produkten von Metall-, Keramik- oder anderen Werkstätten unterschieden werden. So waren Lanzenspitzen, keltische Fibeln aus der zweiten Hälfte des 1. Jhs. v.Chr., Statuetten, Spiegel und Phallusamulette ähnlich wie die entsprechenden zeitgleichen keltischen und frühkaiserzeitlichen Münzen verteilt, konnten dadurch auch datiert werden und wurden wohl ähnlich wie die Münzen als Weihegaben deponiert. Frühe keltische Fibeln bildeten zusammen mit Funden aus Blei (Bleiplättchen, Bleibleche, Gussreste) sowie mit Schlacken, Fingerringen und Perlen aus Bronze oder Glas einen eigenen Cluster. Die anderen metallenen Kleinteile waren ähnlich wie die Münzen aus dem 2.-3. Jh. gleichmäßig über das Tempelareal verteilt, wohl weil in dieser Zeit Umbaumaßnahmen zu einer großflächigen Zerstreuung dieser Funde führten. Zusammen mit den Resten der Keramik wurden dabei offensichtlich auch viele metallene Kleinfunde entsorgt, die an Hand der ähnlich verteilten Keramik wiederum zum Teil datiert werden konnten.
Im zweiten Teil der Arbeit wurde versucht, dem Phänomen der sogenannten „claudischen Imitationen“ anhand von Untersuchungen der physikalischen, typologischen und physikochemischen Eigenschaften dieser Münzen sowie von Provenienzstudien des für die Münzen verwendeten Kupfers näher zu kommen. Aus den Ergebnissen von Bleiisotopenanalysen (Massenspektrometrie mit induktiv gekoppeltem Plasma, ICP-MC-MS) an insgesamt 115 claudischen Imitationen ließ sich schließen, dass das Kupfer für die Imitationen mit claudischen und augusteischen Münzbildern ebenso wie die offiziellen claudischen Münzen wohl aus zwei verschiedenen Lagerstätten in Spanien, der Zentralen Iberischen Zone (Kupferminen der Sierra Morena) und aus dem Gebiet des Rio Tinto (Iberischerer Pyrit-Gürtel), stammte. Ob dieses Kupfer (möglicherweise aus verhandelten Barren) direkt zur Herstellung der Imitationen verwendet wurde oder über den Umweg einer Umprägung von offiziellen Münzen, konnte jedoch nur durch eine Analyse der Spurenelementverteilung in den Imitationen selbst im Vergleich zu ähnlichen Messungen an offiziellen Münzen herausgefunden werden. Die Ergebnisse der Spurenelementanalysen (Elektronenstrahlmikrosonde) an über 110 claudischen Imitationen vom Martberg im Vergleich zu früher publizierten Ergebnissen an über 200 offiziellen Kupfermünzen von Augustus bis Claudius haben gezeigt, dass viele der Imitationen mit claudischen Münzbildern sehr stark offiziellen Münzen ähneln, die unter Augustus, Tiberius und Claudius geprägt wurden. Ähnliches gilt für Imitationen mit augusteischen und tiberischen Münzbildern. Etwa ein Drittel der Imitationen enthielten Zink in unterschiedlichen Konzentrationen und unterschieden sich bereits dadurch von den offiziellen Münzen. Man muss aus diesen Ergebnissen den Schluss ziehen, dass die große Mehrheit der Imitationen mit augusteischen oder tiberischen Münzbildern erst in claudischer Zeit aus denselben Münzmetallen wie die Imitationen mit den claudischen Münzbildern hergestellt wurden: aus den in dieser Zeit zur Verfügung stehenden Münzen der vorangehenden Kaiser und/oder den offiziellen Münzen des Claudius.
Da auch an eine Verwendung von Kupfer aus verhandelten Kupferbarren zur Herstellung vieler der Imitationen möglich ist, wurden ähnliche Vergleiche auch mit publizierten Daten von Kupferbarren durchgeführt, die in römischen Schiffswracks im westlichen Mittelmeer gefunden wurden. Die Ergebnisse zeigten, dass für die Herstellung von Imitationen auch die Verwendung von handelsüblichen Kupferbarren denkbar ist.
Im dritten Teil der Arbeit wurde anhand der Münzfunde vom Martberg untersucht, ob Münzen mit bestimmten Rückseitentypen für eine Weihung im sakralen Bereich selektiert oder auch gemieden worden sein könnten. Dazu wurde die Verteilung der Rückseitentypen der auf dem Martberg gefundenen Antoniniane mit Münzreihen verglichen, die in einem zweiten sakralen Kontext, dem Tempelbezirk des Castellberg gefunden wurden, außerdem mit zwei Einzelfundreihen aus zivilen Kontexten und zwei Schatzfunden von Antoninianen. Die sechs Fundkomplexe zeigten eine ähnliche Struktur, da sie aus dem Pool der umlaufenden Münzen zusammengesetzt waren. Die Unterschiede innerhalb der beiden Münzreihen desselben Kontextes waren jedoch erheblich geringer als die zwischen den Münzreihen aus unterschiedlichen Kontexten. Die Ergebnisse einer Hauptkomponentenanalyse zeigten zunächst, dass die beiden Heiligtümer in ganz ähnlicher Weise von der „Referenzkurve“ des Vicus Castellberg abwichen. Die in allen Fundkomplexen am häufigsten vorkommenden Münzbilder Pax, Salus und Spes waren verglichen mit dem Vicus in beiden Heiligtümern deutlich überrepräsentiert. Eine „positive Selektion“ dieser Rückseitentypen, d.h. ihre bewusste Niederlegung, war aber eher unwahrscheinlich. Für die in beiden Heiligtümern unterrepräsentierten Typen wie Laetitia, Fides, Sol, Mars und Jupiter, vielleicht auch Tiere/Fabelwesen, Uberitas und Fortuna war eine bewusste Vermeidung der Niederlegung eher anzunehmen. Neben der eindeutig nachweisbaren Tendenz der Niederlegung von eher geringwertigen Münzen ist davon auszugehen, dass bei der rituellen Niederlegung von Münzen im sakralen Kontext auch die Bilder auf den Rückseiten dieser Münzen eine wie auch immer geartete Rolle gespielt haben müssen. Damit zeigt sich die Funktion der Münzen im rituellen Kontext nicht nur als Wertmesser, als Geld, sondern auch als ein Informationsträger, mit dessen Hilfe möglicherweise auch Zwiesprache mit den Göttern gehalten wurde.
Are books different? : Die Auswirkungen des Falls der Buchpreisbindung in Großbritannien 1995 - 2006
(2013)
Sicherlich gibt es im Buchhandel wie in jeder anderen Branche Zeiten der Krise und des Umsatzrückgangs, aber grundsätzlich legen die Zahlen nicht nah, dass das Ende bevorsteht. Es stellt sich also die Frage, ob zutrifft, was Richter Buckley in seinem zum geflügelten Wort gewordenen Urteil feststellte: Sind Bücher wirklich anders, oder anders gefragt, braucht der Buchhandel den Schutz des Staates, um seine Funktion erfüllen zu können?
Um eine Antwort auf diese Fragen zu finden, soll in dieser Arbeit das Hauptaugenmerk auf die Entwicklung des britischen Buchhandels im Zeitraum von 1995 (dem Jahr der faktischen Abschaffung des Net Book Agreement bis 2006 gelegt werden. Nach dem beinahe hundertjährigen Bestehen der Buchpreisbindung waren diese Jahre richtungweisend für die Neuorientierung des britischen Buchhandels auf die Bedingungen eines freien Marktes, und es soll untersucht werden, welche Umwälzungen sich daraus für die Branche ergeben haben.
Ziel der durchgeführten Experimente war es, die Zerfallsmechanismen Van-der-Waals gebundener Argon- und Neon Di- und Trimere in intensiven Laserfeldern zu untersuchen, um mehr über den Einfluss der schwachen Van-der-Waals Bindung auf die Dynamik des Ionisationsprozesses zu erfahren. Da Dimere aufgrund ihrer elektronischen Struktur sehr stark zwei separaten benachbarten Atomen gleichen, vereinen sie atomare und molekulare Eigenschaften in sich und ihre Untersuchung verspricht ein tieferes Verständnis der Wechselwirkungsmechanismen in starken Laserfeldern. Die Verwendung der Impulsspektroskopie Methode COLTRIMS ermöglichte die koinzidente Messung aller beim Aufbruch entstandener ionischer Fragmente sowie eines elektronischen Impulsvektors. Für die beidseitige Einfachionisation des Argon Dimers, konnten bei der gewählten Intensität (etwa 3.3E14W/cm2) drei unterschiedliche Ionisationsprozesse identifiziert werden, von denen zwei zu einer überraschend hohen kinetischen Gesamtenergie der Ionen führen. Aufgrund der Messung der Winkelverteilung der ionischen Fragmente und eines der emittierten Elektronen für lineare und zirkulare Polarisation gelang es, die den drei Prozessen zugrunde liegende Dynamik im Laserfeld zu entschlüsseln. Der dominierende Zerfallskanal stellt demzufolge eine schnelle sequentielle Doppelionisation des Argon Dimers dar, die noch am Gleichgewichtsabstand des Dimers stattfindet. Für den zweithäufigsten Ionisationsprozess ergaben sich zwei mögliche Erklärungsansätze: Entweder wird das Dimer zunächst einseitig doppelionisiert, so dass es auf einer attraktiven Potentialkurve zusammenläuft, bevor es zu einem späteren Zeitpunkt – wenn das Laserfeld bereits abgeklungen ist – durch eine Umverteilung seiner Ladungen in einer Coulomb Explosion fragmentiert, oder das Dimer wird bei einer beidseitigen Tunnelionisation zugleich angeregt, so dass die Coulomb Explosion von einer Potentialkurve erfolgt, die wesentlich steiler als 1/R verläuft. Der schwächste Zerfallskanal, der sich durch die höchste Gesamtenergie auszeichnet, ist auf eine "Frustrated Triple Tunnel Ionization" zurückzuführen, bei der ein hoch angeregter Rydberg Zustand erzeugt wird. Bei der Untersuchung des Neon Dimers konnte bei der gewählten Intensität (etwa 6.3E14W/cm2) nur die sequentielle beidseitige Einfachionisation identifiziert werden, obwohl die Daten Hinweise auf einen weitern Ionisationsprozess mit sehr geringer Statistik aufweisen. Zudem wurde in dieser Arbeit nach der Methode des Coulomb-Explosion-Imaging aus den in Koinzidenz gemessenen Impulsvektoren aller einfachgeladenen ionischen Fragmente eines Aufbruchs die geometrische Struktur der Cluster im Orts-und Impulsraum rekonstruiert. Die ermittelte Grundzustandswellenfunktion des Argon und Neon Dimers zeigt eine gute Übereinstimmung mit quantenmechanischen Berechnungen. Für das Argon und Neon Trimer konnten aus den gemessenen Impulsvektoren mittels einer numerischen Simulation die Bindungswinkel im Ortsraum bestimmt werden, so dass erstmals gezeigt werden konnte, dass diese Trimere gleichseitige Dreieckskonfigurationen aufweisen. Vergleiche mit theoretischen Berechnungen zeigen für die breite Winkelverteilung des Neon Trimers eine hervorragende Übereinstimmung, während die gemessene Winkelverteilung des Argon Trimers etwas breiter als die berechnete ist.
Einführung: Die höchste Offenheitsrate in der arteriellen Bypasschirurgie der unteren Extremitäten wird mit einem Segment der Vena saphena magna (VSM) von ausreichender Länge und Durchmesser erreicht. Dabei ist der Venendurchmesser der einzige signifikant korrelierende Faktor für das Auftreten einer Transplantatsstenose und damit der beste Prädiktor für die primäre und die sekundäre 2-Jahre-Durchgängigkeitsrates. In 20-40% der Patienten fehlt ein bzgl. des Lumens geeignetes Segment der Vena saphena magna zur Herstellung eines Bypasses bei der primären Operation. Daher wurde eine Technik entwickelt, kleinlumige Vena saphena magna Segmente mittels einer Valvulotomie zu erweitern.
Ziel: Eine zu kleinlumige Vena saphena magna soll VSM für eine spätere Verwendung als autologes Bypassmaterial der unteren Extremität konditioniert werden. Die häufigsten Indikationen für eine derartige Konditionierung sind die Bypassverwendung bei der operativen Therapie der peripheren arteriellen Verschlusskrankheit (pAVK) und beim Aneurysma der Arteria poplitea (PA).
Methoden: Diese prospektive Pilotstudie würde zwischen Juni 2007 und November 2011 durchgeführt. 25 Patienten (26 Fälle) mit einem VSM Durchmesser zwischen 2 und 3mm erhielten eine in situ VSM-Valvulotomie. Die Zerstörung der suffizienten Venenklappen ermöglicht einen retrograden Blutstrom in die Vena saphena magna. Der hierdurch erzeugte Wachstumsreiz soll zu einer Durchmesserzunahme der Vene führen. Nach Erreichen eines Durchmessers von > 3mm für infragenuale Rekonstruktionen und von > 3,5 mm für supragenuale Rekonstruktion wurden die konditionierten Venensegmente als Bypass implantiert. Bei 23 Patienten war die Bypassindikation eine nicht kritische pAVK. Bei 2 Patienten war ein Aneurysma der Arteria poplitea die Indikation. Einschlusskriterium für Teilnahme an der Studie war eine nicht variköse VSM mit einem Querdurchmesser zwischen 2 und 3 mm. Die Venenevaluation erfolgte duplexsonografisch im Stehen durch eine Beurteilung der epifaszialen Vena saphena magna von der Leiste bis zum Innenknöchel. Messpunkte waren: 10 cm unterhalb des Hiatus saphenus, 10 cm oberhalb des Knies, 10 cm unterhalb des Knies und 10 cm oberhalb des Innenknöchels. Um das Venenwachstum zu ermitteln, diente als Messpunkt der kleinste ermittelte Durchmesser über einem Messbereich von 10 mm.
Drei Patienten, bei denen ein femoropoplitealer Bypass oberhalb des Kniegelenkes implantiert wurde, hatten bei der Implantation einen Durchmesser der konditionierten VSM > 3.5 mm. Bei 13 Patienten mit Bypassimplantation unterhalb des Kniegelenkes war die konditionierte VSM > 3mm. Eine Wiederholung der Valvulotomie war in keinem der Patienten nötwendig. Die valvulotomierte VSM wurde bei allen Bypassoperationen offen chirurgisch entnommen. Zur postoperativen Kontrolle erfolgten eine Duplexuntersuchung und eine ABI-Messung 1,3,6,12,18 und 24 Monate nach der Implantation.
Ergebnisse: Durchschnittlich vergrößerte sich der VSM-Durchmesser von initial 2,5±0,18 mm vor Valvulotomie auf 2,8±0,2 mm, 3,0±0,3mm und 3,2±0,4 mm jeweils 30, 60 und 90 Tage nach Valvolutomie. Bei der Entnahme betrug der durchschnittliche Bypassdurchmesser 3.7±0.6 mm. Die primäre 1-Jahres-Offenheitsrate mit der valvulotomierten VSM war 81±9,8% im Vergleich zu in der Literatur publizierten 58,0%±8,4% für alloplastische Transplantate, 51% für kleinkalibrige VSM und 81,6%±3,6% für Armvenentransplantate. Die sekundäre 1-Jahres-Offenheitsrate mit der Valvulotomietechnik betrug 87%±8,3% verglichen mit 82,6% für in der Literatur angegebene Transplantationen mit kleinkalibriger VSM. Die primäre 2-Jahres-Offenheitsrate mit der Valvulotomietechnik betrug 69%±11,8%, verglichen mit 50% in der Literatur angegebener Transplantationen von kleinkalibrige VSM benutzt wurden und 72%, falls Armvenentransplantate benutzt wurden. Die sekundäre 2-Jahres-Offenheitsrate mit der Valvulotomietechnik lag bei 75%±11%.
Fazit: Die Valvulotomie kann zur Zunahme des Venendurchmessers vor Anlage eines femoro-distalen Bypasses verwendet werden, weil sie regelhaft zum Reflux in der valvulotomierten Vene führt und dadurch ein relevantes Venenwachstum verursacht. Zwischen 60 und 90 Tagen nach Valvulotomie wird ein Venenduchmesser > 3.5 mm erreicht und die valvulotomierte VSM kann als femoropoplitealer Bypass oberhalb des Kniegelenkes implantiert werden. Für eine Anastomose unterhalb des Kniegelenkes genügt ein Wachstum bis > 3 mm. Wenn die valvulotomierte Vene einen entsprechenden Durchmesser erreicht, kann die konditionierte VSM benutzt werden, um einen Bypass mit guter Offenheitsprognose zu konstruieren oder einen nicht funktionierenden Bypass zu ersetzen.
Fossile Rohstoffe dienen in unserer heutigen Gesellschaft als Energiequelle und als Rohstofflieferant für Grund-, Feinchemikalien und Pharmazeutika. Sie tragen jedoch zum Klimawandel und Umweltverschmutzung bei. Lignocellulosische Biomasse ist eine erneuerbare und nachhaltige Alternative, die durch biotechnologische Prozesse erschlossen werden kann. Die Bäckerhefe Saccharomyces cerevisiae ist ein sehr gut untersuchter Modellorganismus, für den es zahlreiche genetische Werkzeuge und Analysemethoden gibt. Zudem wird S. cerevisiae häufig in biotechnologischen Prozessen eingesetzt, da diese Hefe robust gegenüber industriellen Bedingungen wie niedrigen pH-Werten, toxischen Chemikalien, osmotischem und mechanischem Stress ist. Die Pentose D-Xylose ist ein wesentlicher Bestandteil von lignocellulosischer Biomasse, die aber nicht natürlicherweise von der Bäckerhefe verwerten werden kann. Für eine kommerzielle Herstellung von Produkten aus lignocellulosischer Biomasse muss S. cerevisiae D-Xylose effektiv verwerten. Für die Bäckerhefe konnten heterologe Stoffwechselwege etabliert werden, damit diese D-Xylose verwerten kann. Für eine effiziente Xyloseverwertung bleiben dennoch zahlreiche Herausforderungen bestehen. Unter anderem nehmen die Zellen D-Xylose über ihre endogenen Hexosetransporter nur langsam auf. Die heterologe Xylose-Isomerase (XI) besitzt in S. cerevisiae eine geringe Aktivität für die Isomerisierung von D-Xylose. Unspezifische Aldosereduktasen konkurrieren mit der Xylose-Isomerase um das gleiche Substrat und produzieren Xylitol, ein starker Inhibitor der Xylose-Isomerase. Eine Möglichkeit die Umsatzrate von Enzymen zu steigern und Substrate vor Nebenreaktionen zu schützen, ist die Anwendung von Substrate Channeling Strategien. Bei Substrate Channeling befinden sich die beteiligten Enzyme in einem Komplex, wodurch die Substrate lokal angereichert werden und von einem aktiven Zentrum zum nächsten weitergeleitet werden, ohne Diffusion in den restlichen Reaktionsraum. In dieser Arbeit wurde untersucht, ob ein Komplex zwischen einem membranständigen Transporter und einem löslichen Enzym konstruiert werden kann, um durch Substrate Channeling eine verbesserte Substrat-Verwertung zu erreichen. Die Xylose-Isomerase aus C. phytofermentans und die endogene Hexose-Permease Gal2 sollten in dieser Arbeit als Modellproteine in S. cerevisiae-Zellen mit Hilfe von Protein-Protein-Interaktionsmodulen (PPIM) in räumliche Nähe zueinander gebracht werden.
Die Expression verschiedener PPIM konnte in S. cerevisiae mittels Western Blot nachgewiesen werden. Auch Fusionsproteine aus unterschiedlichen PPIM wurden in dieser Hefe exprimiert. Die PPIM binden komplementäre PPIM oder kurze Peptidliganden, welche an die Xylose-Isomerase und an den Gal2-Transporter fusioniert wurden. Die Funktionalität beider Proteine wurde mittels in vivo und in vitro Tests untersucht. Die Xylose-Isomerase mit N-terminalen Liganden des WH1-Protein-Protein-Interaktionsmoduls (WH1L-XI) und der Gal2-Transporter mit N-terminalen SYNZIP2-Protein-Protein-Interaktionsmodul (SZ2-Gal2) erwiesen sich als geeignete Kandidaten für weitere Untersuchungen. Mittels indirekter Immunfluoreszenz konnte die Ko-Lokalisierung von SZ2-Gal2 und WH1L-XI, die einander über ein Scaffold-Protein binden, nachgewiesen werden.
Transformanten, in denen ein Komplex aus Transporter, Scaffold-Protein und Xylose-Isomerase gebildet wurde, zeigten bessere Fermentationseigenschaften gegenüber der Scaffold-freien Kontrolle und dem Wildtyp: Sie verwerteten Xylose schneller, bildeten weniger vom unerwünschten Nebenprodukt Xylitol, produzierten mehr Ethanol und wiesen eine höhere Ethanolausbeute auf. Der beobachtete Substrate Channeling Effekt kompensierte die geringere Enzymaktivität der WH1L-XI im Vergleich zum Wildtyp-Protein. Die Wirksamkeit des Substrate Channeling wurde verringert, wenn die Bildung des Komplexes aus Transporter, Scaffold-Protein und Xylose-Isomerase gestört wurde, indem ein getaggtes GFP mit dem Scaffold-Protein um die Bindungsstelle an Gal2 konkurrierte. Dies zeigt, dass die positive Wirkung auf die Komplex-Bildung zwischen XI und Gal2 zurück zu führen ist. Die Fermentationseigenschaften konnten gesteigert werden, indem der zuvor zwischen SZ2-Zipper und Gal2-Transporter verwendete Linker, der aus zehn Aminosäuren von Glycin, Arginin und Prolin (GRP10) bestand, durch einen aus Glycin und Alanin (GA10) ersetzt wurde. Die verbesserten Fermentationseigenschaften beruhten auf einem Substrate Channeling Effekt und einer gesteigerten Aufnahmerate des SZ2-GA10-Gal2-Transporters. Ein Vergleich der Strukturvorhersagen von SZ2-GRP10-Gal2 und SZ2-GA10-Gal2 zeigte, dass der GRP10-Linker einen unstrukturierten, flexiblen Linker ausbildet, während der GA10-Linker eine starre α-Helix ausbildet. Die Struktur und der Transportprozess von Gal2 sind nicht aufgeklärt. Bei verwandten Transportern geht man davon aus, dass Substrate durch Konformationsänderungen ins Innere der Zelle transportiert werden, indem die beiden Domänen gegeneinander klappen. Die α-Helix könnte die Geschwindigkeit der Konformationsänderungen begünstigen.
Durch Kontrollexperimente konnte ausgeschlossen werden, dass die gesteigerten Fermentationseigenschaften eine Folge der Stabilisierung der XI- und Gal2-Fusionsproteine durch das Anfügen des Liganden oder durch Komplexbildung mit dem Scaffold-Protein waren. Substrate Channeling zwischen Gal2 und XI entsteht durch die Komplexbildung mit dem Scaffold-Protein, wodurch sich Gal2 und XI in räumlicher Nähe zueinander befinden. Dieser Effekt beruht möglicherweise zusätzlich aufgrund einer hohen örtlichen Ansammlung dieser Proteine, da die tetramere XI weitere Scaffold-Proteine binden könnte, welche weitere Gal2-Transporter binden könnte. Darüber hinaus sammeln sich Transporter an bestimmten Orten der Membran an und Transporter mit ähnlicher oder gleicher Transmembransequenz tendieren dazu zu ko-lokalisieren. Hierdurch könnten Gal2-XI-Agglomerate entstehen und Xylose wird mit hoher Wahrscheinlichkeit von einer der vielen Xylose-Isomerasen umgesetzt.
Hintergrund: In der allgemeinmedizinischen Versorgung ist die Einbindung von Arzthelferinnen in der Betreuung depressiver Patienten ein innovatives Vorgehen. Jedoch ist wenig darüber bekannt, wie Arzthelferinnen ihre neue Aufgabe erleben. Die vorliegende Arbeit beschreibt die Sichtweise und Erfahrungen von Arzthelferinnen, die ein Case Management für depressive Patienten in deutschen Hausarztpraxen durchgeführt haben. Methodik: Es handelt sich um eine qualitative Studie, die im Rahmen der PRoMPT-Studie (Primary Care Monitoring for Depressive Patients Trial) durchgeführt wurde. Mithilfe eines semistrukturierten Interviewleitfadens wurden 26 Arzthelferinnen interviewt und anschließend eine Inhaltsanalyse durchgeführt. Der Fokus lag dabei auf drei Schlüsselthemen: Rollenverständnis, Belastungsfaktoren und Krankheitskonzept. Ergebnisse: Die meisten Arzthelferinnen empfanden ihre neue Rolle als Bereicherung auf einer persönlichen und beruflichen Ebene. Sie sahen Ihre Hauptaufgabe in der direkten Interaktion mit den Patienten, während die Unterstützung der Hausärzte für sie von untergeordneter Bedeutung war. Belastende Faktoren durch die neue Arbeitsaufgabe betrafen die Arbeitsbelastung, die Arbeitsbedingungen und die Interaktion mit depressiven Patienten. Es zeigte sich ein sehr heterogenes Krankheitsverständnis bezüglich der Erkrankung Depression. Schlussfolgerung: Arzthelferinnen sind bereit, ihren Aufgabenbereich von Verwaltungsarbeiten auf mehr patientenzentrierte Tätigkeiten auszudehnen. Auch wenn Arzthelferinnen dabei verstärkt protokollierende Aufgaben übernehmen, ist die sich daraus ergebende Mehrbelastung nicht zu unterschätzen.
Die Analyse von DNA-Sequenzen steht spätestens seit der Feststellung ihrer tragenden Rolle in der Vererbung organismischer Eigenschaften im Fokus biologischer Fragestellungen. Seit Kurzem wird mit modernsten Methoden die Untersuchung von kompletten Genomen ermöglicht. Dies eröffnet den Zugang zu genomweiten Informationen gegenüber begrenzt aussagekräftigen markerbasierten Analysen. Eine Genomsequenz ist die ultimative Quelle an organismischer Information. Allerdings sind diese Informationen oft aufgrund technischer und biologischer Gründe komplex und werfen meist mehr Fragen auf, als sie beantworten.
Die Rekonstruktion einer bislang unbekannten Genomsequenz aus kurzen Sequenzen stellt eine technische Herausforderung dar, die mit grundlegenden, aber in der Realität nicht zwingend zutreffenden Annahmen verbunden ist. Außerdem können biologische Faktoren, wie Repeatgehalt oder Heterozygotie, die Fehlerrate einer Assemblierung stark beeinflussen. Die Beurteilung der Qualität einer de novo Assemblierung ist herausfordernd, aber zugleich äußerst notwendig. Anschließend ist eine strukturelle und funktionale Annotation von Genen, kodierenden Bereichen und repeats nötig, um umfangreiche biologische Fragestellungen beantworten zu können. Ein qualitativ hochwertiges und annotiertes assembly ermöglicht genomweite Analysen von Individuen und Populationen. Diese Arbeit beinhaltet die Assemblierung und Annotation des Genoms der Süßwasserschnecke Radix auricularia und eine Studie vergleichender Genomik von fünf Individuen aus verschiedenen molekularen Gruppen (MOTUs).
Mollusken beherbergen nach den Insekten die größte Artenvielfalt innerhalb der Tierstämme und besiedeln verschiedenste, teils extreme, Habitate. Trotz der großen Bedeutung für die Biodiversitätsforschung sind verhältnismäßig wenige genomische Daten öffentlich verfügbar. Zudem sind Arten der Gattung Radix auch aufgrund ihrer großen geografischen Verbreitung in diversen biologischen Disziplinen als Modellorganismen etabliert. Eine annotierte Genomsequenz ermöglicht über bereits untersuchte Felder hinaus die Forschung an grundlegenden biologischen Fragestellungen, wie z.B. die Funktionsweise von Hybridisierung und Artbildung. Durch Assemblierung und scaffolding von sechs whole genome shotgun Bibliotheken verschiedener insert sizes und einem transkriptbasiertem scaffolding konnte trotz des hohen Repeatgehalts ein vergleichsweise kontinuierliches assembly erhalten werden. Die erhebliche Differenz zwischen der Gesamtlänge der Assemblierung und der geschätzten Genomgröße konnte zum Großteil auf kollabierte repeats zurückgeführt werden.
Die strukturelle Annotation basierend auf Transkriptomen, Proteinen einer Datenbank und artspezifisch trainierten Genvorhersagemodellen resultierte in 17.338 proteinkodierenden Genen, die etwa 12,5% der geschätzten Genomgröße abdecken. Der Annotation wird u.a. aufgrund beinhaltender Kernrthologen, konservierter Proteindomänenarrangements und der Übereinstimmung mit de novo sequenzierten Peptiden eine hohe Qualität zugesprochen.
Das mapping der Sequenzen von fünf Radix MOTUs gegen die R. auricularia Assemblierung zeigte stark verringerte coverage außerhalb kodierender Bereiche der nicht-Referenz MOTUs aufgrund hoher Nukleotiddiversität. Für 16.039 Gene konnten Topologien berechnet werden und ein Test auf positive Selektion ausgeführt werden. Insgesamt konnte über alle MOTUs hinweg in 678 verschiedenen Genen positive Selektion detektiert werden, wobei jede MOTU ein nahezu einzigartiges Set positiv selektierter Gene beinhaltet. Von allen 16.039 untersuchten Genen konnten 56,4% funktional annotiert werden. Diese niedrige Rate wird vermutlich durch Mangel an genomischer Information in Mollusken verursacht. Anschließende Analysen auf Anreicherungen von Funktionen sind deshalb nur bedingt repräsentativ.
Neben den biologischen Ergebnissen wurden Methoden und Optimierungen genomischer Analysen von Nichtmodellorganismen entwickelt. Dazu zählen eigens angefertigte Skripte, um beispielsweise Transkriptomalignments zu filtern, Trainings eines Genvorhersagemodells automatisiert und parallelisiert auszuführen und Orthogruppen bestimmter Arten aus einer Orthologievorhersage zu extrahieren. Zusätzlich wurden Abläufe entwickelt, um möglichst viele vorhandene Daten in die Assemblierung und Annotation zu integrieren. Etwa wurde ein zusätzliches scaffolding mit eigens assemblierten Transkripten mehrerer MOTUs sequenziell und phylogenetisch begründet ausgeführt.
Insgesamt wird eine umfassende und qualitativ hochwertige Genomsequenz eines Süßwassermollusken präsentiert, welche eine Grundlage für zukünftige Forschungsprojekte z.B. im Bereich der Biodiversität, Populationsgenomik und molekularen Ökologie bietet. Die Ergebnisse dieser Arbeit stellen einen Wissenszuwachs in der Genomik von Mollusken dar, welche bisher trotz ihrer Artenvielfalt deutlich unterrepräsentiert bezüglich assemblierter und annotierter Genome auffallen.
HINTERGRUND: Asthma ist die häufigste chronische Krankheit bei Kindern und Jugendlichen, wobei bei einem Großteil bereits erste Exazerbationen im Vorschulalter auftreten. Diese sind meist mit stationären Aufenthalten verbunden, jedoch gibt es nur wenige detaillierte zeitliche und demografische Untersuchungen dieser besonders schweren Asthmakohorte. Ebenso gibt es kaum Untersuchungen über die Verteilung der Asthmaphänotypen in dieser Altersgruppe.
METHODEN: Es erfolgte eine retrospektive Analyse von 572 Krankenhausaufenthalten im Universitätsklinikum für Kinder- und Jugendmedizin Frankfurt mit der ICD Diagnose Asthma (J.45) zwischen dem 1. Januar 2008 und dem 31. Dezember 2017 bei Kindern im Alter 1-5 Jahren. Die Aufteilung erfolgte in drei Phänotypen. Allergisches Asthma (RAST und/oder Prick-Test positiv), eosinophiles Asthma (Eosinophilie >300/µl und RAST/Prick-Test negativ) und nicht-allergisches Asthma (Eosinophilie ≤300/µl und RAST/Prick-Test negativ). Akut schweres Asthma wurde definiert als akute Dyspnoe, Tachypnoe, Sauerstoffbedarf und/oder systemische Steroidtherapie. Analysiert wurden u.a. Alter, Geschlecht, Liegezeit, Therapie und Re-Hospitalisierungsrate.
ERGEBNISSE: Von 572 Krankenhausaufenthalten mit der Diagnose Asthma erfüllten 205 Patienten die Definition eines akut schweren Asthmas. Von diesen 205 Kindern wurden bereits n=55 (26,8%) vor der stationären Aufnahme mit einem inhalativen Steroid (ICS) behandelt. Die phänotypische Charakterisierung ergab folgende Verteilung: 49% wiesen Allergisches Asthma, 15% Asthma mit atopischer Dermatitis, 10% eosinophiles nicht-allergisches Asthma und 26% nicht-allergisches Asthma. Von diesen Patienten wurden 71.7% mit ICS und 15,1% mit Montelukast als Monotherapie entlassen. Die Rate der Notfallvorstellung (Notfallambulanz und Re-Hospitalisierung) innerhalb von 12 Monaten nach Entlassung war mit n=42 (20,5%) hoch. Die Zahl der Eosinophilen (> 300 µl) hatte keinen Einfluss auf die Re-Hospitalisierung. Es zeigte sich eine hohe Verschreibung von Antibiotika bei Asthma-Patienten (143 (69,8%) der 205 Patienten) während des stationären Aufenthalts, wobei nur 42 Patienten (20,5%) einen CRP-Wert über 2 mg/dl aufwiesen.
Schlussfolgerung: Obwohl die Asthmaprävalenz bei Schulkindern höher ist, leiden Vorschulkinder im Alter von 1-5 Jahren häufiger an schweren Asthma-Exazerbationen mit Hospitalisierung. Trotz protektiver Therapie mit ICS oder Montelukast ist die Re-Hospitalisierungsrate hoch. Die bisherigen Therapiekonzepte reichen in dieser Altersgruppe anscheinend nicht aus, um Patienten mit schwerem Asthma im Vorschulalter ausreichend zu kontrollieren. Neue Therapiekonzepte wie die Triple-Therapie mit Zugabe des Long-Acting Muscarin Rezeptors (Tiotropium) sollten dringend evaluiert werden.
Das Hodgkin Lymphom besteht aus zwei verschiedenen Typen, dem klassischen Hodgkin Lymphom (cHL) mit einem Anteil von 95% und dem nodulären lymphozytenprädominanten Hodgkin Lymphom (NLPHL). Letzteres kann sehr unterschiedliche histopathologische Wachstumsmuster zeigen, die nach Fan et al. grob in ein typisches knotiges (Muster A) und in atypische diffuse Wachstumsmuster (Muster C und E) unterteilt werden können. Patienten mit einem NLPHL, das zum diffus wachsenden Subtyp zählt, präsentieren sich häufiger in klinisch fortgeschrittenen Stadien als jene Patienten mit einem NLPHL, das ein knotiges Wachstumsmuster zeigt. Im Gegensatz dazu präsentiert sich das T-Zell/Histiozytenreiche großzellige B-Zell Lymphom (THRLBCL) in einem fortgeschrittenen Stadium mit einer oftmals schlechten Prognose. NLPHL vom diffusen Typ weisen starke Ähnlichkeiten mit dem THRLBCL sowohl in Bezug auf Histomorphologie als auch klinische Eigenschaften auf und sind dadurch manchmal nur schwer voneinander zu unterscheiden.
Das Wachstumsmuster eines Tumors hängt unter anderem von der Verteilung der Blutgefäße im Tumorgewebe ab. Viele aktuelle Studien weisen darauf hin, dass die Gefäßneubildung (Angiogenese) eine wichtige Rolle in der Entwicklung von hämatologischen Tumoren spielt. Durch diesen Prozess kann der Tumor zu ausreichend Sauerstoff und Nährstoffen gelangen, um invasiv zu wachsen und zu metastasieren. Die Gefäßdichte ist ein anerkannter Marker für die Auswertung von Gefäßneubildung in verschiedenen Tumoren.
Ein Ziel der Arbeit bestand darin, Parameter der Angiogenese, u.a. die Gefäßdichte und den queren Gefäßdurchmesser, in verschiedenen Subtypen des NLPHL und in THRLBCL im Hinblick auf eine mögliche Unterscheidbarkeit des diffusen NLPHL und des THRLBCL zu untersuchen sowie sie mit anderen Typen von malignen Lymphomen und reaktiven Lymphadenitiden (LA) zu vergleichen.
Von T-Lymphozyten ist bekannt, dass sie mit den Tumorzellen in Lymphomen in engem Kontakt stehen und einen nicht unerheblichen Anteil des Tumormikromilieus bilden. Die CD4+ Lymphozyten treten gewöhnlich über Gefäße, den hochendothelialen Venolen (HEVs), in den Lymphknoten ein.
Ein weiteres Ziel der Arbeit war es, eine mögliche Korrelation zwischen dem TLymphozyten-Zustrom und der Tumormorphologie in den betroffenen Lymphknoten zu untersuchen, um herauszufinden, ob dies die unterschiedliche Zusammensetzung im Mikromilieu der Lymphome erklären kann. Als Maß für den Zustrom wurde die Anzahl der intravaskulären T-Lymphozyten herangezogen. Zum Vergleich wurden weitere maligne Lymphome, die ein prominentes Tumormikromilieu besitzen, untersucht.
Im diffusen NLPHL und THRLBCL fanden wir eine niedrigere Gefäßdichte mit einer diffusen Blutgefäßverteilung. Im Gegensatz dazu zeigte das NLPHL mit einem typischen Wachstumsmuster, das cHL vom gemischtzelligen Typ (cHL MC) und das Angioimmunoblastische Lymphom (AITL) in den interfollikulären Arealen eine verstärkte Gefäßbildung. Es zeigte sich in allen Subtypen des NLPHL eine signifikant geringere Gefäßdichte, verglichen mit dem AITL oder den LA Fällen. LA wiesen insgesamt die höchste interfollikuläre Gefäßdichte auf. Das THRLBCL zeigte die niedrigste Gefäßdichte von allen malignen Lymphomen, die untersucht wurden, allerdings war der Vergleich von THRLBCL und den verschiedenen Subtypen des NLPHL nicht signifikant. Wir konnten zeigen, dass die diffusen Subtypen des NLPHL und das THRLBCL ein ähnliches Wachstumsmuster der Blutgefäße mit einer verminderten Gefäßdichte und nicht mehr identifizierbaren follikulären Bereichen vorweisen, im Gegensatz zu den beibehaltenen follikulären Mustern, die wir im typischen NLPHL fanden. Die Anzahl der intravaskulären T-Zellen war am höchsten im cHL MC sowie im typischen NLPHL. Signifikant geringer fielen die intravaskulären TLymphozyten-Werte im THRLBCL im Vergleich mit dem typischen NLPHL Muster A, C und dem cHL MC aus.
Da die LA Fälle eine hohe interfollikuläre Gefäßdichte und kleine Gefäßdurchmesser zeigten, kann man davon ausgehen, dass die Gefäße durch die schnell anschwellenden Keimzentren komprimiert wurden. In den atypischen NLPHL und THRLBCL Fällen lassen die geringe Gefäßdichte und relativ große Gefäßdurchmesser eine langsame Dehnung des Gefäßgerüstes des Lymphknotens annehmen. Die Resultate der T-Zell Quantifizierung legen den Schluss nahe, dass die relativ geringe Anzahl von intravaskulären T-Lymphozyten im THRLBCL zusammen mit einer geringen Gefäßdichte möglicherweise verantwortlich ist für die gewöhnlich relativ geringe Anzahl an T-Lymphozyten pro Fläche und hierdurch die hohe Anzahl an Makrophagen im Mikromilieu im THRLBCL hervorgerufen wird. Dies könnte im Zusammenhang stehen mit einer absolut verminderten T-Lymphozytenzahl im Blut oder einem reduzierten Eintritt der T-Lymphozyten in den Lymphknoten.
Es geht um eine spezielle Auseinandersetzung mit dem Sachunterricht der hessischen Grundschule. Ziel eines Projektes („IGEL“ - Individuelle Förderung und adaptive Lern-Gelegenheiten in der Grundschule) des Frankfurter IDeA-Zentrums war es, das pädagogische Handeln von Lehrkräften zu verändern. Wir folgen diesem Versuch anhand dreier Lehrerinnen, die von Projektseite in der Methode der „Kognitiven Strukturierung“ fortgebildet wurden und die diese Methode im Rahmen einer standardisierten Unterrichtseinheit zum „Schwimmen und Sinken“ erproben sollen. Zu diesem Zweck führen wir Fallanalysen von Sachunterrichtsstunden vor und nach der Fortbildung derselben Lehrkräfte durch, sowie detaillierte didaktische Analysen des jeweils eingesetzten Materials. Wir kommen zu differenzierten kritischen Schlüssen. Das pädagogische und insbesondere das didaktische Handeln der Lehrerinnen wird in Folge der Fortbildungen stark perturbiert; zu der beabsichtigten und in Form von Handreichungen vorgegebenen „Kognitiven Strukturierung“ auf Schülerseite kommt es indes nicht. Stattdessen studieren wir intensiv die Überforderung der Lehrerinnen, die aus einer Kombination von a. den fachwissenschaftlichen Hintergründen, b. der freiwilligen Verpflichtung zur Manualumsetzung und c. den artikulierten Bedürfnissen der Schüler resultiert. Wir können anhand des Versuchs, die Lehrpersonen in „Kognitiver Strukturierung“ fortzubilden, einen Blick auf deren eigene kognitive und pädagogische Strukturen werfen; eine kontrollierte Eingriffnahme in diese Strukturen jedoch findet im Rahmen der „Implementationen“ nicht statt. Die Interventionsform der randomisierten Nachmittagsfortbildung wird zwar verworfen, lediglich angerissen aber die Frage, wie das erlangte Wissen zu nutzen wäre.
Ziel der vorliegenden Arbeit ist der Aufbau von koaxialen Plasmabeschleunigern und deren Verwendung für die Untersuchung der Eigenschaften von kollidierenden Plasmen. Zukünftig sollen diese kollidierenden Plasmen als intensive Strahlungsquelle im Bereich der ultravioletten (UV-) und vakuumultravioletten (VUV-)Strahlung sowie in der Grundlagenforschung als Target zur Ionenstrahl-Plasma-Wechselwirkung Verwendung finden. Für diese Anwendungen steht dabei eine Betrachtung der physikalischen Grundlagen im Vordergrund. So sind neben der Kenntnis der Plasmadynamik auch Aussagen bezüglich der Elektronendichte, der Elektronentemperatur und der Strahlungsintensität von Bedeutung. Im Einzelnen konnte gezeigt werden, dass es möglich ist, durch eine Plasmakollision die Elektronendichte des Plasmas im Vergleich zu der eines einzelnen Plasmas deutlich zu erhöhen - im Maximalfall um den Faktor vier. Gleichzeitig stieg durch die Plasmakollision die Lichtintensität im Wellenlängenbereich der UV- und VUV-Strahlung um den Faktor drei an...
Am Ende seiner Tage sprach der König Salomon: "Die Sonne geht auf und unter [...]. Was gewesen ist, wird [wieder] sein, was getan worden ist, wird [wieder] getan, und es gibt nichts Neues unter der Sonne".1 Im August des Jahres 1881, beim Spaziergang durch die Wälder am See von Silvaplana, bei einem mächtigen, pyramidal aufgetürmten Block, "6000 Tausend Fuß jenseits von Mensch und Zeit" kam einem Professor der klassischen Philologie jener Gedanke wieder – der Gedanke der "Ewigen Wiederkunft des Gleichen", die er später als das Hauptprinzip der altgriechischen Zeitauffassung formulierte. Der Professor hieß Friedrich Nietzsche.2 Mehr als hundert dreißig Jahre sind nach seinem Spaziergang vergangen, und mehr als hundert dreißig Jahre dauert die Diskussion über die zyklische und lineare Zeit. Es wurde mehrmals behauptet und wieder verworfen, dass der Hauptunterschied zwischen dem "hebräischen" und "griechischen" Denken, zwischen den "Gläubigen" und den "Heiden" gerade in dieser Zeitauffassung besteht. Die mythische Zeit der Griechen sei räumlich und statisch, sie habe kein Ziel und keinen Zweck, sie wandle im ewigen Kreislauf gefühllos und träge, ohne Anfang und Ende, ohne Wohin und Woher, ohne Hoffnung. Die Zeit der Tora hingegen sei zielgerichtet. Die Erschaffung der Welt und die Sintflut, der Auszug aus Ägypten und die Wüstenwanderung – all dies seien einmalige Ereignisse, welche sich nie wiederholen würden. Sie alle hätten einen Zweck – die Erlösung der Menschheit. Jede von ihnen sei ein Fortschritt – ein Schritt auf dem Pfad der Geschichte, der Geschichte mit Anfang und Ende, mit Wohin und Woher, mit Hoffnung.3
Die vorliegende Arbeit beabsichtigt nicht, die intuitive Völkerpsychologie zu untersuchen. Vielmehr handelt es sich hier um die Vorstellungen einer begrenzten Gruppe der mittelalterlichen jüdischen Intellektuellen aus dem Spanien des 12. Jhs. Ihre Gedanken waren gleichzeitig von der griechischen Philosophie und dem jüdischen Messianismus geprägt. Eben diese eigenartige Kombination macht die Frage nach ihrer Zeitauffassung so spannend. Als Quelle bei einer solchen Fragestellung scheinen mir die beiden Bücher des Rabbi Abraham Ibn Daud von Interesse zu sein – sein Geschichtsbuch Sefer ha-Qabalah (SQ) und sein philosophisch-theologisches Traktat Al-ʿAqīdah ar-Rafīʿah (AR).
Abraham Ibn Daud, Geschichtsschreiber, Philosoph, Astronom, vermutlich auch Arzt, wurde geboren um 1110 in Cordoba, der Hauptstadt des umayyadischen Kalifates und dem kulturellen Zentrum Andalusiens des 12. Jhs. Er war ein Sohn der Tochter des berühmten Gelehrten Isaak Albaliyah.4 Die Erziehung genoss er im Hause dessen Sohnes, seines Onkels, und dem Schüler von Isaak Alfasi, – Baruch Albaliyah.5 Aus seinen Schriften kann man schließen, dass er ausreichende Kenntnisse sowohl in der Bibel, dem Talmud, der hebräischen Poesie als auch in den Naturwissenschaften und der griechischen Philosophie besaß. Darüber hinaus soll er auch mit der polemischen Literatur der Christen, der Moslems und der Karäer, eventuell auch mit dem Evangelium und dem Koran vertraut gewesen sein. Von seinen Werken sind uns sieben bekannt, zwei davon allerdings nur ihrem Namen nach.6 Das auf Arabisch verfasste theologisch-philosophische Traktat Al-ʿAqīdah ar-Rafīʿah (AR, "Der erhabene Glaube") ist nur in zwei hebräischen Übersetzungen aus dem 14. Jh. – Emunah Ramah (ER)7 von R. Salomon Ben Labi und Emunah Niśʾah (EN)8 von R. Samuel Moṭoṭ erhalten.9 Das traditionshistorische Buch Sefer ha-Qabalah (SQ, "Buch der Tradition")10 wurde auf Hebräisch verfasst und von drei weiteren ebenso auf Hebräisch geschriebenen Werken begleitet: Divrey Malkey Yisraʾel (DMY, "Geschichte der Könige Israels"),11 Midraš Zeḫaryah (MZ, "Auslegung der Prophetie Sacharjas")12 und Zeḫer Divrey Romi (ZDR, "Chronik der römischen Geschichte").13
Die Verwendung von Photoschaltern zur gezielten Kontrolle von Systemen birgt ein hohes Potential hinsichtlich biologischer Fragestellungen, bis hin zu optoelektronischen Anwendungen. Infolge einer Photoanregung kommt es zu Geometrieänderungen, die einen erheblichen Einfluss auf ihr photophysikalisches Verhalten haben. Die Änderungen der photochemischen, wie photophysikalischen Eigenschaften, beruht entweder auf der Isomerisierung von Doppelbindungen oder auf perizyklischen Reaktionen. Durch sorgfältige Modifikationen, wie beispielsweise die Änderung der Konjugation durch unterschiedlich große π-Elektronensysteme, der Molekülgeometrie oder der Veränderung des Dipolmoments, lassen sich intrinsische Funktionen variieren.
Die Kombination dieser Eigenschaften stellt eine komplexe Herausforderung dar, da diese Änderungen einen direkten Einfluss auf wichtige Charakteristika wie die Adressierbarkeit, die Effizienz und die Stabilität der Moleküle haben. Darüber hinaus spielt die thermische Stabilität eine erhebliche Rolle im Hinblick auf die Speicherung von Energie oder Informationen für Anwendungsbereiche in der Energiegewinnung und Datenverarbeitung.
Für die Anwendung solcher photochromen Moleküle ist hinsichtlich der oben genannten Eigenschaften auch das Wissen über den photoinduzierten Reaktionsmechanismus unabdingbar.
Im Rahmen dieser Arbeit wurde der Einfluss auf die Isomerisierungsdynamik organischer Photoschalter durch unterschiedliche Modifikationen mittels stationärer und zeitaufgelöster Spektroskopie untersucht. Im Bereich der Merocyanine konnte ein Derivat vorgestellt werden, das ausschließlich zwischen zwei MC-Formen (trans/cis) isomerisiert. Die interne Methylierung am Phenolatsauerstoff der Chromeneinheit verhindert die Ringschlussreaktion zum SP und somit seinen zwitterionischen Charakter. Die stabilen Grundzustandsisomere TTT und CCT weisen durch den Methylsubstituenten eine hypsochrome Verschiebung ihrer Absorptionsmaxima auf, während TTT das thermodynamisch stabilste Isomer darstellt. Das MeMC wies eine erstaunlich hohe Effizienz seiner Schaltamplituden, insbesondere der TTT → CCT Photoisomerisierung auf, sowie eine überaus hohe Quantenausbeute.
Das MeMC wies zudem eine signifikante Lösungsmittelabhängigkeit auf, die sich insbesondere in der Photostabilität bemerkbar macht. Während das MeMC in MeCN und EtOH photodegradiert, konnte in EtOH/H2O eine konstante Reliabilität festgestellt werden. Diese Zuverlässigkeit impliziert nicht nur eine Stabilisierung durch das Wasser, sondern auch eine Resistenz gegenüber Hydrolysereaktionen. Darüber hinaus konnten kinetische Studien eine hohe thermische Rückkonversion von CCT zu TTT bei Raumtemperatur nachweisen, womit auf schädliche UV-Bestrahlung verzichtet werden könnte.
Die Untersuchung der Kurzzeitdynamiken beider Grundzustandsisomere gab Aufschluss über die Beteiligung anderer möglicher MC-Intermediate und den Einfluss der Methylgruppe auf das System. Mittels quantenchemischer Berechnungen konnte eine erste Initiierung um die zentrale Doppelbindung beider Isomere bestimmt werden, die jeweils zu einem heißen Grundzustandsintermediat führt, bis nach einer zweiten Isomerisierung der endgültige Grundzustand der Photoprodukte populiert wird. Dies bedeutet, dass die trans/cis-Isomerisierung über TTT-TCT-CCT und die Rückkonversion über CCT-CTT-TTT erfolgt.
Im Bereich der Hydrazon-Photoschalter konnten unterschiedlich substituierte Derivate mittels statischer und zeitaufgelösten UV/Vis-Studien untersucht werden. Da ESIPT Prozesse eine wichtige Funktion bei der Kontrolle von biologischen Systemen spielen, wurden verschiedene Hydrazonderivate hinsichtlich ihrer Reaktionsmechanismen untersucht. Als Rotoreinheit diente zum einen eine Benzothiazolkomponente, die die interne H-Bindung des angeregten Z-Hydrazons schwächen sollte und zum anderen wurde ein Chinolinsubstituent eingesetzt, der als Elektronenakzeptor diente und den H-Transfer begünstigt. Der Einsatz der Benzothiazolkomponente bewirkte die gewünschte Vergrößerung der bathochromen Verschiebung des E-Isomers, sowie eine deutliche Erhöhung der thermischen Stabilität des metastabilen
Zustands. Dies bestätigten die zeitaufgelösten Studien der Z zu E Isomerisierung, bei denen die Isomere im Vergleich zum Chinolinhydrazonderivat, in beiden ausgewählten Lösungsmitteln metastabile Z-Intermediate zeigten und eine Lebenszeit bis in den µs-Zeitbereich aufwiesen. Die Rückreaktion beider Derivate (HCN) und (HBN) hingegen zeigte eine barrierelose Umwandlung in die beteiligten Photoprodukte. Trotz der Verwendung des Chinolinsubstituenten zusammen mit Naphthalin als Rotoreinheit (HCN), konnte kein ESIPT Prozess beobachtet werden. HCB mit einer Kombination aus einem Chinolinrotor und eines Benzothiazolsubstituenten, wies eine Hydrazon-Azobenzol-Tautomerie auf, die ein prototropes Gleichgewicht zwischen dem E-Hydrazon und der E-Azobenzolform (E-AB) ausbildete. Die Reaktionsdynamiken des Z-Hydrazons zum E-AB wiesen eine ultraschnelle Bildung des Photoproduktes auf, während die Rückreaktion über einen ESIPT im sub-ps-Bereich erfolgte. Dieser H-Transfer hat die Bildung des angeregten E-Hydrazons zur Folge. Interessanterweise wurde kein Rückprotonentransfer nachgewiesen, sondern die mögliche Formation eines Z-AB gefunden. Damit unterscheidet sich dieser Reaktionsmechanismus erheblich von den typischen ESIPT Prozessen, die normalerweise zu ihrem Ausgangsmolekül zurückrelaxieren. Des Weiteren konnte ein Pyridinoxid und Benzoylpyridin-substituiertes Hydrazon charakterisiert werden, bei denen die stationären Studien kein Schaltverhalten, sondern Photodegradation aufwiesen. Die zeitaufgelösten Daten ergaben ebenfalls keine Photoproduktbildung, was die These der Photozersetzung unterstützt. Die Verwendung von zusätzlich substituierten Rotoreinheiten, wie beispielsweise Pyridinoxid und Benzoylpyridin, die aufgrund fehlender Protonenakzeptormöglichkeit keine interne H-Bindung ausbilden, erlaubt keine Bildung des Z-Hydrazon Isomers.
Um die kontinuierlich auf uns einströmende Menge an Reizen zu verarbeiten, ist es wichtig, die Informationen genau zu selektieren. Ein hilfreicher Mechanismus ist hierbei die Aufmerksamkeit gezielt nur auf eine Informationsquelle zu richten und zu verarbeiten.
So ist es möglich, selbst in komplexen Situationen, wie zum Beispiel einer Feier mit vielen verschiedenen Gesprächen, ganz gezielt ein einzelnes herauszufiltern.
Der Effekt von Aufmerksamkeit auf auditory steady-state Responses (aSSR) wurde in der Vergangenheit schon in verschiedenen Studien mit unterschiedlichen Messverfahren und Stimuli untersucht. Dabei wurden teils widersprüchliche Ergebnisse gefunden, die entweder gar keine oder auf sehr kleine Frequenzbereiche beschränkte Aufmerksamkeitseffekte fanden.
Das Ziel dieser Studie war es, die Auswirkungen von Aufmerksamkeit auf die aSSR innerhalb eines größeren Frequenzspektrums (11 Hz, 23 Hz, 41 Hz, 73 Hz und 97 Hz) zu analysieren. Für diesen Zweck wurden den Probanden nach Instruktion der zu beachtenden Seite jeweils zwei benachbarte Modulationsfrequenzen während vier aufeinander folgenden Blöcken dichotisch präsentiert. Die Probanden wurden angewiesen, Trägerfrequenzänderungen auf der zu beachtenden Seite durch Betätigen einer Maustaste anzugeben. Die Registrierung der aSSR-Antworten geschah mittels Elektroenzephalogramm (EEG). Auch die durch die Stimulation hervorgerufene P300 wurde dargestellt.
Bezüglich des Effekts von Aufmerksamkeit auf die aSSRs zeigte sich nach Analyse der gewonnenen Daten im Frequenzbereich von 23 Hz eine Auswirkung. Diese stellte sich in Form einer Amplitudensteigerung auf der jeweils durch den Probanden beachteten Präsentationsseite dar. Bei einer Modulationsfrequenz von 41 Hz kam es bei Präsentation auf der rechten Seite zu höheren Amplituden als bei Präsentation auf der linken Seite. Bei 73 Hz und 97 Hz konnte keinerlei Auswirkung weder der Aufmerksamkeit noch der Präsentationsseite registriert werden. Auffällig war bei den präsentierten Tönen im 20 Hz und 70 Hz Bereich auch eine im Vergleich zu den anderen Frequenzbereichen (11 Hz, 41 Hz und 97 Hz) verlängerte Reaktionszeit der Probanden. In Kombination mit der Modulation der aSSR-Amplitude durch Aufmerksamkeit bei 23 Hz könnte dies ein Hinweis auf einen förderlichen Einfluss der Aufgabenschwierigkeit auf die Detektierbarkeit von Aufmerksamkeitseffekten sein.
Im Gegensatz hierzu zeigte die dargestellte P300 in allen präsentierten Blöcken einen deutlichen Effekt der Aufmerksamkeit. Dieser äußerte sich ebenfalls in einer Steigerung der Amplitude.
Es scheint also zumindest ein moderater Einfluss von Aufmerksamkeit auf die aSSRs zu existieren. Gleichzeitig wirkt dieser allerdings stark abhängig von gewähltem Stimulus und Messmethode. Der Effekt von Aufmerksamkeit auf die P300 konnte dagegen gut repliziert werden und scheint daher bei dichotischer Stimulation ein deutlicher Marker für Aufmerksamkeit zu sein.
Die digitale Revolution stellt viele traditionelle Industrien vor große Herausforderungen. Auf dem Finanzmarkt werden innovative Geschäftsmodelle geschaffen, die die Rahmenbedingungen, unter denen Finanzprodukte und -dienste angeboten werden, drastisch verändern. Infolgedessen entstehen rechtliche Unsicherheiten sowohl für die Marktakteure als auch für die Aufsicht. Diese Unsicherheiten weisen auf die Notwendigkeit hin, den Rechtsrahmen an die technologische und ökonomische Entwicklung anzupassen. Im Rahmen dieser Dissertation werden die Herausforderungen für das Aufsichts- und Wettbewerbsrecht untersucht, die die digitale Transformation des Finanzmarktes verursacht. Der Finanzmarkt wird vor allem durch die Entstehung von FinTechs, durch das Eintreten von BigTechs in den Finanzbereich und durch die Veränderung der Produkte und Dienstleistungen traditioneller Anbieter auf der Grundlage moderner Technologien transformiert. Die Arbeit gibt einen Überblick über die zentralen innovativen Geschäftsmodelle, der mit den zahlreichen praxisrelevanten Beispielen begleitet wird. Anschließend folgt eine Beurteilung des Umfanges und der Effizienz der vorhandenen und vorgeschlagenen aufsichtsrechtlichen Vorschriften. Diese Erkenntnisse dienen als Grundlage für die wettbewerbsrechtliche Analyse des Finanzmarktes mit dem Fokus auf die plattform- und algorithmenbasierten Geschäftsmodelle im zweiten Teil der Dissertation. Da werden wettbewerbsrechtliche Konstellationen betrachtet, die zwischen konkurrierenden innovativen Geschäftsmodellen entstehen. Die Verfasserin befasst sich mit der Problematik der Definition des relevanten Marktes bei den algorithmen- und plattformbasierten Geschäftsmodellen, der Beurteilung ihrer Marktmacht, den möglichen Auswirkungen der Netzwerkeffekte auf die mehrseitigen Plattformen. Ferner werden solche Aspekte wie Datenzugriff als wettbewerbsrechtlicher Faktor und die Rolle der Algorithmen für die Durchführung wettbewerbswidrigen Praktiken analysiert. Infolgedessen wird ein Überblick über mögliche kartellrechtliche Probleme gegeben, die im Rahmen der Digitalisierung im Finanzmarkt auftreten können, sowie die Vorstellungen darüber, wie sich Wettbewerbsfaktoren verändern sollten, wenn die Anwendung der traditionellen Konzepte des Wettbewerbsrechts nicht immer möglich oder sinnvoll ist. Es werden die Bereiche identifiziert, in denen das europäische und deutsche Wettbewerbsrecht derzeit nicht in der Lage ist, die von den innovativen Geschäftsmodellen stammenden Herausforderungen effektiv zu bewältigen. Im dritten Teil der Dissertation wird erörtert, wie sich das Aufsichts- und das Wettbewerbsrecht ergänzen und zusammen ein System der Ex-ante- und Ex-post-Regulierung bilden. Es wird dargestellt, wie die aufsichtsrechtlichen Anforderungen an die Finanzinstitute, FinTechs und BigTechs mit den ausgewählten Wettbewerbsergebnissen im Finanzsektor zusammenhängen. Darüber hinaus erklärt die Verfasserin, inwiefern einige aufsichtsrechtliche Vorschriften wettbewerbsnachteilig oder wettbewerbsfreundlich auswirken können und warum die Koordination zwischen den aufsichts- und wettbewerbsrechtlichen Instrumenten und Ansätzen essenziell ist. Schließlich werden die Vor- und Nachteile unterschiedlicher Optionen zur Regulierung innovativer Geschäftsmodelle auf dem Finanzmarkt auf einer abstrakteren Ebene erwogen.
Hintergrund und Fragestellung: Nomogramme können durch individuelle Prognoseberechnungen Patienten helfen, Therapieentscheidungen zu treffen sowie ihre Gesundheitskompetenz durch ein besseres Krankheitsverständnis zu fördern. Nomogramme sind graphische Darstellungen von Regressionsgleichungen, mit denen sich verschiedene Endpunkte berechnen lassen. In der vorliegenden Arbeit sollen neben Hintergrundwissen zu Nomogrammen auch Gütekriterien für eine kritische Nutzung von Nomogrammen im klinischen Alltag sowie eine Übersicht empfehlenswerter Nomogramme vorgestellt werden.
Methode: Es fand eine systematische Literaturrecherche in der Datenbank Medline im Zeitraum von September 2014 bis Mai 2016 statt. Gesucht wurde auf englischer Sprache nach Nomogrammen in der Urologie anhand des Suchterms „Nomogram AND urology“. Einschlusskriterien für die Betrachtung waren vorhandener Abstract sowie englische oder deutsche Sprache. Die Bewertung der Nomogramme fand unter folgenden Gesichtspunkten statt: Fallzahl, Aktualität, Validierung, Gütekriterien sowie klinische Anwendung.
Ergebnis: Insgesamt hat die Literaturrecherche 311 Nomogramme in der Urologie zu verschiedenen Erkrankungen und Organsystemen identifizieren können. Für die Bereiche Urodynamik, Nebenniere, entzündliche Erkrankungen der Harnwege, Penis, Urolithiasis, Urothelkarzinome, Nierenkarzinome und Prostatakarzinome sind 122 extern validierte Nomogramme gefunden worden. Dabei wurde die fehlerhafte Nutzung des Nomogrammbegriffs deutlich, zumal Tabellen, Perzentilenkurven und Diagramme als solche beschrieben wurden. Hinsichtlich der Qualität der publizierten Modelle gibt es noch Verbesserungsbedarf. So sind viele publizierte Modelle nicht extern validiert oder nur einem Datensplitting unterzogen worden, was die Übertragbarkeit in fremde Populationen behindert. Weiterhin bestehen Mängel bei der Konzeption der Studien zur Nomogramm-Entwicklung, bei der Rekrutierung der Patienten und bei der Datenqualität.
Fazit: Die vorliegende Arbeit identifiziert die klinisch sinnvollsten und erprobten Nomogramme für den Einsatz in der Praxis (siehe Tabellen 1-9). Durch Fortschritte in Medizin und Technik können Nomogramme mit Hilfe von hochqualitativen Daten sowie einheitlicher Qualitätsstandards zur Entwicklung und Etablierung dieser in Zukunft einen wertvollen, klinisch sinnvollen Einsatz zur Verbesserung der Therapieentscheidung bei Patienten erfahren. Neue Biomarker, insbesondere auf Grundlage von Genomanalysen, sowie optimierte bildgebende Verfahren könnten zukünftig Bestandteil von Nomogrammen werden. Weiterhin sollte die Evaluation des klinischen Nutzens der Nomogramme sowie ein Vergleich der Modelle unter gleichen Bedingungen in Zukunft erfolgen, bevor diese im klinischen Alltag Anwendung finden.
Die vorliegende Arbeit handelt von der Entwicklung, dem Bau, den Zwischenmessungen sowie den abschließenden Tests unter kryogenen Bedingungen einer neuartigen, supraleitenden CH-Struktur für Strahlbetrieb mit hoher Strahllast. Diese Struktur setzt das Konzept des erfolgreich getesteten 19-zelligen 360 MHz CH-Prototypen fort, der einen weltweiten Spitzenwert in Bezug auf Beschleunigungsspannung im Niederenergiesegment erreichte, jedoch wurden einige Aspekte weiterentwickelt bzw. den neuen Rahmenbedingungen angepasst. Bei dem neuen Resonator wurde der Schwerpunkt auf ein kompaktes Design, effektives Tuning, leichte Präparationsmöglichkeiten und auf den Einsatz eines Leistungskopplers für Strahlbetrieb gelegt. Die Resonatorgeometrie besteht aus sieben Beschleunigungszellen, wird bei 325 MHz betrieben und das Geschwindigkeitsprofil ist auf eine Teilcheneingangsenergie von 11.4 MeV/u ausgelegt. Veränderungen liegen in der um 90° gedrehten Stützengeometrie vor, um Platz für Tuner und Kopplerflansche zu gewährleisten, und in der Verwendung von schrägen Stützen am Resonatorein- und ausgang zur Verkürzung der Tanklänge und Erzielung eines flachen Feldverlaufs. Weiterhin wurden pro Tankdeckel zwei zusätzliche Spülflansche für die chemische Präparation sowie für die Hochdruckspüle mit hochreinem Wasser hinzugefügt. Das Tuning der Kavität erfolgt über einen neuartigen Ansatz, indem zwei bewegliche Balgtuner in das Resonatorvolumen eingebracht werden und extern über eine Tunerstange ausgelenkt werden können. Der Antrieb der Stange soll im späteren Betrieb wahlweise über einen Schrittmotor oder einen Piezoaktor stattfinden. Für ein langsames/ statisches Tuning kann der Schrittmotor den Tuner im Bereich +/- 1 mm auslenken, um größeren Frequenzabweichungen in der Größenordnung 100 kHz nach dem Abkühlen entgegenzuwirken. Das schnelle Tuning im niedrigen kHz-Bereich wird von einem Piezoaktor übernommen, welcher den Balg um einige µm bewegen kann, um Microphonics oder Lorentz-Force-Detuning zu kompensieren. Der Resonator wird von einem aus Titan bestehendem Heliummantel umgeben, wodurch ein geschlossener Heliumkreislauf gebildet wird.
Derzeit befinden sich mehrere Projekte in der Planung bzw. im Bau, welche auf eine derartige Resonatorgeometrie zurückgreifen könnten. An der GSI basiert der Hauptteil des zukünftigen cw LINAC auf supraleitenden CH-Strukturen, um einen Strahl für die Synthese neuer, superschwerer Elemente zu liefern. Weiterhin könnte ein Upgrade des vorhandenen GSI UNILAC durch den Einsatz von supraleitenden CH-Resonatoren gestaltet werden. Zudem besteht die Möglichkeit, die bisherige Alvarez-Sektion des UNILAC alternativ durch eine kompakte, supraleitende CH-Sektion zu realisieren. Ebenfalls sollen die beiden parallelbetriebenen Injektorsektionen des MYRRHA-Projektes durch den Einsatz von supraleitenden CH-Strukturen erfolgen.
Die Coltrims-Methode hat sich seit den 1990er Jahren als gutes experimentelles Instrument in der Atomphysik und darüberhinaus etabliert. Sie beruht darauf, dass die bei einer Reaktion entstehenden Fragmente mit ortssensitiven Detektoren nachgewiesen werden. Die Signale der Detektoren wurden bisher mit einem analogen Vorverstärker verstärkt und dann mit Hilfe eines Constant Fraction Discriminators in digitale Signale umgewandelt. Die Zeitinformation der digitalen Signale wurden von Time to Digital Convertern aufgenommen und im Computer gespeichert. Mit dieser Form der Auslese und Analyse der von den Detektoren stammenden Signale können nur einige wenige Fragmente nachgewiesen werden. Die Lösung dieses Problems besteht also darin, eine neue Variante für die Auslese und Analyse der Signale zu finden. Diese wurde in der Verwendung eines Transientenrekorders gefunden. Anstatt nur die Zeitinformation zu speichern, nimmt dieser die gesamte Signalform der Detektoren auf. Die Aufgabe, die in dieser Arbeit bearbeitet werden sollte, bestand darin, eine Software zu entwickeln, mit deren Hilfe der Transientenrekorder gesteuert werden kann. Auch sollte ein Weg gefunden werden nur die für das Experiment notwendigen Informationen des aufgenommenen Zeitfensters zu speichern. Des Weiteren sollten Methoden aufgezeigt werden, wie die aufgenommen Signale untersucht und deren Parameter extrahiert werden können. Diese Methoden wurden dann an realen Signalen getestet. Nachdem im ersten Kapitel die Motivation zu dieser Arbeit und einige theoretische Hintergründe vorgestellt werden, wird im zweiten Kapitel auf verschiedene Methoden der Signalanalyse eingegangen. Der Augenmerk liegt dabei sowohl auf Einzel- sowie Doppelsignalanalyse. Die Güte der vorgestellten Algorithmen wird mit Hilfe von künstlichen Signalen ermittelt. Es zeigt sich, dass die beste Methode die zeitliche Position der Einzelsignale zu finden, der Pulsfit ist. Mit dieser Methode kann eine Auflösung von etwa 50 ps erzielt werden. Bei der Betrachtung der Doppelsignale stellt sich heraus, dass der minimale Abstand zwischen den Signalen 5 ns bis 7 ns betragen muss. Das dritte Kapitel zeigt eine Anwendung des neuen Aufnahmesystems. Dort werden die physikalischen Ergebnisse, die mit Hilfe des neuen Systems gewonnen werden konnten, mit einem herkömmlichen Aufnahmesystem verglichen. Aufgrund der geringeren Totzeit des neuen Aufnahmesystems konnte mehr Statistik gewonnen werden. Der dadurch gewonnene Vorteil zeigt sich deutlich in den Ergebnissen, bei denen eine vierfach Koinzidenz verlangt wird. Bei dem nächsten Kapitel beschriebenen Experiment mussten sehr viele Fragmente nachgewiesen werden. Hierzu wird ein weiteres Kriterium neben der Zeitsumme vorgestellt mit dem die Anodensignale einander zugewiesen werden können. Die in diesem Kapitel gezeigten physikalischen Ergebnisse zeigen die Impulsverteilungen für Neon und Helium für unterschiedliche Lichtintensitäten bzw. Ionisationsprozesse. Im darauf folgenden Kapitel wird beschrieben, wie die neue Aufnahmemethode dazu verwendet werden kann, die von den Detektoren kommenden Signale genauer zu analysieren. Die physikalische Reaktion führte dazu, dass von dem Detektor hauptsächlich Doppelsignale aufgenommen wurden. Dies erlaubt die Untersuchung der Doppelsignalalgorithmen an realen Signalen. Hierbei zeigte sich, dass die Totzeit bei realen Signalen vergleichbar mit der Totzeit bei künstlichen Signalen ist. Die Algorithmen können bei Abständen der Einzelsignale von weniger als 10 ns die Position der Signale nicht mehr genau bestimmen. Anhand der Pulshöhenverteilung kann gezeigt werden, dass der verwendete Detektor in der Mitte eine geringere Nachweiseffizienz hatte. Im letzten Kapitel wird die Güte der verschiedenen Methoden der Einzelsignalanalyse anhand von realen Signalen überprüft. Dabei wurden Signale desselben Detektors mit unterschiedlichen Vorverstärkern verstärkt. Die beiden Vorverstärker unterschieden sich in ihrer Bandbreitenbegrenzung. Die Daten wurden mit einem Transientenrekorder mit 2 GS aufgenommen. Es wird gezeigt wie diese Daten umgewandelt werden können, so dass sie einem System mit nur 1 GS entsprechen. Dies erlaubt es die Güte der Methoden für Signale eines Systems mit 2 GS mit denen eines Systems mit 1 GS zu vergleichen. Es zeigt sich in der Pulshöhenverteilung, dass die Signale des stärker bandbreitenbegrenzten Vorverstärkers vergleichbar mit den künstlichen Signalen sind. Die Signale des weniger stark bandbreitenbegrenzten Vorverstärkers weisen eine zu starke Abhängigkeit ihrer Breite von der Pulshöhe auf. Aus diesem Grund sind die Ergebnisse des letzt genannten Vorverstärkers abweichend von den Ergebnissen mit den künstlichen Signalen. Bei diesem Vorverstärker zeigte der einfache Constant Fraction Algorithmus die beste Auflösung.
Die Dissertation befasste sich mit der Ausprägung physiologischer Parameter bei Patienten mit Bipolarer Störung in Assoziation mit kognitiver Leistungsfähigkeit. Ziel der Arbeit war es zu überprüfen, ob Symptome einer akuten bipolaren Episode, wie kognitive Störungen und eine reduzierte HRV, sich auch in der Remissionsphase zeigen und miteinander assoziiert sind. Des Weiteren wurde überprüft, ob remittierte bipolare Patienten eine höhere Erregung im ANS, abgeleitet durch physiologische Parameter und der Angst als aktueller Zustand, während der Bearbeitung von kognitiven Aufgaben aufweisen und ob diese Merkmale miteinander und mit residualen manischen oder depressiven Symptomen assoziiert sind. So wurden 26 bipolare Patienten in Remission zu 25 Gesunden rekrutiert und überprüft, ob signifikante Beeinträchtigungen in der HRV und anderen physiologischen Parametern auftreten, ob bipolare Patienten in Remission im Vergleich zur Kontrollgruppe signifikant in den Tests zur kognitiven Leistungsfähigkeit beeinträchtigt sind und ob es Unterschiede zwischen psychopathologischen Auffälligkeiten in den zwei Gruppen gibt. Des Weiteren wurde überprüft, ob die abgeleiteten Parameter miteinander zusammenhängen. Zur Erhebung der kognitiven Fähigkeiten wurden verschiedene testpsychologische Verfahren durchgeführt, wie z. B. der Trail Making Test sowie ein eigens entwickeltes Gedächtnisparadigma mit Lern- und Wiedergabeaufgaben am Computer. Während Letzterem wurden die physiologischen Parameter Fingertemperatur, Hautleitwert, Atem- und Herzfrequenz abgeleitet. Die Parameter der HRV wurden in einer 5-Minuten-Ruhemessung erhoben. Die individuelle Psychopathologie wurde u. a. durch das Beck-Depressions-Inventar und die BechRafaelsen Mania Scale ermittelt. Zur Auswertung der Ergebnisse wurden statistische Analysen berechnet, für die Gruppenvergleiche nichtparametrische Tests und für die Zusammenhangshypothesen Spearman Korrelationen. Die Dissertation konnte zeigen, dass bipolare Patienten in Remission, im Vergleich zu Gesunden, eine reduzierte HRV haben, in exekutiven Funktionen und dem verbalen episodischen Gedächtnis beeinträchtigt sind, höhere depressive Werte und eine höhere durchschnittliche psychische Belastung aufweisen. Die reduzierte HRV in Ruhe spricht dabei für eine anhaltende Dysbalance des ANS in Remission. Kognitive Defizite scheinen die Episoden ebenfalls zu überdauern und nicht nur mit klinischen Zuständen assoziiert zu sein. Die abgeleiteten Parameter waren nicht miteinander assoziiert. Eine Limitation der Dissertation ist, dass zwar viele (z. B. Alter, Geschlecht, Nikotinkonsum), aber nicht alle auf die HRV einflussnehmenden Kovariablen erhoben wurden (wie z.B. der BMI) und die Patienten sich nach DSM-IV Kriterien zwar in Remission befanden, aber nicht symptomfrei waren. Alles in allem können die Ergebnisse helfen, die Ätiologie und Folgen der Bipolaren Störung besser zu verstehen. Bipolare Patienten scheinen auch in Remission eine Dysbalance des ANS und kognitive Defizite zu haben. Eine reduzierte HRV als mögliches Zeichen für eine maladaptive Reaktion auf Stress scheint bei remittierten bipolaren Patienten eine schlechtere Lernleistung nicht weiter zu verschärfen. Remittiere bipolare Patienten zeigen außerdem keine höhere Erregung im ANS während der Bearbeitung von kognitiven Aufgaben als Gesunde.
Kognitive Defizite bestehen über die Episoden hinaus auch bei den remittierten Patienten und stehen nicht mit unterschwelligen depressiven Symptomen oder einer höheren Erregung im ANS in Zusammenhang. In Bezug auf die Behandlung und Rehabilitation sind die reduzierte HRV und die anhaltenden kognitiven Defizite bei remittierten bipolaren Patienten zu berücksichtigen und einzubeziehen. Für zukünftige Studien wäre es sinnvoll die HRV, einhergehend mit neuropsychologischen Beeinträchtigungen, in verschiedenen Episoden (manisch, depressiv, remittiert) zu untersuchen, um etwaige krankheitsübergreifende Veränderungen und Unterschiede zwischen den Episoden und der Remission zu überprüfen.
In Anbetracht der Bedeutung einer Metastasierung eines Mamma- Karzinoms in Hinblick auf Therapie und Prognose der Patientin ist es von Bedeutung, möglichst sensitive und spezifische Methoden zum frühzeitigen Nachweis von Metastasen anzuwenden. Nach wie vor stehen diesbezüglich radiologische Verfahren an erster Stelle, sind jedoch mit einer Reihe von Nachteilen behaftet. Aufgrund dieser Tatsache wurden in einer Vielzahl von Studien eine Reihe von Knochenmarkern bezüglich ihrer Aussagekraft beim metastasierten Mamma- Karzinom untersucht. Der Knochenmarker Prokollagen Typ I aminoterminales Propeptid wird im Rahmen der Kollagensynthese beim Knochenaufbau freigesetzt und erlaubt somit Rückschlüsse auf den Knochenstoffwechsel. Inwieweit die Werte von Prokollagen Typ I aminoterminales Propeptid einen veränderten Knochenstoffwechsel beim metastasierten Mamma- Karzinom repräsentieren, war Ziel dieser Studie. Zu diesem Zweck wurden die Serum Proben von 80 Patientinnen mit Mamma- Ca untersucht. Die Bestimmung der Werte für den Knochenmarker Prokollagen Typ I aminoterminales Propeptid erfolgte mit Hilfe des ElektroChemiLumineszenz Immuno Assay „ECLIA“ von Roche Diagnostics. Um die Aussagekraft des Markers weiter zu bestimmen, erfolgte eine Unterteilung des Patientenkollektivs in Patientinnen prä- und postmenopausal. Die Werte für Prokollagen Typ I aminoterminales Propeptid wurden nun bezüglich ihrer Relation zum Ausmaß der Metastasierung weiter untersucht. Im Rahmen dieser Studie konnte ein Zusammenhang zwischen der Höhe der Prokollagen Typ I aminoterminales Propetid Werte und einer Knochenmetastasierung aufgezeigt werden. Dennoch scheint der Knochenmarker Prokollagen Typ I aminoterminales Propeptid aufgrund unterlegener Spezifität und Sensitivität nicht geeignet, herkömmliche Methoden zum Nachweis von Knochenmetastasen zu ersetzen. Es ist jedoch denkbar, die Bestimmung von Prokollagen Typ I aminoterminales Propeptid als zusätzliche Methode zur Einschätzung und Überwachung der Entwicklung von Knochenmetastasen einzusetzen.
Hintergrund: Den derzeitigen Therapiestandard in der Behandlung des lokal begrenzten Prostatakarzinoms stellen die radikale Prostatektomie und perkutane Radiotherapie dar. Aufgrund der besonderen Strahlenbiologie des PCa (α-/β-Wert 1,5 Gy) ist von einer höheren Sensitivität gegenüber einer Hypofraktionierung auszugehen. Die aktuellen Literaturdaten zeigen eine Nichtunterlegenheit der moderaten Hypofraktionierung gegenüber dem konventionellen Regime, jedoch sind Langzeitergebnisse hinsichtlich der Spättoxizität noch spärlich. In dieser Arbeit werden onkologische Ergebnisse sowie GI-/ und GU-Toxizität nach moderat hypofraktionierter, intensitätsmodulierter (IMRT/VMAT) und bildgeführter (IGRT) Radiotherapie mit simultan integriertem Boost (SIB) in einem universitären Tumorzentrum untersucht.
Patienten und Methoden: In den Jahren 2010 bis 2016 wurden an der Uniklinik Frankfurt 170 Patienten mit histologisch gesichertem lokal begrenzten bis fortgeschrittenen PCa (T1-4, N0-1, M0) mittels moderat hypofraktionierter EBRT in IG-IMRT- bzw. IG-VMAT- und SIB-Technik behandelt. Alle Patienten wurden nach D’Amico-Klassifikation stratifiziert und risikoadaptiert therapiert. Die GI- und GU-Toxizität wurde gemäß CTC v4.0 wöchentlich unter der Therapie und während der Nachbeobachtungszeit erfasst. Ein biochemisches Rezidiv wurde definiert als PSA-Nadir + 2 ng/ml. Die Nachbeobachtung erfolgte 6-8 Wochen, 2-3 Monate und 6 Monate nach Radiotherapie sowie anschließend mindestens einmal jährlich. Die Datenauswertung erfolgte retrospektiv. Für die statistischen Analysen wurden die Software-Programme Excel und SPSS verwendet. Die Kaplan-Meier-Überlebensanalysen wurden mittels Log-Rank-Test verglichen und bei signifikanten Unterschieden in eine Cox-Regression-Analyse aufgenommen. Ein möglicher Zusammenhang zwischen dosimetrischen/klinischen Parametern und GI-/GU-Toxizität wurde mittels Chi-Quadrat-Test nach Pearson geprüft. Für alle durchgeführten Analysen galt ein p-Wert von <0,05 als statistisch signifikant. Ergebnisse: Patienten der low-risk- (n = 15) sowie intermediate- und high-risk-Gruppe mit Z.n. TURP (n= 14) erhielten eine GRD von 73,6 Gy für das PTV1 bzw. 58,24 Gy (PTV2) mit einer Einzeldosis von 2,3 Gy (SIB) bzw. 1,82 Gy in 32 Fraktionen. Patienten der intermediate- (n = 70) und high-risk- (n = 71) Gruppe erhielten eine GRD von 75,9 Gy (PTV1) bzw. 60,06 Gy (PTV2) mit einer Einzeldosis von 2,3 Gy (SIB) bzw. 1,82 Gy in 33 Fraktionen. Eine zusätzliche Bestrahlung des LAG (PTV3) mit einer GRD von 46,0 Gy und 1,84 Gy Einzeldosis in 25 Fraktionen erhielten alle Patienten mit radiologischer cN1-Situation bzw. im Falle eines LK-Befallsrisikos von >20% nach Roach-Formel (n = 86). Eine (neo-) adjuvante AHT erhielten insg. 98 Patienten. Die mediane Nachbeobachtungszeit betrug 36 Monate (Range: 5-84 Monate). Die 24-, 36-, und 60-Monate-ÜLR lagen in der IR-Gruppe bei 98,4%, 96,1% bzw. 89,7% (OS), 98,6% bzw. 94,9% (BC), 97% bzw. 84,5% (DFS) und 98,6% (FFM), in der HR-Gruppe bei 93,1% bzw. 88,8% (OS), 89%, 84,7% bzw. 75,3% (BC), 82,5%, 74,2% bzw. 65,9% (DFS) und 98%, 95,7% bzw. 84,8% (FFM). Weder für die AHT noch die RT des LAG konnte eine Verbesserung des OS, DFS, FFM sowie der BC gezeigt werden. Eine Akuttoxizität Grad 2 trat bei 6,5% (GI) bzw. 16,5% (GU) und Grad 3 bei 0,6% (GI) bzw. 0% (GU) auf. Eine Spättoxizität Grad 2 trat bei 2,9% (GI) bzw. 12,4% (GU) und Grad 3 bei 0,6% (GI) bzw. 1,2% (GU) auf.
Schlussfolgerung: Mit Implementierung der moderat hypofraktionierten EBRT nach o.g. Schema (73,6 Gy (79,9 Gy nach EQD2 (αβ 1,5)) bzw. 75,9 Gy (82,4 Gy nach EQD2 (αβ 1,5)) konnten im Rahmen dieser retrospektiven Kohortenstudie sehr gute Ergebnisse für intermediate- und high risk-Patienten des lokal begrenzten bis fortgeschrittenen PCa hinsichtlich der onkologischen Endpunkte sowie der GI-/GU-Toxizität, vergleichbar mit den besten Ergebnissen aktueller Publikationen, erzielt werden. Diese Ergebnisse bekräftigen die zunehmende Anwendung dieser Bestrahlungstechnik. Die Kohorte sollte zur Validierung der Ergebnisse weiter expandiert und mit einer längeren Nachbeobachtungszeit erneut ausgewertet werden.
Flusssysteme im mediterranen Raum reagieren besonders sensitiv auf Veränderungen von Umweltbedingungen, z.B. durch Neotektonik, Klimaänderungen und Landnutzung. Geowissenschaftler der Goethe-Universität Frankfurt untersuchen in diesem Zusammenhang das Einzugsgebiet des Rio Palancia (Spanien), um über die Erstellung einer Sediment-Massenbilanzierung die Entwicklungsgeschichte des Systems zu erforschen. Zur Identifizierung und Quantifizierung verschiedener Sediment-Ablagerungstypen wurde das Georadarverfahren (GPR) eingesetzt. Ziel dieser Arbeit ist es, am Beispiel fluvialer Lockersedimente das Zustandekommen von Radargrammen noch besser zu verstehen und möglichst viel Information über den Untergrund aus einem Radargramm zu extrahieren. An 30 Standorten wurden GPR-Messungen durchgeführt und mit Geoelektrik und Rammkernsondierungen kombiniert. Die Einführung einer Bearbeitungs- und Auswertesystematik gewährleistet die Vergleichbarkeit von Radardaten unterschiedlicher Standorte. Als Besonderheit werden die Radargramme jeweils auf zwei verschiedene Arten bearbeitet und dargestellt, um sowohl Strukturen herauszuarbeiten als auch die – zumindest relative – Amplitudencharakteristik zu erhalten. Erst dadurch wird eine Auswertung mithilfe der erweiterten Radarstratigraphie-Methode möglich. Diese setzt sich aus der klassischen Radarstratigraphie und der neu entwickelten Reflexionsanalyse zusammen. Dabei werden systematisch Radar-Schichtflächen, Radareinheiten und Radarfazies ermittelt und anschließend die Amplitudengröße, die Polarität und die Breite der Reflexionen betrachtet. Die Radarstratigraphie liefert objektive Erkenntnisse über Form und Verlauf von Untergrundstrukturen, während mithilfe der Reflexionsanalyse Aussagen zu relativen Änderungen von Wassergehalt, Korngrößenverteilung und elektrischer Leitfähigkeit möglich sind. Mithilfe der Radarstratigraphie wurde die Radarantwort verschiedener Sediment-Ablagerungstypen im Untersuchungsgebiet verglichen. Die Radargramme zeigen unterschiedliche Zusammensetzungen von Radarfazies. Eine Unterscheidung und räumliche Abgrenzung verschiedener Ablagerungstypen mit GPR ist somit durchführbar. Die Dielektrizität des Mediums bestimmt, zusammen mit der elektrischen Leitfähigkeit, die Geschwindigkeit und Dämpfung der elektromagnetischen Welle sowie die Reflexionskoeffizienten. Um das Zustandekommen von Radargrammen im Detail nachvollziehen zu können, ist es notwendig, die Dielektrizitätskoeffizienten (DK) der untersuchten Sedimente zum Zeitpunkt der Messung zu kennen und die Abhängigkeit des DK von petrophysikalischen Parametern zu verstehen. Deshalb wurden Proben aus den Rammkernsondierungen entnommen. Im Labor wurden der Real- und Imaginärteil des DK im Radarfrequenzbereich (mit Schwerpunkt auf 200 MHz) in Abhängigkeit von Wassergehalt, Trockendichte, Korngrößenverteilung und Kalkgehalt mithilfe der Plattenkondensatormethode bestimmt. Der DK ist in erster Linie vom Wassergehalt abhängig. Es konnte eine für die Sedimente im Untersuchungsgebiet charakteristische Wassergehalts-DK-Beziehung ermittelt werden. Die resultierende Kurve ist gegenüber entsprechenden in der Fachliteratur zu findenden Beziehungen verschoben, was vermutlich auf die hohen Kalkgehalte der Proben zurückzuführen ist. Für trockene Sedimente wurde eine Korrelation des DK mit der Trockendichte festgestellt. Bei der Bestimmung der Absorptionskoeffizienten fiel auf, dass Proben mit hohem Tonanteil selbst bei geringen Wassergehalten außerordentlich hohe Dämpfungskoeffizienten aufweisen können. Die charakteristische Wassergehalts-DK-Beziehung wurde für Modellierungen von Radardaten genutzt, die dann mit Messdaten verglichen wurden. Über die Modellierung einer einzelnen Radarspur konnte die spezielle Charakteristik der entsprechenden gemessenen Spur erklärt werden, die durch den Einfluss einer dünnen Schicht zustande kommt, deren Mächtigkeit an der Grenze der theoretischen Auflösung für die verwendete Radarfrequenz liegt. Auf Basis der Erkenntnisse aus der erweiterten Radarstratigraphie an einem Radargramm auf fluvialen Lockersedimenten war es zudem möglich, ein komplettes Radargramm zu simulieren. Es gibt das gemessene Radargramm vereinfacht, aber in guter Übereinstimmung wieder. Die Georadarmethode erwies sich als sehr gut geeignet für die Untersuchung, Identifizierung und Quantifizierung fluvialer Sedimente im Palancia-Einzugsgebiet. Die im Rahmen dieser Doktorarbeit entwickelte erweiterte Radarstratigraphie-Methode stellt ein systematisches und weitgehend objektives Verfahren zur Auswertung von Radargrammen dar, das sich auch auf andere Untersuchungsgebiete übertragen lassen sollte. Durch Laboruntersuchungen wurde der Einfluss petrophysikalischer Parameter auf den DK bestimmt. Über die Modellierungen konnten die Ergebnisse großskaliger Geländemessungen mit denen kleinskaliger Labormessungen verknüpft werden. Die insgesamt gewonnenen Erkenntnisse tragen zu einem besseren Verständnis von Radargrammen bei.
Auswirkung der Chemisorption von Organothiolaten auf den elektrischen Widerstand dünner Goldfilme
(2018)
Hochgeordnete Monolagen von Organothiolaten auf Goldoberflächen bilden sich bei Kontakt einer Goldoberfläche mit einer Lösung eines Thiols oder Thioacetats spontan aus. Die Adsorption auf dünnen Metallfilmen mit Schichtdicken im Bereich von 25 - 100 nm führt zu einer Änderung des elektrischen Widerstandes des Films, die an Goldfilmen mit Schichtdicken von 25 - 40 nm über eine einfache Zweipunktmessung verfolgt wurde. Die Proportionalität der Widerstandsänderung mit der Menge an adsorbiertem Material konnte für die in dieser Arbeit verwendeten Dünnschichtsensoren bestätigt werden. Zu diesem Zweck wurden gleichzeitig Widerstands- und Oberflächenplasmonenresonanzmessungen an 40 nm starken Goldfilmen durchgeführt. In diesen Experimenten zeigt sich die Widerstandsmessung zur Beobachtung der Adsorptionskinetik als die überlegene Technologie.
Die durch Mikrokontaktdrucken und Freiätzen der gedruckten Strukturen hergestellten Sensoren zeigen eine individuelle Signalintensität. Die Normierung auf die maximale, durch Belegung mit Hexadecanthiol (HDT) oder Dodecanthiol erreichte, Signalstärke ermöglichte den Vergleich der maximalen Signalstärke von Thiolatmonolagen, die durch Belegung mit n-Alkanthiolen (CH_3(CH_2)_(n-1)-SH mit n = 12, 16, 19, 22 und 33, Cn), 11-Mercaptoundecyl-hexaethylenglycol (HSC11EG6OH), Adamantan-1-thiol (AdaSH), Triptycenthiol (TrpSH), Anthracen-2-thiol (Ant-0SH), Anthracen-2-alkanthiolen (Ant-(CH_2)_n-SH mit n = 1 - 5 und 10, Ant-nSH), p-Terphenyl-4-thiol (TP0SH), p-Terphenyl-4-alkanthiolen (TP-(CH_2)_n-SH mit n = 1 - 4, TPnSH) und p-Terphenyl-4-ethanthioacetat (TP2SAc) erzeugt wurden. Die Größe der Widerstandsänderung zeigt eine deutliche Abhängigkeit vom organischen Rest des Oberflächenadsorbats. Für die Verstärkung des Signals wurde die folgende Reihenfolge gefunden: Trp > Ada > Ant-0 > Ant-1 > TP0 > TP1 > Ant-2 > TP2 > Cn (n = 12 - 33) = C11EG6OH = Ant-n (n = 3 - 11) = TPn (n = 3, 4). Bei bekannter Verstärkung des Signals durch ein Adsorbat kann unabhängig von der Oberflächenrauigkeit die Oberflächenbedeckung durch Chemisorbate in einer Güte bestimmt werden, die der durch STM- und TEM-Messungen erreichten vergleichbar ist. Die Methode wurde angewendet, um Schichten von TP2SH und TP2SAc, die bei 20 und 60 °C aus ethanolischer Lösung abgeschieden wurden, zu vergleichen. Die Unterschiede in der Oberflächendichte, die durch eine Erhöhung der Abscheidungstemperatur zu beobachten sind, können durch eine Beschleunigung der Reaktion nach Arrhenius erklärt werden. Auch die Temperaturabhängigkeit der Abscheidungsgeschwindigkeit von HDT aus ethanolischer Lösung an Goldoberflächen, die in einem Bereich von -10 °C bis +30 °C betrachtet wurde, ist mit dem Arrhenius'schen Ansatz konform. Die Aktivierungsenergie der Adsorption von HDT auf Gold wurde auf E_a = 23 +-6 kJ/mol bestimmt.
Die Konzentrationsabhängigkeit der Abscheidung aus ethanolischer Lösung an Goldoberflächen wurde für HDT, AdaSH, TP2SH und TP2SAc untersucht. Um eine Präadsorption der Thiole vor dem eigentlichen Start der Messung zu verhindern, wurde eine Apparatur mit einem Diaphragma aus Aluminium entwickelt, das beim Start der Messung mit dem Sensor durchstoßen wird. Mit Ausnahme von TP2SH zeigen alle Adsorptive ein Adsorptions-Desorptions-Gleichgewicht. Die Adsorptionsisothermen bei 20 °C lassen sich am besten durch die Freundlich-Isotherme beschreiben. Während die Reaktionsordnung im Adsorbat für die Adsorption der Thiole nahe an 1 liegt, hat sie für die Adsorption von TP2SAc einen Wert von ca. 1/4. Damit ergibt sich für die Geschwindigkeitskonstante der Adsorption k_a(HDT) = (2,3 +-0,2) 10^4 L/(mol s), k_a(AdaSH) = (6,1 +-0,2) 10^4 L/(mol s), k_a(TP2SH) = (7,3 +-0,4) 10^3 L/(mol s) und k_a(TP2SAc) = (8 +-3) 10^-2 L^(1/4)/(mol^(1/4) s). Die Adsorptionskurven der Thiole weisen bei Konzentrationen unterhalb von 5 10^-5 mol/L einen linearen Bereich auf, der einer zwischenzeitlichen Diffusionskontrolle zugeordnet wird.
An die aufgenommenen Adsorptionskurven der Thiole wurden literaturbekannte Modelle numerisch angepasst und teilweise weiterentwickelt. Die Anpassung konnte durch die Einführung einer vor der Oberfläche gelagerten Diffusionsgrenzschicht, in welcher der zeitabhängige Verlauf der Analytkonzentration in einem System von 10 Schichten berechnet wurde, deutlich verbessert werden. Von allen getesteten Modellen zeigt nur die Adsorption mit Ausschlussmuster keine Konzentrationsabhängigkeit der Geschwindigkeitskonstante der Desorption. Dieses Modell bezieht den Verlust von Adsorptionsplätzen mit ein, die einem besetzten Adsorptionsplatz benachbart sind und durch das adsorbierte Teilchen verdeckt werden. Der daraus resultierende Zusammenhang zwischen der Konzentration freier Adsorptionsplätze und dem Bedeckungsgrad der Oberfläche Theta_F(Theta) ist abhängig vom Verhältnis der Stoßfrequenz zwischen den Teilchen und der Oberfläche zur Platzwechselfrequenz der Teilchen auf der Oberfläche. Zur Bestimmung von Theta_F(Theta) für die numerische Anpassung der Adsorptionskurven von HDT und TP2SH wurde die Oberflächenbesetzung in einem Monte-Carlo-Verfahren für eine Konzentrationsreihe in Zehnerpotenzschritten simuliert.
Die vorliegende Arbeit beschäftigt sich mit den Auswirkungen von Feldenkrais-Bewegungsübungen auf ein Klientel, dass aus freien Stücken an Feldenkraiskursen eines niedergelassenen Feldenkraislehrers teilnimmt, wobei insbesondere gesundheitliche und psychosomatische Aspekte betrachtet werden. Feldenkrais formulierte die theoretischen Grundlagen der Methodik auf einem breiten wissenschaftlichen Fundament verschiedener Fachrichtungen, wie Medizin, Neurobiologie, Psychologie, Physik, Systemtheorie und Anthropologie und lieferte damit eine Erklärung, wie die von ihm entwickelte Bewegungsmethodik Ein uss auf die Entwicklung und die Lernfähigkeit eines jeden Individuums nehmen kann. Der Mensch wird dabei, im Gegensatz zur dualistischen Sichtweise, die in der klassischen Schulmedizin vorherrscht, als ein Ganzes gesehen, in dem die Bereiche Körper und Seele nicht zu trennen sind. Die moderne Neurobiologie bestätigt mit der Anwendung neuer Messmethoden, wie dem funktionellen Magnetresonanztomogramm bedeutende Aussagen der Theorie von Feldenkrais. Systemtheorie und Konstruktivismus sind dabei grundlegend für den feldenkrais'schen Denkansatz und für die heutige Psychosomatik, wie sie unter anderem von von Uexküll beschrieben wird. Der Mensch wird hier als autopoietisches System betrachtet, welches sich selbst ständig reguliert. Somit kann er sich wechselnden Umweltein flüssen anpassen und ist zur Selbstheilung fähig, worin Feldenkraislehrer, respektive Psychotherapeuten ihn unterstützen können. Zunehmend suchen Menschen zur Förderung der persönlichen Weiterentwicklung, wie gleichzeitig zur Bewältigung gesundheitlicher und insbesondere psychosomatischer Probleme Feldenkraiskurse auf. Vor diesem Hintergrund wurden in der Praxis eines niedergelassenen Feldenkraislehrers die Kursteilnehmer vor- und direkt nach der Teilnahme an zehn Feldenkraisstunden, sowie im Langzeitverlauf zu den Auswirkungen befragt. Die 82 erwachsenen Probanden der Studie waren zu 2/3 weiblich, bei einem Durchschnittsalter von 46 Jahren. Die Stichprobe glich in ihrem psychosomatischen Beschwerdestatus der durchschnittlichen Allgemeinbevölkerung, wohingegen ein überdurchschnittlich hohes Schulbildungs- und Berufsausbildungsniveau vorlag. Die Motivation der Kursteilnehmer lag gleichermaßen im Wunsch, die Fähigkeit der Körperwahrnehmung und die Beweglichkeit zu steigern, wie verschiedene Beschwerden und Erkrankungen zu verbessern. Anhand zweier standardisierter psychometrischer Fragebögen, dem Giessener Beschwerdebogen und der Symptom-Checkliste SCL-90-R konnte eine signifikante Verbesserung psychosomatischer und somit gesundheitlicher Beschwerden direkt nach dem Kurs, wie auch im Langzeitverlauf ein halbes Jahr nach Kursende beschrieben werden. Dazu zählen im Einzelnen Gliederschmerzen, Herzbeschwerden, Somatisierungstendenz, Zwanghaftigkeit, Depressivität, Aggressivität und die grundsätzliche psychische Belastung. Mithilfe des neu entwickelten Selbsteinschätzungsfragebogens des Verfassers ergaben sich weitere Hinweise auf die positiven Langzeitauswirkungen nicht nur im seelischen Bereich, sondern in weiteren zentralen Bereichen menschlichen Handelns, namentlich dem Wahrnehmungsbereich, dem kognitiven Bereich und der Beweglichkeit. Die Verbesserungen betrafen mehrere Lebensbereiche, den privaten, wie auch den beruflichen Bereich. Die Sicherheit der Feldenkraismethode gegenüber dem Auftreten unerwünschter Nebenwirkungen wurde ebenfalls dokumentiert. Anhand kontrollierter randomisierter Folgestudien sollten die Ergebnisse abgesichert werden. Der kreative Wissensaustausch von Neurobiologen mit moderner Messtechnik und wissenschaftlich arbeitenden Feldenkraislehrern, die zur Entwicklung spezieller Messmethodik einen Beitrag leisten können, kann zu neuen Erkenntnissen auf den Gebieten des Lernverhaltens, der Reifung und der Gesundheit des Menschen führen.
Polytraumatisierte Patienten erleiden in ca. 40% der Fälle eine Verletzung des Thorax. Die Verletzung des Thorax erhöht die Dauer der Beatmungszeit, das Pneumonie-Risiko, die Intensiv- und Krankenhausverweildauer sowie das Letalitätsrisiko. Seit 2003 wurde im Universitätsklinikum Frankfurt am Main ein standardisiertes Behandlungsverfahren zur intensivmedizinischen Behandlung nach Polytrauma implementiert und weiterentwickelt. Eckpunkte des Konzeptes sind eine kinetische Therapie im Rotorest®Bett, eine initiale Beatmung mit einem PEEP von 15mbar, eine frühzeitige assistierte Spontanatmung und frühzeitige enterale Ernährung. In dieser Arbeit wurden die Auswirkungen der Weiterentwicklung des Behandlungsprotokolls, insbesondere die Auswirkungen der Ernährung und Sedierung auf die Leberfunktion und die Entwicklung einer Pneumonie, untersucht. Das Behandlungsprotokoll sah folgende Behandlungsstandards vor: 2003: Kontrollierte Beatmung und Therapie im Rotorest®Bett in den ersten Tagen, PEEP-Einstellung entsprechend der Oxygenierung, individuelle Entwöhnung von der Beatmung und der Rotorest®-Therapie. Der Kostaufbau überwiegend parenteral, Sedierung mit Propofol und Midazolam. 2006: 72h Beatmung mit einem PEEP von 15mbar, Rotorest®-Bett, zügige assistierte Beatmungsform. Individuelle Entwöhnung von der Beatmung und der Rotorest®-Therapie, der Kostaufbau parenteral und enteral, Sedierung überwiegend mit Midazolam. 2009: Reduktion der Rotorest®-Therapie mit einem PEEP von 15mbar auf 40 bis 48h, PEEP-Reduktionsprotokoll. Der Kostaufbau erfolgte primär enteral, die Sedierung mit vorwiegend Propofol und z. T. Midazolam.
Es konnten retrospektiv 108 Patienten (ISS 37+13) eingeschlossen werden. Bei 38,3% der Patienten lagen unvollständige Akten vor, oder die Rotorest® Therapie wurde erst nach 48h begonnen. Durch das Konzept konnten die Beatmungszeit von 17±15 auf 8±8 Tage und die intensivstationäre Verweildauer von 17±9 auf 10±9 Tage signifikant reduziert werden (p<0,001), die Krankenhausverweildauer blieb gleich. Die Pneumonierate fiel nicht signifikant von 25% in 2003 nach einem Anstieg auf 37% in 2006 auf 17% in 2009. Das Pneumonierisiko stieg mit der Höhe der aufgenommenen kcal/kgKG, der Gesamt-kcal/d bis Tag 7 sowie der Summe der kcal bis Tag 5 signifikant (p<0,05). Eine Leberdysfunktion erhöhte das Letalitätsrisiko signifikant (Rs 0,267; p<0,01). Die Rate an Leberdysfunktionen binnen der ersten 14 Tage fiel von 34,7% in 2003 nach einem Anstieg auf 43,4% im Jahr 2006 auf 22,1% in 2009 (p<0,001). Eine Leberdysfunktion korrelierte, bei Auftreten bis Tag 7, sowohl mit einer überwiegend parenteralen Ernährung bis Tag 5 (p=0,021) als auch der Höhe der parenteralen kcal (Rs 0,248; p=0,02) und der Höhe der Gesamt-kcal (Rs 0,201; p=0,038). Der Anteil an Patienten mit parenteraler Ernährung konnte von 92,2% (bis Tag 5) in 2003 und 97,5% in 2006 auf 65% in 2009 signifikant reduziert werden, ebenso wie die Gesamtmenge an verabreichten Kalorien bis Tag 7 (von 1210kcal/d auf 1113kcal/d und 2009 auf 851kcal/d; p<0,001). Keine Korrelation bestand zwischen der Entstehung einer Leberdysfunktion und der Beatmung, der Höhe des PEEP oder der Entwicklung einer Pneumonie. Im Gegensatz dazu erhöhte die verabreichte Menge von Midazolam in den ersten 7 Tagen (mg/kg/d) das Pneumonie-Risiko signifikant (p=0,024). Als unabhängige Risikofaktoren für die Entwicklung einer Pneumonie stellten sich die Transfusion von EKs (OR 3,646 95%CI 1,074-12,383), die Höhe der verabreichten Gesamtkalorien (>5000kcal) binnen der ersten fünf Tage (OR 3,219 95%Cl 1,033-10,034) und die Höhe des Beatmungsspitzendruckes (OR 1,135 95%Cl 1,010-1,275) dar.
Die Daten der vorliegenden Arbeit bestätigen den kritisch abzuwägenden Einsatz von Midazolam in der Intensivtherapie. Weiterhin zeigte sich ein signifikanter Einfluss der Ernährung auf die Morbidität der Patienten entsprechend der Literatur. Die vorliegenden Ergebnisse weisen weiter darauf hin, dass bei schwerverletzten Patienten auch die Gesamtkalorienzufuhr gering zu halten ist, um die Rate an Pneumonien zu reduzieren. Die Beatmung mit einem PEEP von 15mbar in den ersten Behandlungstagen unter PiCCO-Monitoring erscheint hierbei keine negativen Auswirkungen auf die Entwicklung einer Leberdysfunktion zu haben.
Zusammenfassend kann durch ein vorwiegend enterales Ernährungsschema, mit unter den Empfehlungen der AWMF liegenden Gesamtkalorien, das Auftreten von Leberdysfunktionen und die Rate an Pneumonien signifikant reduziert, durch ein strukturiertes Therapiekonzept mit u.a. reduziertem Einsatz von Midazolam eine signifikante Reduktion der Beatmungszeit sowie der Intensivverweildauer erreicht und eine Reduktion der Pneumonierate unterstützt werden.
In den letzten Jahren beobachtet man einen Kurs, der sich weg von invasiven zu minimal-invasiven Verfahren in der Bypasschirurgie bewegt. Neue Techniken ermöglichen einen weniger traumatischen Eingriff. Dazu zählen minimal-invasive Verfahren wie PUS- und LAST-OP. Ein besonderes Augenmerk gilt der ACAB-Operation. Während des gesamten Eingriffes ist der Patient wach und atmet spontan. Schmerzfreiheit wird über einen thorakalen PDK erlangt. In dieser Studie sollen die Gruppe ACAB bezüglich ihrer prä- und postoperativen Vitalkapazität, der Blutgasanalyse, bezüglich ihres Schmerzempfindens, der postoperativen Mobilität und hinsichtlich der Akzeptanz der OP-Technik untersucht bzw. mit PUS und LAST verglichen werden.
68 Patienten wurden zwischen Januar 2000 und August 2005 in die Studie aufgenommen und drei Operationsgruppen zugeteilt: ACAB (n = 26), PUS (n = 24) und LAST (n = 18). Von ihnen wurden präoperative und postoperative Lungenfunktionswerte (VC) am dritten postoperativen Tag und Blutgasanalysen (pO2 und sO2) eine, sechs und zwölf Stunden postoperativ erhoben. Mit Hilfe der Visuellen Analogskala wurden die Patienten zu festgesetzten Zeitpunkten zu ihrem Schmerzzustand befragt. Aussagen über den Mobilitätsgrad und Akzeptanz konnten mit Einsatz eines Fragebogens erzielt werden.
In der ACAB-Gruppe zeigten sich postoperativ signifikant höhere Lungenvolumina und Normwerte in der Blutgasanalyse im Vergleich zu den Gruppen B und C. Signifikant niedriger gaben die Patienten der Gruppe A (ACAB) (31,8 +/− 5) im Vergleich zu B (PUS) (52,2 +/− 7,3) und Gruppe C (LAST) (61,6 +/− 5,8) Schmerzen an. Die höchsten Werte auf der VAS wurden in Gruppe C (LAST) angegeben. Mobil waren bereits am Operationstag 20 von 26 Patienten der ACAB-Gruppe. Nur 4 bzw. 3 Patienten der Vergleichsgruppen konnten ebenfalls mobilisiert werden. Die Akzeptanz des ACAB-Operationsverfahrens von Seiten der Patienten war hoch. 25 (96,1%) Patienten würden sich erneut wach operieren lassen.
Es zeigte sich, dass weniger invasive Operationsmethoden und veränderte anästhesiologische Verfahren einen positiven Einfluss auf die Erholung des Patienten haben. Nach sorgfältiger Indikationsstellung stellen alle drei Methoden komplikationsarme Eingriffe dar. Der Verzicht auf die Allgemeinanästhesie wirkte sich besonders auf die Mobilisation, Lungenfunktion, BGA und damit auf die Rekonvaleszenz der Patienten aus. Ein Blick in die Zukunft lässt annehmen, dass sich dieses Verfahren in Zukunft im klinischen Alltag etablieren lässt.
Hintergrund: In dieser prospektiven Studie wurden erstmals die Auswirkung der Lageveränderung von der Rücken- auf Bauchlagerung auf Hämodynamik und Säure-Basen-Haushalt unter Einlungenventilation bei Patienten untersucht, die sich einer elektiven endoskopischen Ösophagusresektion unterzogen.
Methodik: Insgesamt wurden 10 Patienten (Alter 63 ± 12 Jahre) der ASA-Klassen I-III eingeschlossen. Ausgeschlossen waren Patienten der ASA-Klasse IV-V und Patienten bei denen die Einlungenventilation aus technischen Gründen nicht durchführbar war. Aufgezeichnet wurden neben hämodynamischen Parametern (HF, MAD, ZVD, PAPmean, HI, SVRI) auch respiratorische Parameter (pH, BE, HCO3-, paCO2, paO2, SaO2, SgvO2).
Ergebnisse: Hämodynamik: Die Herzfrequenz stieg unter Einlungenventilation in Bauchlage signifikant gegenüber dem Ausgangswert an. Auch der ZVD stieg 30min nach Umlagerung vom Rücken in Bauchlage unter Einlungenventilation signifikant an. Der Herzindex lag unter Einlungenventilation in Bauchlage signifikant unter dem Endwert.
Säure-Basen-Haushalt: paCO2 und Standard-Bicarbonat (HCO3-) lagen sowohl vor als auch nach Umlagerung im Normbereich. Der pH und der base excess (BE) zeigten einen minimalen Abfall 15min. nach Lagerungsmanöver vom Rücken- in die Bauchlage. Der Sauerstoffpartialdruck (paO2) fiel signifikant um 50% im Vergleich zum Ausgangswert unter Einlungenventilation ab. Die gemischt-venöse Sättigung (SgvO2) fiel ebenfalls unter Einlungenventilation unter den Normbereich, während der Umlagerung vom Rücken auf den Bauch konnte ein Anstieg der SgvO2 um 1,5% verzeichnet werden. Nach Umlagerung traten keine signifikanten Veränderungen der Werte auf.
Schlussfolgerung: Die Ergebnisse der vorliegenden Untersuchung zeigen, dass laparoskopische Ösophagusresektionen mit Veränderungen der hämodynamischen und respiratorischen Parameter einhergehen, die klinische Relevanz war dabei in dem von uns untersuchten Kollektiv als gering anzusehen.
Auswirkungen einer Mutation des Adhäsionrezeptors PSGL-1 bei humanen neutrophilen Granulozyten
(2009)
Der VNTR Polymorphismus des PSGL-1 ist schon seit längerer Zeit Gegenstand wissenschaftlicher Untersuchungen. Der Rezeptor weist je nach Genotyp eine unterschiedliche Länge auf. Dabei ist der Rezeptor mit dem Allel A der längste, das C-Allel weist phänotypisch den kürzesten Rezeptor auf. Der Rezeptor mit dem B-Allel liegt mit der Länge in der Mitte der drei Rezeptoren. In dieser Studie wurde das Roll- und das Adhäsionsverhalten von Leukozyten mit den Genotypen AA bzw. BB mit Hilfe eines Flusskammermodells untersucht. Dieses Verhalten kommt im Rahmen der Bindung zustande, welche P-Selektin und PSGL-1 miteinander eingehen. Das Blut von acht Probanden wurde untersucht, vier Probanden wiesen den Genotyp AA, die anderen vier den Genotyp BB auf. Die Leukozyten wurden aus dem Vollblut isoliert, verdünnt und in das Flusskammermodell eingespeist. Die verdünnte Zellsuspension wurde mittels einer Pumpe über ein Schlauchsystem durch eine Messkammer befördert, welche im Vorfeld mit P-Selektin beschichtet wurde. Dort konnten die Zellen mikroskopisch untersucht und videotechnisch dokumentiert werden. Anschließend konnte die Rollgeschwindigkeit der neutrophilen Granulozyten und die Anzahl der adhärenten Zellen an der Oberfläche durch Computerprogramme ermittelt werden. Als Resultat ergab sich ein signifikanter Unterschied zwischen der Rollgeschwindigkeit der Zellen des Genotyps AA und der Zellen des Genotyps BB. Dabei wiesen die Zellen mit dem B-Allel wegen der geringeren Länge des PSGL-1 eine höhere Rollgeschwindigkeit auf, als die Zellen mit dem AAllel, deren PSGL-1 länger ist. Zudem blieben signifikant weniger Leukozyten mit dem BAllel an der Oberfläche haften als die Leukozyten der anderen Gruppe. Daraus lässt sich schließen, dass die Bindungskraft zwischen PSGL-1 und PSelektin von der Länge des PSGL-1 abhängig ist. Der kürzere Rezeptor (B-Allel des PSGL-1) weist also eine geringere Bindungskraft auf als der längere Rezeptor (A-Allel des PSGL-1). Die Bindung zwischen PSGL-1 und PSelektin lässt sich wahrscheinlich pharmakologisch beeinflussen. Es wurden Antikörper entwickelt, die in klinischen Studien Erfolg versprechende Ansätze bei der Entzündungshemmung gezeigt haben. Die aktuelle Literatur zu klinisch pharmakologischen Behandlungsansätzen wurde in dieser Arbeit diskutiert.
Trotz zunehmender Verbesserungen in der Diagnostik und Therapie von Krebserkrankungen leiden onkologische Patienten häufig unter gravierenden tumorund therapiebedingten Symptomen und Nebenwirkungen wie Fatigue, Reduktion der Leistungsfähigkeit und Lebensqualität (Courneya, 2003a; Crevenna et al., 2002; Ferriset al., 2009). Zahlreiche Untersuchungen und Übersichtsarbeiten zeigen, dass körperliche Aktivität in den verschiedenen Phasen der Krebstherapie möglich ist und zu einer Reduktion der Nebenwirkungen sowie zu einer Verbesserung der Lebensqualität und Leistungsfähigkeit führen kann (Cramp & Byron-Daniel, 2012; Jones & Peppercorn, 2010; Mishra et al., 2012b; Schmitz et al., 2010). In aktuellen Leitlinien wird körperliche Aktivität deshalb als wichtige supportive Therapiemaßnahme während der Akuttherapie und im Rahmen der Nachsorge sowie Rehabilitation empfohlen. Analog der zunehmenden Individualisierung medizinischer Diagnostik- und Therapiestrategien in der Onkologie (z. B. vergleichbare oder sequentielle Therapieregime, targeted therapies, Patientenwunsch), gibt es inzwischen auch im Bereich der Sportmedizin Forderungen nach individuell angepassten, effektiven körperlichen Trainingsprogrammen (Jensen et al., 2011). Bei der Erarbeitung dieser Bewegungsangebote sollten Informationen zur Einschätzung der körperlichen Leistungsfähigkeit sowie zu den individuellen persönlichen und medizinischen Voraussetzungen der Betroffenen berücksichtigt werden. Entsprechend muss bei der Planung der körperlichen Aktivität auch die aktuelle Behandlungsphase im Rahmen der onkologischen Therapien einbezogen werden. Neben der zeitlichen Einteilung der Therapiephasen in Akut- oder Rehabilitationsphase gibt es die Möglichkeit, den Therapieprozess in Abhängigkeit der Heilungsaussicht einzuordnen. Dabei wird die Prognose einer Tumorerkrankung in Abhängigkeit des Tumorstadiums, des Lymphknotenbefalls und der möglichen Metastasierung in einen heilbaren (kurativen) und nicht heilbaren (palliativen) Therapieansatz eingestuft. Während ein Großteil der Studien die Wirkung bewegungstherapeutischer Interventionen bei Patienten mit kurativem Therapieansatz untersucht, gibt es bisher nur sehr wenig Untersuchungen bei unheilbar kranken Tumorpatienten (Albrecht & Taylor, 2012). Infolgedessen sind Aussagen zu prognosebezogenen Informationen über die individuelle Leistungsfähigkeit und zu unterschiedlichen physischen und psychischen Reaktionenaufgrund körperlicher Aktivität bei dieser Patientengruppe bisher nur bedingt möglich und erlauben folglich keine zielgruppenspezifischen Empfehlungen.
Angesichts dieses Forschungsdefizits ist das Kernziel der vorliegenden Arbeit, mögliche Unterschiede von Lebensqualität, Fatigue und aerober Kapazität (VO2peak) in Abhängigkeit der Heilungsaussicht (kurativ/palliativ) initial zu identifizieren und gleichzeitig die jeweiligen Veränderungen im Rahmen der Intervention über den Gesamtuntersuchungszeitraum zu überprüfen.
Initial konnten 300 onkologische Patienten (histologisch gesichertes Malignom) mit unterschiedlichen Krebsentitäten, in verschiedenen Behandlungsphasen, mit bekannter klinischer Heilungsprognose (kurativ/palliativ) und unter Berücksichtigung definierter Ein- und Ausschlusskriterien in die Untersuchung eingeschlossen werden. Mit dem Ziel einer individuellen Sportberatung und Trainingsplangestaltung absolvierten die Studienteilnehmer eine sportmedizinische Gesundheits- und Leistungsdiagnostik zur Ermittlung der Ausdauerleistungsfähigkeit und Bestimmung des Trainingsbereichs. Die Messungen erfolgten auf dem Fahrradergometer (0W; 25W Inkrement; 3 Minuten) und umfassten Herzfrequenz, Blutdruck, maximale Sauerstoffaufnahmefähigkeit (VO2peak), Laktatkonzentration und subjektives Belastungsempfinden (Borg Skala). Baseline- und identische Wiederholungs-untersuchungen nach 4-6 und nach 16-20 Wochen dienten gleichzeitig der Erfassung der subjektiven Parameter Lebensqualität und Fatigue (EORTC QLQ-C30) (Aaronson et al., 1993). Der Trainingsplan wurde unter Einbeziehung persönlicher Präferenzen, individueller Leistungsfähigkeit und Empfehlungen zur Gesundheitsprävention der WHO (als Orientierung für den Trainingsumfang von 150 min/Wo.) erstellt und dem Patienten in einem ca. 20minütigen Beratungsgespräch erläutert. Art, Umfang und Häufigkeit des mindestens mit moderater Intensität absolvierten Ausdauertrainings wurde durch die Patienten in einem Trainingstagebuch dokumentiert. Die Gruppenzuteilung erfolgte in Abhängigkeit der Heilungsprognose (kurativ/palliativ) unter Verwendung des TNM-Systems. Patienten mit der Prognose „heilbar“ wurden der kurativen Stichprobe zugeteilt, während Patienten mit histologisch gesichertem Nachweis von Metastasen (M1) als palliativ eingestuft wurden.
Referenzwerte waren für die VO2peak: alters- und geschlechtsentsprechende Normdaten (Median) des American College of Sports Medicine und für die Daten des EORTCQLQ-C30: das Manual „EORTC QLQ-C30 Reference Values“ einer EORTCArbeitsgruppe (Scott, 2008). Die Dateneingabe und die Aufbereitung der Rohdaten erfolgte mit Hilfe von Microsoft Excel. Für die statistische Auswertung wurden alle statistischen Analysen anschließend mithilfe der Statistikprogramme SPSS 19.0 (SPSS Inc., Chicago, IL, USA) und „BIAS für Windows“, Version 10, 2012, Universität Frankfurt) durchgeführt. Das Signifikanzniveau wurde a priori auf p<0,05 festgelegt.
Insgesamt 158 Patienten (99 kurativ, 59 palliativ; 54,9±11,1 Jahre, 108 ♀, 50 ♂) nahmen an allen drei Untersuchungen teil. Der parameterfreie Mann-Whitney-Test zeigte sowohl für Lebensqualität als auch Fatigue-Symptomatik keine signifikanten Unterschiede bei der Eingangsuntersuchung zwischen kurativen und palliativen Teilnehmern. Für die VO2peak ergab der parametrische T-Test ebenfalls keine Unterschiede bei den Initialwerten. Nach Abschluss der Intervention zeigten sich in beiden Patientengruppen sowohl bei der Lebensqualität als auch der Fatigue-Symptomatik signifikante Verbesserungen über den gesamten Untersuchungszeitraum. Anschließende post-hoc-Tests ergaben keine signifikanten Gruppenunterschiede bezüglich der Entwicklung während der verschiedenen Untersuchungszeiträume und der Differenz von Initial- und Abschlusswert. Die Varianzanalyse mit Messwiederholung (Anova) zeigte sowohl für Kurativ- als auch Palliativpatienten signifikante Veränderungen der VO2peak über die Zeit. Einen Haupteffekt im Bezug auf die Gruppe oder eine Interaktion von Zeit und Gruppe gab es dabei nicht. Folglich entwickelten sich beide Gruppen über den Untersuchungszeitraum vergleichbar.
Die vorliegenden Ergebnisse zeigen, dass die Heilungsprognose, kurativ oder palliativ, keinen unterschiedlichen Einfluss auf die Trainierbarkeit der Betroffenen zu haben scheint. Körperliches Training führte bei beiden Patientengruppen dieser Studie zu signifikanten Verbesserungen der Zielparameter. Ein Vergleich der vorliegenden Daten mit bisherigen Untersuchungsergebnissen ist aufgrund der aktuell geringen Anzahl an Studien mit Palliativpatienten und einer bisher nicht einheitlichen Palliativ-Definition schwierig.
Die sporttherapeutische Beratung, welche neben der Vermittlung von Trainingsumfang und –intensität insbesondere Trainingsziele und deren Wirksamkeit aufzeigen soll, kann Patienten und ihrem Umfeld helfen, den Stellenwert von körperlichem Training zuverstehen und bestenfalls die Compliance erhalten. Darüber hinaus kann die allgemeine Leitlinien-Empfehlung von 150 Minuten moderates Ausdauertraining pro Woche als grober Richtwert bestätigt werden. Unterschiedlich hohe Trainingsumfänge in Abhängigkeit initialer Leistungsfähigkeit weisen indessen darauf hin, dass individuelle Trainingsempfehlungen zu bevorzugen sind. Als Konsequenz aus diesen Ergebnissen ist zu empfehlen, dass sich zukünftig körperliche Aktivität als unverzichtbarer Bestandteil des supportiven Therapieangebotes für Krebspatienten mit fortgeschrittener Erkrankung, speziell bei palliativ eingestuften Patienten, etabliert.
Weitere Untersuchungen zu diesem Thema sollten insbesondere darauf abzielen, Dosis-Wirkungs-Zusammenhänge zu ermitteln und diese in symptom- und entitätsspezifische Empfehlungen zu integrieren.
Es existieren keine Vergleichsstudien, die den Einfluss eines periodisierten Maximalkrafttrainings in der tiefen Frontkniebeuge, tiefen Nackenkniebeuge und in der maschinengeführten Viertel-Nackenkniebeuge bis zu einem Kniegelenkwinkel von 120 ° auf die Entwicklung der Schnellkraftleistung, die Technikausführung, den Beschleunigungsablauf und die willkürliche neuromuskuläre Aktivierungsfähigkeit im Countermovement Jump (CMJ) sowie die winkelspezifische Entwicklung des isometrischen Maximal- und Explosivkraftvermögens der Beinextensoren untersucht haben. Aus diesem Grund wurden in zwei Forschungsprojekten an 23 weiblichen und 36 männlichen Sportstudierenden (24,11 ± 2,88 Jahre) die Auswirkungen eines periodisierten Maximalkrafttrainings in der tiefen Frontkniebeuge (Gruppe FKB, n = 20), tiefen Nackenkniebeuge (Gruppe NKB, n = 20) und der Viertel-Nackenkniebeuge bis 120-Grad-Kniegelenkwinkel (Gruppe NKB¼, n = 19) auf die Schnellkraftleistung im Squat Jump (SJ) und CMJ untersucht. Die Ausführung des CMJ wurde mit einer Digitalkamera aufgenommen, um die jeweils fünf besten Sprünge aus den Eingangs- und Ausgangstests einer Bewegungsanalyse zu unterziehen. Zu diesem Zweck erfolgte die Analyse und Auswertung der Hüft- und Kniegelenkwinkel im Umkehrpunkt des CMJ von insgesamt 740 Sprüngen. Des Weiteren wurden elektromyographische (EMG-)Ableitungen von Vastus medialis, Vastus lateralis,Rectus femoris, Biceps femoris und Erector spinae während der Ausführung des CMJ vorgenommen. Die Parallelisierung der drei Versuchsgruppen erfolgte auf Basis der Sprunghöhen im CMJ. Zusätzlich wurde eine Kontrollgruppe (K, n = 16) gebildet (Alter: 24,38 ± 0,50 Jahre)...
Das Auftreten von plötzlichem Herztod, das häufig durch ventrikuläre Tachyarrhythmien ausgelöst wird, stellt bis heute eine Herausforderung bei der Therapie der Patienten mit schwerer Herzinsuffizienz dar. Derartige Arrhythmien werden bei über 85% der Patienten mit schwerer Herzinsuffizienz beschrieben und über 50% der Todesursachen werden dabei auf das Auftreten von plötzlichem Herztod zurückgeführt. Es wird vermutet, dass das elektrische Remodeling als Teil der gesamten kardialen Umbauvorgänge bei der Entstehung einer Herzinsuffizienz die pathophysiologische Grundlage dieser Arrhythmien darstellt. Das Renin-Angiotensin-Aldosteron System spielt eine zentrale Rolle bei der Ausbildung des elektrischen Remodeling und insbesondere erhöhte Aldosteronkonzentrationen korrelieren mit dem Risiko kardiovaskulärer Zwischenfälle. Darüberhinaus konnte in zwei klinischen Studien (RALES und EPHESUS) gezeigt werden, dass die Therapie herzinsuffizienter Patienten mit den Aldosteronantagonisten Spironolacton und Eplerenon die Mortalität und Morbidität und insbesondere auch das Auftreten von plötzlichem Herztod signifikant senken konnte. Weitere Studien zeigen eine Verbindung zwischen dem Auftreten einer Herzinsuffizienz und Veränderungen in der Funktion und Expression kardiospezifischer repolarisierender K+-Kanäle. Neben den klinischen Daten, die einen protektiven Effekt der Aldosteronantagonisten bei plötzlichem Herztod belegen, ist wenig über die Auswirkungen von Aldosteron auf das elektrische Remodeling des Herzens bekannt. In dieser Arbeit sollte daher die Auswirkung einer chronischen Aldosteronexposition in Ratten auf die elektrophysiologischen Eigenschaften des Herzens untersucht werden. Dazu wurde Wistar-Ratten Aldosteron verabreicht und einigen Tieren die Aldosteronantagonisten Spironolacton und Eplerenon, um die Effekte der unspezifischen (Spironolacton) und spezifischen (Eplerenon) MR Blockade auf die elektrischen Eigenschaften der Kardiomyozyten zu untersuchen. Die Aldosteron exponierten Tiere entwickelten eine linksventrikuläre Hypertrophie, die sich unabhängig von Blutdruckveränderungen entwickelte, sowie ein signifikant verlängertes QT-Intervall, vermehrt auftretende ventrikuläre Extrasystolen und ventrikuläre Tachykardien. Die Elektrolytwerte (K+, Na+, Cl-) waren dabei nicht verändert. Die Aldosteronantagonisten Spironolacton und Eplerenon waren in der Lage, die unter Aldosteron auftretenden Veränderungen zu verhindern. Die Transkription der Untereinheiten kardiospezifischer K+-Kanäle (Ito, IKur, IK1) und des L-Typ Ca2+-Kanals war unter Aldosteronstimulation im linken Ventrikel signifikant erniedrigt. Auf Proteinebene konnte dies für die Kanaluntereinheiten Kv1.5 (IKur), Kir2.3 (IK1) und Cav1.2 (L-Typ Ca2+-Kanal) bestätigt werden. Die Untersuchung eventuell zugrunde liegender Signaltransduktionswege lieferte erniedrigte mRNA Expressionslevel der kardiospezifischen Proteinkinase C Isoformen PKC-α und PKC-ε, wohingegen die mRNA-Expression von PKC-δ unter Aldosteronstimulation unverändert war. Diese Veränderungen in der Transkription der PKC Isoformen wurden durch Behandlung der Tiere mit den Aldosteronantagonisten inhibiert, was für einen MR vermittelten Effekt spricht. Weiterhin zeigte eine chronische Aldosteronstimulation eine erniedrigte mRNA Expression von Calcineurin Aß (PPP3CB) sowie Calcineurinaktivität in linksventrikulärem Gewebe der Tiere. Dieser Effekt konnte durch die Aldosteronantagonisten nicht aufgehoben werden, so dass ein Signaltransduktionsweg, der nicht über den MR vermittelt wird, zugrunde liegen könnte. Insgesamt konnte in dieser Arbeit gezeigt werden, dass chronisch erhöhte Aldosteronkonzentrationen im Rattenherz blutdruckunabhängig zu strukturellen und elektrischen Veränderungen führen, die das Auftreten maligner ventrikulärer Arrhythmien begünstigen. Beide Aldosteronantagonisten Spironolacton und Eplerenon sind in der Lage, die durch Aldosteron vermittelten Effekte in gleicher Weise zu inhibieren. Die Ergebnisse zeigen pathophysiologische Zusammenhänge auf, die die Bedeutung von Aldosteron und der Therapie mit Aldosteronantagonisten für die Behandlung der Herzinsuffizienz und in Zukunft möglicherweise der Hypertrophie unterstreichen.
Die Überprüfung der Wirkung zweier unterschiedlicher Dehntechniken (passiv-statische – SD bzw. postisometrische – CR) auf verschiedene Beweglichkeitsparameter sowie die Analyse der Trainingseffekte während eines achtwöchigen Detrainingszeitraums waren Gegenstand dieser Untersuchung. Da zum gegenwärtigen Zeitpunkt keine Untersuchung, die sich mit der Entwicklung unterschiedlicher Beweglichkeitsparameter (Bewegungsamplitude, Dehnungsspannung und Dehngrenze) in Abhängigkeit von unterschiedlichen Dehntechniken beschäftigte, existiert, wurde mit der vorliegenden Studie das Ziel verfolgt, neue Anhaltspunkte für die Erörterung über die Entwicklung der Beweglichkeit bzw. Dehnfähigkeit zu erschließen. Zusammenfassend liegt hierbei das Interesse dieser Untersuchung in der Gewinnung von Erkenntnissen über die Entwicklung der Beweglichkeit. Dies sollte mit Hilfe einer Analyse des Verhaltens verschiedener Beweglichkeit sparameter während, nach einem Trainingszeitraum und nach einer folgenden Detrainingsperiode erreicht werden. Ein weiteres Ziel war zu überprüfen, welche Einflüße ein langfristiges Dehnungstraining auf die Maximalkraft und Explosivkraft hat. Weiterhin sollte auch geklärt werden, ob diese Beeinflussung gelenkwinkelspezifisch und von der eingesetzten Dehntechnik abhängig ist. Sowohl die postulierte Vergrößerung der maximalen Bewegungsamplitude als auch die postulierte Steigerung der maximalen Dehnungsspannung nach einem sechswöchigen Dehnungstraining wurden in der vorliegenden Arbeit bestätigt. Die Ergebnisse unserer Untersuchung zeigen, daß mit CR- und SD-Dehntechniken signifikante Verbesserungen in der Bewegungsamplitude zu erzielen sind. Diese Vergrößerung der Bewegungsamplitude ging mit einer Erhöhung der maximalen Dehnungsspannung einher. Eine Analyse des Beweglichkeitsparameters Dehngrenze hat ergeben, daß eine Rechtsverschiebung dieser Variable nach Dehnungstraining unabhängig von der eingesetzten Dehntechnik stattfand. Diese Ergebnisse zusammen mit den Erkenntnissen anderer Studien (HALBERTSMA/GÖEKEN 1994, SCHÖNTHALER/OHLENDORF 2000) führen zur Schlußfolgerung, daß diese Anpassungen gesicherte Effekte eines langfristigen Beweglichkeitstrainings darstellen und unabhängig von der eingesetzten Dehntechnik sind. Hieraus wird deutlich, daß die Dehngrenze eine sehr wichtige Variable im Hinblick auf die Beweglichkeitsforschung darstellt (OTT 2000)...
Die Diatomee C. meneghiniana reagiert sowohl auf Veränderung der Lichtintensität während des Wachstums, als auch auf Veränderungen der Eisenkonzentration im Medium. Die Erhöhung der Lichtintensität respektive die Erniedrigung der Eisenkonzentration im Medium wurden als Stresssituationen für C. meneghiniana definiert. Unter Stressbedingungen findet zunächst eine generelle Erhöhung der Zellzahl statt, wobei das Volumen der einzelnen Zellen unter Eisenmangelbedingungen stark reduziert wird. Aus diesem Grund findet man schließlich unabhängig von der Lichtintensität in den Eisenmangelkulturen niedrigere Werte für die Biovolumina als in den Kulturen mit Eisensättigung.
Es konnten je nach Kulturbedingung kleine Unterschiede in der äußeren Morphologie der Silikatschalen festgestellt werden, die sich jedoch im Rahmen der normalen Variationsbreite bewegen und daher nicht signifikant sind. In allen Kulturen konnten auf Grund der schonenden Präparationsmethode die für C. meneghiniana als typisch beschriebenen Schwebfäden aus Chitin beobachtet werden.
Die Größe der Phäoplasten ist in den Eisenmangelkulturen und in de Starklichtkulturen deutlich geringer, weshalb auch die Anzahl der Thylakoidbänder sinkt. Die für Diatomeen typische Dreifachbänderung der Thylakoide bleibt jedoch immer erhalten. Zudem zeigen die Phäoplasten der LL 12 – und HL 12 – Zellen Ansammlungen eines Stoffs, der zwar nicht näher identifiziert wurde, wobei es sich aber höchstwahrscheinlich weder um Lipid-Globuli noch um das als Speicherstoff bei Diatomeen vorkommende -1,3-Glucan Chrysolaminarin handelt.
Die Färbung der Kulturen zeigt bereits eine Veränderung in der Pigmentierung der Zellen in Abhängigkeit von der Kulturbedingung. Der Chlorophyllgehalt pro Zellen wird vor allem unter Eisenmangel reduziert, während es in Zellen der HL – Kulturen zu einer Verdoppellung des Gehalts an XC – Pigmenten kommt. Die Kombination beider Effekte führt dazu, dass die HL 12 und der LL 1 – Kultur gleichermaßen hellbraun gefärbt sind, die Färbung der HL 1 – Kultur jedoch beinahe gelb ist. Die hellere Färbung der Eisenmangelkulturen ist wahrscheinlich als Chlorose anzusehen und eine klassische Folge von Eisenmangel bei Diatomeen. Die zugehörigen DEORs der ganzen Zellen sind in den HL – Kulturen anfangs sehr hoch und sinken später.
Die Ursache ist vermutlich in der hohen Lichtintensität und der durch Erhöhung der Zellzahl im Verlauf der Anzucht entstehenden gegenseitigen Beschattung der Zellen zu sehen. Hierfür spricht auch die parallel stattfindende Abnahme der XC – Pigmente – Konzentration.
Die Ermittlung der PS I : PS II – Stöchiometrien zeigt, dass sich offenbar auch die innere Architektur der Thylakoidmembran verändert. So liegt das relative, berechnete Verhältnis von PS II zu PS I nur in der LL 12 – und der HL 1 – Kultur bei 2 : 1. Dieses Verhältnis wird üblicherweise für küstennahe unter den den Anzuchtbedingungen vergleichbaren Lichtverhältnissen lebende Spezies angenommen. Die HL 12 - und die LL 1 – Zellen hingegen weisen ein Verhältnis von 1 : 1 auf. Da es nicht möglich ist, die Veränderung in beiden Kulturen entweder mit Eisenmangel oder Starklichtstress zu erklären, muss hier von unterschiedlichen Ursachen ausgegangen werden.
Die Reoxidationskinetiken weisen darauf hin, dass die Übertragung der Energie von QA an QB je nach Kultur unterschiedlich schnellen Kinetiken folgt. Dies ist wiederum durch die Bindungsart des QB, bzw. seine Verfügbarkeit als Akzeptor bedingt.
In den O-J-I-P-Messungen zeigt sich zunächst, dass die F0 – Werte der Eisenmangelkulturen niedriger liegen. Als Ursache hierfür wird eine Verkleinerung der Antenne des PS II, die sich durch den unter Eisenmangel deutlich erniedrigten Chlorophyllgehalt pro Zelle erklären lässt, und die dadurch bedingte Verringerung der Fluoreszenz angenommen. Deutlich ist zudem, dass die Energie in den HL – Kulturen deutlich schlechter von QA an QB weitergegeben wird, weshalb auch die daraus resultierenden Fv/FM – Werte deutlich niedriger sind. Als Erklärung hierfür kommt der unter HL stark erhöhte XC – Pool in Frage, der bekanntermaßen am nichtphotochemischen Quenching beteiligt ist, das wiederum vor allem unter Lichtstress auftritt.
Mittels Anionenaustauscherchromatografie ist es möglich in den Thylakoiden der Zellen jeder Kulturbedingung mindestens fünf unterscheidbare Fraktionen zu isolieren. Fraktion I enthält ungebundenes Protein und Pigment, Fraktion II, die in bis zu drei Fraktionen untergliedert sein kann, enthält PS I, Fraktion III entspricht dem FCPa, Fraktion IV enthält ebenfalls ein Photosystem, wobei es sich hier um das bislang aus C. meneghiniana noch nicht isolierte PS II handeln könnte, und Fraktion V entspricht dem FCPb. Es fällt auf, dass die Größe der Fläche unter der 437 nm –Mittels Anionenaustauscherchromatografie ist es möglich in den Thylakoiden der Zellen jeder Kulturbedingung mindestens fünf unterscheidbare Fraktionen zu isolieren. Fraktion I enthält ungebundenes Protein und Pigment, Fraktion II, die in bis zu drei Fraktionen untergliedert sein kann, enthält PS I, Fraktion III entspricht dem FCPa, Fraktion IV enthält ebenfalls ein Photosystem, wobei es sich hier um das bislang aus C. meneghiniana noch nicht isolierte PS II handeln könnte, und Fraktion V entspricht dem FCPb. Es fällt auf, dass die Größe der Fläche unter der 437 nm – Absorption bei, Fraktion II und IV mit der Auswertung der Slotblotsignale für die Photosysteme korreliert.
Die endgültige Aufreinigung der FCPs wurde letztlich mit diskontinuierlichen Saccharosegradienten durchgeführt. Dabei zeigte sich, dass alle FCP – Fraktionen nach der Anionenaustauscherchromatografie einen mehr oder weniger großen Anteil an Verunreinigungen durch Photosysteme enthalten, die auf diese Weise abgetrennt werden konnten.
Die Kulturbedingungen haben zwar keinen Einfluss auf den Oligomerisierungsgrad von FCPa, bzw. FCPb, allerdings konnten Unterschiede in der Stabilität der Komplexe festgestellt werden. FCPa scheint unter LL weniger stabil zu sein, während der FCPb unter Eisenmangelbedingungen einen Teil seiner Stabilität einbüßt. Weiterhin kann in der Gelfiltration des FCPa kann nur eine Schulter beobachtet werden und im FCPb sieht man teilweise sogar zwei Schultern. Da sich die Schulter mit der längeren Retentionszeit auf Höhe der Monomerschulter des FCPa befindet, und die Retentionszeit der anderen Schulter beinahe der des FCPa-Trimers entspricht, könnte dies die Hypothese unterstützen, dass der FCPb ebenfalls aus Trimeren aufgebaut ist. Kleine Verschiebungen in der Retentionszeit wären durch das unterschiedliche Molekulargewicht der Monomere erklärbar.
Die SDS – PAGE zeigt zunächst keine Veränderungen in der Zusammensetzung der FCPs unterschiedlicher Kulturbedingungen. Einzig die beiden HL –FCPb – Proben weisen eine hochmolekulare Bande bei ca. 62 kDa auf, die nicht näher identifiziert werden konnte. Auf Grund der Größe kann jedoch ausgeschlossen werden, dass es sich um Kopurifikation des unter Eisenstress bei Diatomeen häufig als Ersatz für Ferredoxin vorkommenden Flavodoxins oder einen Eisentransporter handelt. Die Inkubation mit spezifischen Antikörpern gegen einzelne fcp – Proteine zeigt, dass die 18 kDa – Bande des FCPa fcp2 enthält und die 19 kDa – Bande fcp6. Die 19 kDa – Bande des FCPb reagiert jedoch nicht mit dem fcp6 – Antikörper. Da aus C. cryptica nur noch zwei weitere fcp – Proteine mit einem ungefähren Molekulargewicht von 19 kDa bekannt sind und fcp7 auf Aminosäureniveau eine sehr hohe Ähnlichkeit mit dem fcp6 aufweist, kann man vermuten, dass es das entsprechende Protein im FCPb der fcp5 ist.
Das Ziel dieser Arbeit ist es, eine authentische Verdeckung eingebetteter virtueller 3D-Objekte in augmentierten Bilderwelten bei einer geringen Anzahl an Fotos innerhalb der Bilderwelt zu erreichen. Für die Verdeckung von realen und virtuellen Anteilen einer Augmented Reality-Szene sind Tiefeninformationen notwendig. Diese stammen üblicherweise aus einer 3D-Rekonstruktion, für deren Erstellung sehr viele Eingangsbilder notwendig sind. Im Gegensatz dazu wurde in dieser Arbeit ein System entwickelt, das eine vollständige 3D-Rekonstruktion umgeht. Dieses beruht auf einem direkten bildbasierten Rendering-Ansatz, welcher auch mit unvollständigen Tiefeninformationen eine hohe Bildqualität in Bezug auf eine authentische Verdeckung erreicht. Daraus erschließen sich neue Anwendungsgebiete, wie z.B. die automatisierte Visualisierung von 3D-Planungsdaten und 3D-Produktpräsentationen in Bildern bzw. Bilderwelten, da in diesen Bereichen oftmals nicht genügend große Bildmengen vorhanden sind. Gerade für diese Anwendungsgebiete sind authentische Verdeckungen für die Nutzerakzeptanz der Augmentierung wichtig. Unter authentischer Verdeckung wird die entsprechend der menschlichen Wahrnehmung visuell korrekte Überlagerung zwischen virtuellen Objekten und einzelnen Bildanteilen eines oder mehrerer Fotos verstanden. Das Ergebnis wird in Form einer Bilderwelt (eine bildbasierte 3D-Welt, die die Fotos entsprechend der Bildinhalte räumlich anordnet) präsentiert, die mit virtuellen Objekten erweitert wurde. Folglich ordnet sich diese Arbeit in das Fachgebiet der Augmented Reality ein. Im Rahmen dieser Arbeit wurde ein Verfahren für die bildbasierte Darstellung mit authentischen Verdeckungen auf der Basis von unvollständigen Tiefeninformationen sowie unterschiedliche Verfahren für die notwendige Berechnung der Tiefeninformationen entwickelt und gegenübergestellt. Das Sliced-Image-Rendering-Verfahren rendert mithilfe unvollständiger Tiefeninformationen ein Bild ohne 3D-Geometrie als dreidimensionale Darstellung und realisiert auf diese Weise eine authentische Verdeckung. Das Berechnen der dafür notwendigen Tiefeninformationen eines 2D-Bildes stellt eine gesonderte Herausforderung dar, da die Bilderwelt nur wenige und unvollständige 3D-Informationen der abgebildeten Szene bereitstellt. Folglich kann eine qualitativ hochwertige 3D-Rekonstruktion nicht durchgeführt werden. Die Fragestellung ist daher, wie einzelne Tiefeninformationen berechnet und diese anschließend größeren Bildbereichen zugeordnet werden können. Für diese Tiefenzuordnung wurden im Rahmen der vorliegenden Arbeit drei verschiedene Verfahren konzipiert, die sich in Bezug auf genutzte Daten und deren Verarbeitung unterscheiden. Das Segment-Depth-Matching-Verfahren ordnet Segmenten eines Bildes mithilfe der 3D-Szeneninformationen der Bilderwelt eine Tiefe zu. Hierfür werden Segmentbilder vorausgesetzt. Als Ergebnis liegt für jedes Foto eine Depth-Map vor. Um eine Tiefenzuordnung auch ohne eine vorangehende Segmentierung zu ermöglichen, wurde das Key-Point-Depth-Matching-Verfahren entwickelt. Bei diesem Verfahren werden die 3D-Szeneninformationen der Bilderwelt auf die Bildebene als kreisförmige Sprites projiziert. Die Distanz zur Kamera wird dabei als Tiefenwert für das Sprite verwendet. Alle projizierten Sprites einer Kamera ergeben die Depth-Map. Beide Verfahren liefern Flächen mit Tiefeninformationen, aber keine pixelgenauen Depth-Maps. Um pixelgenaue Depth-Maps zu erzeugen, wurde das Geometry-Depth-Matching-Verfahren entwickelt. Bei diesem Verfahren wird eine Szenengeometrie des abgebildeten Szenenausschnittes erzeugt und dadurch eine pixelgenaue Depth-Map erstellt. Hierfür wird ein semiautomatischer Skizzierungsschritt vorausgesetzt. Die erzeugte Szenengeometrie stellt keine vollständige 3D-Rekonstruktion der Bilderweltenszene dar, da nur ein Szenenausschnitt aus Sicht einer Kamera rekonstruiert wird. Anhand einer technischen Umsetzung erfolgte eine Validierung der konzeptionellen Verfahren. Die daraus resultierenden Ergebnisse wurden anhand verschiedener Bilderweltenszenen mit unterschiedlichen Eigenschaften (Außen- und Innenraumszenen, detailreich und -arm, unterschiedliche Bildmengen) evaluiert. Die Evaluierung des Sliced-Image-Renderings zeigt, dass mithilfe unvollständiger Tiefeninformationen der entwickelten Depth-Matching-Verfahren und unter Einhaltung der gestellten Anforderungen (wenig Eingabefotos, kleine Szenen, keine 3D-Rekonstruktion) eine authentische Verdeckung eingebetteter virtueller 3D-Objekte in Bilderwelten realisiert werden kann. Mithilfe des entwickelten Systems können bildbasierte Anwendungen auch mit kleinen Fotomengen Augmentierungen mit hoher Bildqualität in Bezug auf eine authentische Verdeckung realisieren.
In den vorgelegten drei Studien wurden Lebenserzählungen zum einen über die Adoleszenzentwicklung und zum anderen im Adult Attachment Interview textanalytisch, über semantisch-syntaktische Kodes, untersucht. Die ersten beiden Studien untersuchen die Variablen globale Kohärenz, bzw. narrative Verantwortungsübernahme in Lebenserzählungen von 102 Kindern, Jugendlichen und jungen Erwachsenen (8, 12, 16 und 20 Jahre). Hypothesen sind, dass beide Variablen in der Adoleszenz aufgrund der Identitätsentwicklung ansteigen. Die Haupthypothesen zeigen sich als bestätigt. In der dritten Studie wird die narrative Verantwortungsübernahme anhand einer Sekundäranalyse von Adult Attachment Interviews von 28 Frauen untersucht. Die Hypothese lautet, dass sichere Bindungsrepräsentationen mehr narrative Verantwortungsübernahme zeigen als unsichere Bindungsrepräsentationen und dass unsichere Bindungsrepräsentationen mehr narrative Abstufungen von Verantwortung zeigen als sichere Bindungsrepräsentationen. Während die erste Hypothese keine signifikanten Ergebnisse zeigt, stellt sich die zweite Hypothese als bestätigt dar. Die Ergebnisse werden in den ersten beiden Studien in Bezug auf die Identitätsentwicklung und in der dritten Studie im Zusammenhang mit einer Grammatik von unsicherer Bindung diskutiert. Enth. 3 Sonderabdr. aus verschiedenen Zeitschr: Developmental Psychology 2008, Vol. 44, No. 3, 707–721 The Development of Global Coherence in Life Narratives Across Adolescence: Temporal, Causal, and Thematic Aspects de Silveira, Cybèle and Habermas, Tilmann(2011) 'Narrative Means to Manage Responsibility in Life Narratives Across Adolescence', The Journal of Genetic Psychology, 172: 1, 1 — 20 de Silveira, Cybèle and Habermas, Tilmann(2010) 'Narrative Grading of Responsibility of Secure and Insecure Attachment Representations in the Adult Attachment Interview'
In dieser Arbeit wird die Richtungsabhängigkeit seismischer Geschwindigkeiten im Erdmantel unterhalb Deutschlands und angrenzender Gebiete durch die Analyse der teleseismischen Kernphase SKS auf Doppelbrechung untersucht (Scherwellen-Splitting). Die Anisotropie wird durch die Splittingparameter Φ und δt beschrieben und erlaubt Rückschlüsse auf geodynamische Prozesse.
Untersucht werden Aufzeichnungen des Deutschen Seismologischen Regionalnetzes (GRSN) und assoziierter Stationen aus dem Zeitraum von 1993 bis 2009. Für drei Stationen des Gräfenberg-Arrays (GRF-Array) sind Wellenformen ab 1976 verfügbar, welche damit einen weltweit einmaligen Datensatz liefern.
Auf Grund des stetigen Ausbaus der seismologischen Netze und des langen Beobachtungszeitraumes können über 3.000 Seismogramme ausgewertet werden. Der Hauptteil dieser Arbeit besteht daher in der Entwicklung einer automatischen Methodik zur Analyse von SKS-Splitting: ADORE ("Automatische Bestimmung von DOppelbrechnungsparametern in REgionalseismischen Netzwerken"). Für regionale Netze wie das GRSN gewährleistet ADORE eine objektive Bestimmung der Splittingparameter. Zunächst wird das seismologische Netzwerk als seismisches Array aufgefasst, um durch eine Frequenz-Wellenzahl-Analyse den Einsatz der SKS-Phase ohne manuellen Eingriff zu bestimmen. Die Berechnung der Splittingparameter erfolgt durch eine Inversion nach der Methode der Minimierung des transversalen Energieanteils. Automatisch wird das optimale Fenster um den SKS-Einsatz positioniert, für jede Beben-Stations-Kombination werden dazu 3.600 Einzelinversionen durchgeführt.
Um diese Vielzahl von Auswertungen in akzeptabler Zeit zu berechnen, nutzt ADORE moderne Rechnerarchitekturen aus, verteilt die Berechnungen auf mehrere Computer im lokalen Netzwerk und erzielt damit eine Beschleunigung um einen Faktor 60.
Die Analyse des gesamten Datensatzes ergibt folgende Ergebnisse: An allen analysierten Stationen wurde ein Scherwellen-Splitting festgestellt, der Stationsuntergrund weist somit überall Anisotropie auf. Für 240 Erdbeben können insgesamt 494 Wertepaare mit höchster Qualität bestimmt werden.
Unter der Annahme einer homogenen ungeneigten anisotropen Schicht unterhalb der jeweiligen Station können die Einzelmessungen pro Station gemittelt werden. Damit sind Regionen mit ähnlichen Merkmalen gut zu identifizieren: Im Norden Deutschlands herrschen NW-SO-, in der Mitte W-O-Richtungen und im Süden SW-NO-Richtungen vor.
Die Verzögerungszeiten liegen im Bereich zwischen 1.0 (Station Taunus) und 2.2 Sekunden (Tannenbergsthal, TANN). Auf Grund des hohen Wertes sind die Ursachen für die hier beobachteten Zeiten dem Erdmantel und nicht der Kruste zuzuordnen. Die bevorzugte Ausrichtung von anisotropen Kristallen auf Grund von Fließprozessen von Mantelmaterial ist Quelle der beobachteten Anisotropie. Rezente Fließprozesse von Mantelmaterial sind vor allem an der Unterkante der Lithosphäre wahrscheinlich. Durch Gebirgsbildungsprozesse, vorhandene Gebirgswurzeln oder regionale Veränderungen in der Mächtigkeit der Lithosphäre entstehen Barrieren für viskoses Mantelmaterial.
Als tektonische Ursachen für die hier gemessenen Orientierungen ist im Norden die Tornquist-Teisseyre-Linie (TTZ), in der Mitte die Variszische Gebirgsbildung und im Süden Einflüsse des Alpenbogens anzusehen. Ausnahmen bilden die Stationen Clausthal-Zellerfeld (CLZ), Rügen und Black-Forest-Observatory (BFO). Während bei letzterer ein Einfluss der Spreizungszone des Oberrheingrabens zu vermuten ist, scheint die Intrusion des Brockengranits die Beobachtungen an CLZ zu prägen. Rügen liegt in einer Übergangszone zwischen Sorgenfrei-Tornquist-Zone und TTZ.
Durch die Vielzahl von vorhandenen Einzelmessungen lassen sich an manchen Stationen komplexe Modelle untersuchen. Dazu zählen neben Gradientmodellen auch die geneigte Schicht und Zwei-Schicht-Modelle. Für sechs Stationen kann ein Zwei-Schicht-Modell erstellt werden: BFO, Gräfenberg A1, Fürstenfeldbruck (FUR), Rüdersdorf (RUE), TANN und Unterbreitzbach (UBBA). Die Interpretation der Richtungen von oberer und unterer Schicht gelingt für einen Teil der genannten Stationen: An BFO liegt die Orientierung der unteren Schicht parallel zur Vorzugsrichtung der variszischen Gebirgsbildung, jene der obere Schicht antiparallel zur Spreizungsrichtung des Rheingrabens. Für die Station FUR ist eine Überlagerung mit der Streichrichtung des Alpenmassivs zu beobachten. An GRA1 wird die untere Schicht offenbar durch rezente oder eingefrorene Anisotropie des Böhmischen Massivs bzw. des Eger-Riftsystems beeinflusst. Eine vergleichbare Wirkung ist durch die TTZ an der Station RUE zu erkennen.
ADORE wurde weiterhin auf einen Datensatz des temporären RIFTLINK-Projektes angewandt.
Ziel dieser Dissertation war es, die biologische Rolle der Autophagie für die Entwicklung, Alterung und mitochondriale Qualitätskontrolle in dem Ascomyceten Podospora anserina zu untersuchen. Folgende Ergebnisse wurden dabei erzielt:
1. Der Verlust einer funktionalen Autophagie-Maschinerie ist in P. anserina mit einem Defekt der Sporen-Entwicklung bzw. -Keimung charakterisiert.
2. Es konnten drei Methoden zur Untersuchung der Autophagie in P. anserina etabliert werden: 1) Die Verwendung eines Gfp::PaAtg8-Stamms ermöglicht die Fluoreszenzmikroskopische Bestimmung der Autophagosomen-Anzahl; 2) Die phänotypische Charakterisierung des PaAtg1-Deletionsstamms unter verschiedenen Stressbedingungen (z. B. Stickstoffmangel, Rapamycin) liefert Hinweise auf eine mögliche Autophagie-abhängige Stressadaption; 3) Die Verwendung des „GFPcleavage assays“ ermöglicht einen quantitativen Nachweis genereller und selektiver Autophagie (hier: Mitophagie).
3. In zwei voneinander unabhängigen Experimenten wurde ein altersabhängiger Anstieg der Autophagie für P. anserina demonstriert: Das Autophagie-Niveau nimmt in gealterten P. anserina-Kulturen zu. Gleichzeitig resultiert der Verlust der Autophagie in ∆PaAtg1 in eine reduzierte Lebensspanne. Unter Stressbedingungen (hier: Stickstoffmangel) wird dieser positive Einfluss der Autophagie auf die Lebensspanne im Wildtyp sogar noch verstärkt.
4. Der unerwartet „gesunde“ Phänotyp der PaSod3-Deletionsmutante ist abhängig von einer funktionalen Autophagie-Maschinerie. Der Mitophagie wurde eine besondere Rolle als Kompensationsmechanismus für den Verlust von PaSOD3 zugeteilt, da das Mitophagie-Niveau in dieser Mutante erhöht ist. Am Beispiel dieser Mutante, für die ein erhöhter Superoxid-Ausstoß nachgewiesen wurde, konnte eine Dosis-abhängige Wirkung von ROS in P. anserina identifiziert werden. Eine geringe zelluläre ROSMenge verursacht eine mitohormetische Reaktion, die eine Induktion der Mitophagie zur Folge hat und sich positiv auf den Organismus auswirkt. Übersteigt die zelluläre ROS-Dosis einen kritischen Punkt, kommt es zur Induktion des autophagischen Zelltods und damit zum vorzeitigen Tod des Individuums.
5. Der Verlust der PaCLPXP-Protease führt zu Beeinträchtigungen in der Funktion und Zusammensetzung der mitochondrialen Atmungskette. Dieses Defizit im Energiemetabolismus wird über eine Induktion der AOX, vor allem aber über eine ZUSAMMENFASSUNG 127 gesteigerte Autophagie kompensiert. Die deutlich verlängerte Lebensspanne der verschiedenen PaClpXP-Deletionsmutanten (∆PaClpX, ∆PaClpP und ∆PaClpXP) ist abhängig von einer funktionalen Autophagie-Maschinerie. Interessanterweise konnte keine kompensatorische Funktion der Autophagie oder Mitophagie für den Verlust der mitochondrialen i-AAA-Protease PaIAP in P. anserina nachgewiesen werden.
Autophagie/Mitophagie stellt einen übergeordneten Qualitätskontrollmechanismus in P. anserina dar, der den Organismus sehr effektiv vor zellulären Schäden und Dysfunktionen bewahrt und einen positiven Einfluss auf die Alterung, Entwicklung und Energieversorgung einnimmt.
Die vorliegende Arbeit beschäftigt sich mit der außerhäuslichen Alltagsmobilität älterer Menschen, die eine zentrale Schlüsselfunktion in der Erhaltung von Lebensqualität und Gesundheit besonders im höheren Lebensalter einnimmt. Außerhäusliche Alltagsmobilität vollzieht sich stets in einem räumlichen Umweltausschnitt und kann aus ökogerontologischer Perspektive als Ergebnis eines gelungenen Person-Umwelt-Austauschs verstanden werden. Inwiefern psychologische Ressourcen im Sinne mobilitätsspezifischer Einstellungen zum Verständnis von zielgerichteter und habitualisierter Alltagsmobilität älterer Menschen beitragen können, ist Gegenstand der vorliegenden Arbeit. Altersspezifische, mobilitätsrelevante Einstellungen im außerhäuslichen Kontext werden sowohl in der sozialwissenschaftlichen Mobilitäts- und Alternsforschung als auch in der Praxis, etwa im Rahmen einer altersgerechten Stadtgestaltung, bislang noch zu wenig berücksichtigt. Die vorliegende Arbeit reagiert auf dieses Forschungsdesiderat, indem sie mobilitätsspezifische Einstellungen im höheren Lebensalter konzeptuell beschreibt, in den Kontext ökogerontologischer Theorien einbettet und ihre Bedeutung für den Erhalt eines aktiven und gelingenden Alterns untersucht. Im Rahmen der Dissertation wurde zunächst auf der Basis klassischer und neuer ökogerontologischer Modelle das Konstrukt der mobilitätsbezogenen Handlungsflexibilität und Routinen (MBFR) konzeptuell entwickelt. MBFR umfasst einerseits die individuelle Überzeugung, das eigene Mobilitätsverhalten an Herausforderungen außer Haus anpassen zu können (FLEX) und andererseits die Präferenz für mobilitätsbezogene Alltagsroutinen (ROU). Daraufhin wurde ein standardisiertes Messinstrument zur Erfassung des MBFR-Konzepts entwickelt, optimiert und hinsichtlich seiner psychometrischen Qualität untersucht. Die Formulierung der Testitems erfolgte in Anlehnung an bereits existierende Fragebögen zu verwandten Konstrukten. In der vorwiegend online durchgeführten Pilotstudie (Penger & Oswald, 2017) wurden die Items mittels explorativer Faktorenanalysen hinsichtlich ihrer dimensionalen Struktur untersucht. Die Stichprobe umfasste 265 Personen im Alter von 65 Jahren oder älter. Die Analysen des MBFR-Instruments ergaben nach Ausschluss von Items mit niedrigen und nicht eindeutigen Ladungen drei substanzielle Faktoren. Die Items der ersten Dimension bildeten die Überzeugung ab, flexibel mit personenbezogenen, altersassoziierten Herausforderungen (z. B. Schwierigkeiten im Gehen oder auf eine Gehhilfe angewiesen sein) umgehen zu können, um außerhäuslich mobil zu sein. Die Items der zweiten Dimension erfassten die Überzeugung, flexibel mit herausfordernden außerhäuslichen Umweltbedingungen (z. B. eine verlegte Haltestelle oder ein schlechter Zustand der Gehwege) umgehen zu können. Items, die auf den dritten Faktor luden, bildeten die Neigung zu Routinen im Mobilitätsalltag ab, z. B. bekannte Wege beizubehalten oder bei der Ausübung von außerhäuslichen Aktivitäten vertraute Orte aufzusuchen. Während die ersten beiden Faktoren mobilitätsbezogene Handlungsflexibilität (FLEX) messen, werden im dritten Faktor habitualisierte Verhaltensweisen (ROU) erfasst. Alle drei Faktoren wiesen eine akzeptable Reliabilität auf. Auf Basis von Rückmeldungen der Studienteilnehmer:innen wurde das MBFR-Instrument anschließend sprachlich angepasst und gekürzt. Der modifizierte Fragebogen wurde daraufhin in der empirischen Studie „MOBIL bleiben in Stuttgart“ (MBIS) eingesetzt. Dabei sollte die Frage beantwortet werden, ob das finale MBFR-Instrument die zugrundeliegenden Konstrukte valide und reliabel erfasst und die Testwerte somit ausreichende Gültigkeit hinsichtlich faktorieller, Konstrukt- und Kriteriumsvalidität bei älteren Menschen im urbanen Raum aufweisen (Penger & Conrad, eingereicht). Es wurden insgesamt 211 privatwohnende Stuttgarter:innen ab 65 Jahren in persönlichen Interviews und mithilfe eines 7-tägigen Wegetagebuchs zu verschiedenen Aspekten ihrer Mobilität im Wohnumfeld befragt. Statistische Analysen auf latenter Ebene erfolgten mittels Strukturgleichungsmodellen. Bivariate Zusammenhänge und Subgruppenanalysen wurden mittels Korrelations- und Regressionsanalysen berechnet. Die dreifaktorielle Struktur des MBFR-Fragebogens konnte im konfirmatorischen Modell empirisch bestätigt werden. Zudem fiel die interne Konsistenz aller drei Faktoren gut aus. Zusammenhänge zu konstruktverwandten Merkmalen – wie allgemeine und mobilitätsspezifische Einstellungen – deuten darauf hin, dass das MBFR-Instrument ausreichend konvergente Validität aufweist. Analysen auf latenter Ebene ergaben, dass Befragte durchschnittlich mehr außerhäusliche Wege zurückzulegten, wenn sie in stärkerem Maße überzeugt waren, flexibel auf mobilitätsbezogene Herausforderungen reagieren zu können (FLEX). Weiterhin ließen sich positive Zusammenhänge zwischen FLEX und der erlebten Selbstständigkeit sowie dem subjektiven Wohlbefinden aufzeigen. Die Befunde belegen somit hinreichende Übereinstimmungsvalidität der Testwerte. Differenzierte Analysen machten darüber hinaus deutlich, dass FLEX vor allem bei Befragten mit Mobilitätseinschränkungen bedeutsam zur Vorhersage des außerhäuslichen Mobilitätsverhaltens beitrug. ...
Die Erziehung und Bildung im Bahá’í-Sinne geht von der Einheit und Harmonie zwischen dem Menschen und dem ganzen Sein aus. Damit diese Einheit und Harmonie und dadurch das Glück im Leben des Individuums Realität wird und eine tief humanistische Weltgemeinschaft entsteht, muss der Mensch ganzheitlich von einem wohldurchdachten pädagogischen System erzogen und gebildet werden. Die ganzheitliche Erziehung und Bildung umfassen die körperlichen, menschlichen und geistigen Dimensionen jedes Individuums. Die Vernachlässigung einer dieser Dimensionen wird die o. g. Harmonie und Entfaltung stören und zur entsprechenden Entfremdung führen.
Um diese Anspruch näher zu prüfen, befasst sich diese Arbeit mit den folgenden Hauptthemen: Die allgemeine Beschreibung der Bahá’í-Religion, die Sicht auf den Menschen und die Welt, die politische Bildung aus der Sicht der Bahá’í und die erzieherischen sowie Bildungsmaßnahmen der Bahá’í in der Praxis.
Durch die politische Bildung soll nach dem Bahá’í-Verständnis eine tief demokratische und lebensfreundliche Politik realisiert werden. Die Bahá’í auf der ganzen Welt praktizieren ein System, das diesen Idealen entspricht bzw. sehr nahe kommt.
Die praktischen Maßnahmen der Erziehung und der Bildung im Bahá’í-Sinne werden anhand des Bahá’í-Curriculums im Iran vor der islamischen Revolution analysiert und versucht, daraus pädagogische Maxime zu entnehmen. Anschließend wird der eigene Bahá’í-Unterricht in Deutschland sowie die weltweit eingesetzten Ruhi-Kurse dargestellt.
Diese Arbeit soll den Leser dazu anregen, sich mit der Realisierbarkeit einer friedlichen, humanen und dynamischen Weltgemeinschaft auseinander zu setzen und die Möglichkeit des Glücks sowie der Entfaltung des Individuums zu prüfen.
Das Hauptrisiko einer transfusionsbedingten Übertragung von Pathogenen fokussiert sich gegenwärtig auf bakterielle Infektionen. Dem gegenüber steht ein um den Faktor 1000 bis 10.000 reduziertes virales Restinfektionsrisiko durch transfusionsmedizinisch relevante Viren (HBV, HCV und HIV-1). Bedingt durch die analytische Sensitivität jeder Nachweismethode, kann die zusätzliche Einführung neuer Nachweismethoden nicht zu einer 100%igen Sicherheit führen. Prinzipiell ist jedoch auf der Basis der vorliegenden Studienergebnisse ein Schnelltest zum Bakteriennachweis einer Kulturmethode vorzuziehen. Schnelltestmethoden bieten die Möglichkeit, Probenvolumina zu einem späteren Zeitpunkt zu entnehmen. Dadurch kann eine Probenfehler (sample error) reduziert werden. Folgende bakterielle Schnelltestmethoden wurden synoptisch miteinander verglichen: Die Real-time PCR-Methode zeichnet sich durch die höchste analytische Sensitivität aus. Die FACS-TM-Methode besticht durch die einfache Anwendung, sowie das schnell verfügbare Testergebnis. Fraglich positive Proben können nach 4 – 8 Stunden erneut getestet werden. Die Scansystem-TM-Methode zeichnet sich dadurch aus, dass Thrombozyten in Mini-Pools (bis zu 3 Proben pro Pool) analysiert werden. Da im europäischen Umland die Anzahl der Länder zunimmt, die eine Sterilitätstestung auf bakterielle Kontaminationen bei Thrombozytenkonzentraten durchführen, wird noch 2007 vom Paul-Ehrlich-Institut (Bundesoberbehörde) ein Stufenplan erwartet. Dieser wird voraussichtlich ein Verfahren zur Reduktion des bakteriellen Kontaminationsrisikos (Testung oder alternativ Pathogeninaktivierung) vorschreiben.
Das bakterielle Transfusionsrisiko stellt eine große Herausforderung in der Transfusionsmedizin dar, bei dem aufgrund der Lagerungstemperatur vor allem die Thrombozytenkonzentrate, aber auch Erythrozytenkonzentrate betroffen sind. In Deutschland wurde als Maßnahme zur Reduzierung des Risikos die Haltbarkeit der Thrombozytenkonzentrate von 5 Tagen auf 4 Tage verkürzt. Neben bakteriellen Kulturmethoden sind in den letzten Jahren auch Schnellnachweismethoden entwickelt worden. Die Einführung von Realtime-PCR Methoden hat besonders bei viralen transfusionsmedizinisch relevanten Pathogenen zu einer signifikanten Reduktion des Restinfektionsrisikos geführt. Die vorliegende Arbeit beschreibt die Entwicklung und Optimierung einer generischen Bakterien PCR aus Thrombozytenkonzentraten und aus Vollblut sowie eine Anwendungsstudie des entwickelten Nachweisverfahrens aus Vollblutproben.
Im ersten Teil, in dem die Entwicklung und Optimierung der Bakterien-PCR im Vordergrund stand, wurden sieben unterschiedliche Extraktionsverfahren synoptisch miteinander verglichen. Eine Hauptherausforderung bestand darin, dass einzelne PCR-Reagenzien und auch Verbrauchsartikel mit bakteriellen ribosomalen Nukleinsäuren kontaminiert waren und somit reaktive Signale sowohl in Negativkontrollen als auch in Wasserkontrollen detektiert wurden. Letztendlich erwies sich eine Extraktion aus Vollblutproben in Kombination mit einer SYBR Green 16S-PCR als zuverlässig, um Bakterien in Vollblut nachzuweisen. Die entwickelte PCR wurde anschließend in drei Phasen überprüft. Bei einer Untersuchung in unterschiedlichen Poolgrößen ergibt sich die höchste Sensitivität in einer Einzelprobenanalyse, eine Poolgröße von maximal 5 Proben pro Pool ergab akzeptable Nachweisgrenzen. Darüber hinaus konnte gezeigt werden, dass es gerade bei Raumtemperatur (21° C) zunächst zu einer Reduktion der Bakterienkonzentration durch leukozytäre Phagozytose kommt, bevor anschließend ein sigmoidales Wachstum einsetzt.
Die vorliegende Arbeit stellt somit eine mögliche Alternative zu vorhandenen Kulturmethoden dar und hat den Vorteil, dass die Ergebnisse eine Relevanz für alle Blutkomponenten haben. Dies bietet somit die Option, die Sicherheit der Blutprodukte weiter zu erhöhen.
In der Akuten Lymphatischen Leukämie (ALL) im Erwachsenenalter beträgt die 5–Jahres-Überlebensrate trotz verbesserter Therapien unter 40%. Die Prognose wird durch das Auftreten von Rezidiven signifikant verschlechtert. ALL entsteht durch genetische Veränderungen lymphatischer Vorläuferzellen im Knochenmark, welche zu einem Differenzierungsblock und zu starker Zunahme der Vorläufer-zellen führen. Eine mögliche Erklärung für das bestehende hohe Rezidiv-Risiko wird in der unvollständigen Elimination von Leukämie-induzierenden Zellen (LIZ) durch die Primärtherapie gesehen. Die Identifizierung und Charakterisierung von LIZ in der ALL anhand spezifischer Oberflächenmarker war bisher nicht möglich, daher ist die molekulare und funktionelle Charakterisierung von LIZ für die Entwicklung moderner Therapieansätze unabdingbar. Metabolische Analysen primärer ALL-Langzeitkulturen (LZK) in Vorarbeiten zeigten eine deutliche Abweichung des Kohlenhydratstoffwechsels vom physiologischen metabolischen Profil einer Knochenmarkszelle hin zur Nutzung der Glykolyse mit zunehmendem leukämogenen Potential der etablierten LZK. Folglich ist in dieser Dissertation der Zusammenhang zwischen höherer Glukoseaffinität, schnellerer Glukoseaufnahme und dem Vorliegen eines höheren leukämogenen Potentials der Zellen und damit einer Definition der LIZ anhand ihres Energiestoffwechsels untersucht worden.
Hierfür wurden Tests im Mausmodell in vivo und in vitro mit drei ALL-LZK CR, PH und BV durchgeführt. Wir etablierten unter Verwendung des fluoreszenzmarkierten Glukoseanalogons 2–NBDG sowie eines gegen den GLUT–1 gerichteten Antikör-pers jeweils ein durchflusszytometrisches Verfahren zur quantitativen Messung der Glukoseaufnahme. Anhand dieser Parameter erfolgte die FACS-Anreicherung unterschiedlicher Zellpopulationen der LZK und die Xenotransplantation zur Evaluation potentieller Unterschiede des leukämogenen Potentials.
Durch durchflusszytometrische Messungen konnten in den drei LZK jeweils drei Subpopulationen von Zellen anhand ihrer Glukoseaffinität unterschieden werden (2–NBDG negativ, 2–NBDG positiv und 2–NBDG hochaffin). Auch zeigten sich Unterschiede in der Kinetik der Glukoseaufnahme der drei getesteten LZK, wobei CR Zellen mit Abstand am schnellsten 2–NBDG aufnahmen, gefolgt von PH. Die schnellere Glukoseaufnahme der LZK CR und PH wurde durch eine vermehrte Expression des GLUT-1 Rezeptors und einen höheren Anteil an GLUT–1 positiver Zellen hervorgerufen. Interessanterweise bestand auch eine Korrelation zwischen höherem leukämogenem Potential mit schnellerer Glukoseaufnahme und stärkerer GLUT–1 Expression. Hierbei zeigte sich, dass die HIF-1α Stabilisierung unter Normoxie in einer vermehrten GLUT–1 Expression und daraufhin vermehrter Glukoseaufnahme resultierte. Die prospektive Anreicherung von distinkten Zellsubpopulationen der LZK CR und PH aufgrund ihrer Glukoseaufnahme (gemessen durch 2–NBDG) und Transplantation der sortierten Zellpopulationen in NSG Empfängermäuse zeigte keine kohärente Beziehung zwischen der Glukoseaffinität der Zellen und der Entwicklung der Leukämie. Während es bei CR Zellen initial zu einer beschleunigten Expansion der 2–NBDG-positiv sortierten Leukämiezellen kommt, was sich aber nicht signifikant auf das Gesamtüberleben der Empfängermäuse auswirkt, zeigte die serielle Transplantation von 2–NBDG negativen Zellen ein schnelleres Ableben der Tiere. Bei der LZK PH expandierten 2–NBDG-negative Zellen schneller in primären Empfängermäusen als positive Zellen. Dabei konnten zelltoxische Effekte durch die Verwendung von 2–NBDG ausgeschlossen werden. Auch die Transplantation von GLUT-1 positiven bzw. negativen CR Zellen zeigte, dass GLUT-1 negative Zellen schneller in den Mäusen expandierten, eine aggressivere Leukämie verursachten und zu einem früheren Ableben der Mäuse führte.
Diese Ergebnisse zeigen keine unmittelbare Korrelation von Glukoseaufnahme oder GLUT-1 Expression und der Leukämogenität der untersuchten ALL Zellen. Daher können diese Eigenschaften nicht dazu verwendet werden LIZ in ALL prospektiv anzureichern. Im Rahmen dieser Dissertation zeigte sich aber auch, dass sich die LZK in ihrer jeweiligen Gesamtpopulation bezüglich ihres Glukoseaufnahmeverhaltens und ihrem Anteil GLUT-1-positiver Zellen unterschieden. Weiterführende Untersuchungen sind nötig, um den Grund der differentiellen Expression von GLUT-1 und der damit zusammenhängenden gesteigerten Glukoseaufnahme einzelner Zellen in der ALL zu ermitteln.
Der negative Einfluss auf die Abstoßungsrate, die Transplantatfunktion und das Transplantatüberleben bei Nierentransplantationen von Antikörpern, die im Serum von Transplantatempfängern nachgewiesen werden, ist unumstritten. Die Entwicklung immer sensitiverer Methoden zur Antikörperdetektion wie beispielsweise die Luminex-Technologie wirft jedoch neue Fragen auf: Sind die hier nachgewiesenen, zum Teil sehr niedrigtitrigen Antikörper immer noch relevant für das Outcome von Transplantationen? Oder bergen die hier zusätzlich aufgedeckten Antikörper nur die Gefahr in sich, die Organallokation zu erschweren und mögliche komplikationslose Transplantationen zu verhindern? Zur Beantwortung dieser Fragen erfolgte die Durchführung dieser retrospektiven Studie.
In die Studie wurden Seren von 197 Nierentransplantatempfängern eingeschlossen. Diese Seren wurden vor der Transplantation auf Antikörper im Luminex untersucht und anschließend deren Transplantatfunktion und das Transplantatüberleben in Abhängigkeit vom Antikörperstatus ermittelt. Zusätzlich erfolgte eine Gegenüberstellung mit den Ergebnissen aus den im Rahmen der aktuellen Richtlinien zur Transplantationskompatibilität durchgeführten Testmethoden LCT und ELISA.
Bei einem Vergleich der drei unterschiedlichen Techniken zum HLA-Antikörpernachweis zeigte sich, dass der Luminex eine deutlich größere Sensitivität als der ELISA und insbesondere als der LCT besitzt. Außerdem war nachweisbar, dass die mittels Luminex Technology nachgewiesenen HLA-Antikörper ein schlechteres Transplantatüberleben bewirken (Graphik 4). Dies zeigte sich insbesondere, wenn HLA-Klasse I oder gleichzeitig HLA-Klasse I und HLA-Klasse II Antikörper bei Patienten vorhanden sind (Graphik 5). Im Gegensatz dazu fanden sich bei der Betrachtung der Patienten mit im LCT oder im ELISA nachgewiesen HLA-Antikörpern deutlich geringere, klinisch prognostische Hinweise auf das Transplantatüberleben (Graphik 10 und 13).
Das Transplantatüberleben war signifikant besser bei nicht-immunisierten Patienten als bei der Kohorte, die mittels einer der Nachweismethoden HLA-spezifische Antikörper aufwies. Eine Analyse der Transplantatfunktion, die mithilfe der Proteinurie und des Serum-Kreatinins bestimmt wurde, ergab, dass nicht immunisierte Patienten ein besser funktionierendes Transplantat besitzen als antikörperpositive Empfänger. Ein besonders negativer Einfluss donorspezifischer Antikörper konnte hier jedoch nicht nachgewiesen werden.
Im Hinblick auf die klinische Relevanz der nachgewiesenen HLA-Antikörper erfolgte die Auswertung mit unterschiedlichen MFI Kategorien (MFI 1000, 2000, 3000 und 4000). Anhand dieser Arbeit wurde ein MFI-Grenzwert zur Bestimmung des Antikörperstatus im Luminex von größer oder gleich 1000 im Luminex festgelegt, der am besten mit dem Transplantatoutcome korrelierte. Ein negativer Einfluss donorspezifischer Antikörper konnte jedoch nicht nachgewiesen werden. Es zeigte sich dennoch bei MFI Werten über 2000 ein tendenziell schlechteres Transplantatüberleben, wenn donorspezifische Antikörper vorliegen (Graphik 7).
Bei der Betrachtung des Antikörperstatus im LCT und im ELISA war kein Unterschied hinsichtlich des Transplantatüberlebens in Abhängigkeit vom Antikörperstatus sichtbar. Jedoch wurden die Patientenseren mit diesen beiden Methoden vor der Durchführung der Transplantation auf präformierte Antikörper untersucht und bei positiver Befundung eine intensivierte Immunsuppression veranlasst, was zu einer Beeinflussung des Transplantatoutcomes führt. Eine Unterteilung der nicht immunisierten Patienten im LCT und im ELISA anhand des Luminex-Ergebnisses zeigt, dass Patienten, die sowohl im LCT bzw. ELISA als auch im Luminex keine Antikörper aufweisen ein signifikant besseres Transplantatüberleben besitzen als Empfänger, die nur im Luminex immunisiert sind, jedoch nicht im LCT bzw. im ELISA. Dies lässt darauf schließen, dass die Beachtung von Antikörpern, die ausschließlich im Luminex nachgewiesen werden können, zu einem besseren Transplantatoutcome führt. Somit ist eine Durchführung des Luminex in Kombination mit anderen Antikörpernachweisverfahren von Vorteil.
Zur genauen Beantwortung der anfangs aufgeworfenen Fragen bedarf es sicherlich trotz einiger bereits vorhandener Arbeiten – mit zum Teil jedoch sehr unterschiedlichen Ergebnissen – noch zusätzlicher Studien. Auch sollte die Rolle der Denaturierung der HLA-Antigene auf den Beads, die zu falsch positiven und negativen Resultaten führen können, weiter analysiert werden. Außerdem muss der Einfluss komplementaktivierender Antikörper, wie mit der C1q- und C4d-Technik im Luminex nachweisbar, und der Einfluss nicht HLA-spezifischer Antikörper noch genauer erläutert werden.