Doctoral Thesis
Refine
Year of publication
Document Type
- Doctoral Thesis (5583) (remove)
Language
- German (3548)
- English (2006)
- French (9)
- Latin (5)
- Spanish (5)
- Portuguese (4)
- Italian (3)
- Multiple languages (2)
- mis (1)
Has Fulltext
- yes (5583)
Is part of the Bibliography
- no (5583)
Keywords
- Deutschland (15)
- Gentherapie (14)
- HIV (13)
- Apoptosis (12)
- Membranproteine (12)
- NMR-Spektroskopie (11)
- RNA (11)
- RNS (10)
- Nanopartikel (9)
- Proteomics (9)
Institute
- Medizin (1464)
- Biowissenschaften (813)
- Biochemie und Chemie (723)
- Physik (581)
- Pharmazie (329)
- Biochemie, Chemie und Pharmazie (285)
- Geowissenschaften (138)
- Neuere Philologien (112)
- Gesellschaftswissenschaften (110)
- Psychologie (97)
In total, this dissertation comprises three research papers. Objective of all of these papers are to detect mistakes of private investors when conducting mutual funds investments and to analyze the implications. Moreover, the question is addressed whether financial advisors help private investors to avoid these investment mistakes. All three research papers use the same data base which has been provided by a German online brokerage house. The detailed data set allows contributing to existing literature on mutual fund investments, smart decision making, household finance as well as financial advice on an investor- and transaction-specific level. The first paper addresses the question which particular decision criteria private investors use when purchasing mutual funds. It can be shown that funds volume is the dominating decision criterion, whereas historical performance is only of minor importance. As performance persistence exists in the underlying data set, it can be concluded that the majority of investors make investment mistakes. In the second paper it is shown that smart investors, i.e. investors who purchase mutual funds by chasing historical performance, are older, wealthier, more experienced and less likely to be overconfident. In addition, it can be verified that there exists a positive impact of the ability to select mutual funds by chasing historical performance on the overall investment success. Hence, the quality of mutual fund selection ability is an ex-ante measure for investment success. Finally, the third paper analyzes the influence of financial advice on mutual fund decision making of private investments. Evidence can be provided that financial advisors do not help their customers to purchase mutual funds by chasing historical performance. In fact, advisors recommend high-volume mutual funds from well-known fund families. Apparently, financial advisors are much more salesmen than real advisors. These results hold when controlling for potential endogeneity issues.
Die vorliegende Dissertation befasst sich mit der Entwicklung und Erforschung eines konzeptionell neuartigen Injektionssystems zum Transport von Ionenstrahlen in toroidale Magnetfeldstrukturen. Die Forschungsarbeit ist dabei Teil des Figure-8 Speicherringprojekts (F8SR) des IAP, bei welchem es um die Erforschung der Physik und die Entwicklung eines niederenergetischen, supraleitenden, magnetostatischen Figure-8 Hochstromspeicherrings geht. Dieser neuartige Speicherring ermöglicht aufgrund des Einsatzes von fokussierenden solenoidalen und toroidalen Magnetfeldern das Speichern von Strahlströmen von bis zu einigen Ampere. Diese Arbeit baut auf früheren Forschungsarbeiten zu diesem Themenfeld auf, in welchen die Grundlagen und Ausgangsparameter für die experimentelle Untersuchung der Injektion gelegt und mit dem Aufbau des Injektionsexperiments begonnen wurde.
In dieser Dissertation wird den Fragen nachgegangen, ob ein magnetisches Konzept des Injektionssystems mittels eines „Scaled-Down“-Experiments experimentell umsetzbar ist und ob mit diesem die Injektion von Ionenstrahlen in toroidale Magnetfeldstrukturen realisiert werden kann. Ziel ist es dabei, ein Injektionssystem aufzubauen, durch welches sowohl ein seitlich injizierter Injektionsstrahl, welcher den in den Speicherring zu injizierenden Strahl darstellt, als auch ein gleichzeitig durch die toroidalen Magnetfelder driftender Ringstrahl, welcher den im Speicherring zirkulierenden Strahl darstellt, ohne Verluste transportiert werden können. Das Injektionssystem besteht dabei aus drei normalleitenden Magneten, wobei es sich um zwei baugleiche 30 Grad Toroide sowie einen Solenoid handelt. Die Toroide bilden den Transportkanal für den Ringstrahl, während der Injektionssolenoid senkrecht zwischen den beiden Toroiden endet und den Injektionskanal für den Injektionsstrahl darstellt.
Zunächst wurde das Injektionssystem mittels Strahltransportsimulationen untersucht und aufbauend auf den Ergebnissen die benötigen Vakuumkomponenten sowie der Injektionsmagnet ausgelegt, entwickelt und umgesetzt. Anschließend wurde mit dem fertigstellten Injektionsexperiment der Transport von zwei Ionenstrahlen durch das Injektionssystem experimentell erforscht. Dabei wurden die Strahlpfade mit einem in Entwicklung befindlichen Kameradetektorsystem aus verschiedenen Perspektiven aufgenommen und das Strahlverhalten in Abhängigkeit von unterschiedlichen Parametern phänomenologisch analysiert und diskutiert, mit den Ergebnissen der Simulationen verglichen sowie theoretisch bzgl. der RxB Drift und eines Gedankenmodells eingeordnet. Die technische Umsetzung, Inbetriebnahme und Durchführung verschiedener Vorabexperimente bzgl. weiterer Komponenten des Injektionsexperiments (bspw. Ionenquellen und Filterkanäle) ist ebenfalls Bestandteil dieser Arbeit.
Bei den experimentellen Untersuchungen mit Wasserstoff- und Heliumionenstrahlen konnte beobachtet werden, wie der Injektionsstrahl in den zweiten Toroid driftet und somit erfolgreich injiziert wird. Des Weiteren wurde eine Heliummessung durchgeführt, bei der sowohl der Injektionsstrahl als auch der Ringstrahl erfolgreich durch das Injektionssystem transportiert werden konnten. Auch die Auswirkungen des Injektionsmagneten auf den Ringstrahl konnten experimentell untersucht werden. Die verschiedenen Messungen wurden mittels des Gedankenmodells diskutiert und mit den Ergebnissen der Simulationen sowie untereinander verglichen.
Das abschließende Ergebnis dieser Arbeit ist, dass durch den Einsatz von solenoidalen und toroidalen Magnetfeldern der Injektionsstrahl vom Injektionsmagneten in den zweiten Toroid transportiert und dieser somit in die gekoppelte magnetische Konfiguration der Toroide eingelenkt werden kann. Der gleichzeitige verlustfreie Transport eines Ringstahls durch das Injektionssystem konnte dabei ebenfalls realisiert werden. Des Weiteren stimmen die Ergebnisse der Simulationen und Experimente sowie die theoretischen Überlegungen überein.
Das neuartige Injektionskonzept, welches als Schlüsselkomponente für die Umsetzung des Figure-8 Hochstromspeicherrings benötigt wird, wurde somit mittels Theorie, Simulation und Experiment überprüft und die Funktionalität bestätigt.
Zukünftige Forschungsfragen für welche der Figure-8 Hochstromspeicherring verwendet werden könnte, bspw. aus den Bereichen der experimentellen Astrophysik oder Fusionsforschung, wurden abschließend diskutiert.
Patienten mit chronisch-unspezifischen Nackenschmerzen weisen Studien zufolge ein gegenüber symptomfreien Personen pathologisch verändertes Bewegungsverhalten der Halswirbelsäule auf. Aktuelle Untersuchungen bestätigen dabei eine im Vergleich zu gesunden, symptomfreien Probanden verminderte Beweglichkeit der Zervikalregion. Mit dem Fokus auf sensomotorische Funktionen deuten Studien zudem ein erhöhtes Maß an nicht-intendierter Bewegungsvariabilität sowie ein vermindertes Maß an Nebenbewegungen in andere Ebenen bei der Durchführung zweidimensionaler Bewegungsabfolgen an. Demgegenüber verändert sich bei symptomfreien Personen das zervikale Bewegungs-verhalten im Altersverlauf. Aktuelle Untersuchungen indizieren dabei eine im Alter erhöhte Bewegungsvariabilität. Zusätzlich indizieren Studien ein mit zunehmendem Alter geringer werdendes maximales Bewegungsausmaß der Halswirbelsäule. Publizierte Normwerte drücken diese altersabhängigen Veränderungen jedoch nur grob kategorisierend für größere Altersspannen aus. Daten zu möglichen Zuordnungsmöglichkeiten von Patienten und gesunden Personen anhand trennscharfer Schwellenwerten zum Bewegungsausmaß und zur Bewegungskonsistenz fehlen gänzlich.Vor diesem Hintergrund war das Ziel der Studie die Entwicklung und Validierung klassifikatorischer Modelle zur Diskriminierung von symptomatischem und asympto-matischem zervikalem Bewegungsverhalten. Symptomfreie Probanden (120) wurden konsekutiv der Modellentwicklung (n = 100, 18 – 75 Jahre, 36 f) bzw. der Modellvalidierung zugeteilt (n = 20, 23 – 75 Jahre, 15 f). Zusätzlich wurden zur Modellvalidierung ebenfalls 20 Patienten mit chronisch-unspezifischen Nackenschmerzen eingeschlossen (22 – 71 Jahre, 15 f). Alle Probanden absolvierten initial eine Bewegungsanalyse zur Erhebung des Bewegungsverhaltens der Halswirbelsäule. Diese beinhaltet ein Set zu fünf repetitiven zervikalen Flexions-/Extensions-Bewegungszyklen. Die kinematischen Variablen wurden dabei ultraschalltopometrisch erfasst. Diese standardisierte Erhebung erfolgte in stabiler aufrechter Positionierung und selbstgewählter Geschwindigkeit unter Verwendung eines nichtinvasiven 3D-Bewegungsanalysesystems. Die kinematischen Charakteristika, bestehend aus maximalem Bewegungsausmaß in der Sagittalebene (ROM), den Variationskoeffizienten (CV) sowie den mittleren Nebenbewegungen in Frontal- und Transversalebene (NEB) wurden final aus den Rohdaten berechnet. Im Anschluss erfolgte die Modellentwicklung auf Basis von Cut-Offs. Dies geschah mittels der Erstellung von voraussetzungskonformen linearen Regressionsmodellen. Unabhängige Variable war dabei das Alter, die abhängige Variable stellte das jeweilige kinematische Charakteristikum dar. Die Cut-Offs beschrieben jeweils die Prognose-Konfidenzintervalle der Regressionsgeraden (90% Prognose-Konfidenzintervall für individuelle Werte (ind) und 95% Prognose-Konfidenzintervall für Mittelwerte (MW)). Die Werte der kinematischen Analyse jedes Probanden, der in die Modellvalidierung der entwickelten Cut-Offs eingeschlossen wurde, wurden anschließend mittels dieser Cut-Offs klassifiziert als ‘asymptomatisch’ oder ‘symptomatisch’. Auf der Basis dieser Zuteilung wurden die Cut-Offs stringent mittels Vierfeldertafeln auf ihre Trennschärfe in der Diskriminierung von chronisch-unspezifischen Nackenschmerzpatienten und symptomfreien Personen überprüft. Alle entwickelten Modelle wiesen einen gerichteten linearen Zusammenhang zwischen Alter und dem jeweiligen kinematischen Charakteristikum auf. Auf Basis der internen Validierung beinhaltet das 95%-Konfidenzintervall der Steigung der Regressionsgeraden in dem vorliegenden Modell den Nullwert nicht und schließt zudem bei allen drei Modellen die bei der Erstellung des Modells gefundene Steigung ein. Bei der Modellvalidierung ergab die Bewertung der Vierfeldertafeln überzufällige Unterschiede zwischen erwarteter und beobachteter Häufigkeitsverteilung der mittels Prognose-Konfidenzintervalle für Mittelwerte für ROM (ROMMW; Chi2= 6.8; p< .01) und CV (CVMW; Chi2= 6.42; p< .05) klassierten kinematischen Größen, nicht jedoch für die vier anderen Klassifikatoren (p> .05). Im Anschluss ergab die Analyse der Trennschärfe der Modelle mit überzufälliger Merkmalsverteilung eine Sensitivität von 60 % für ROMMW und von 75 % für CVMW. Die Spezifität betrug 85 % für ROMMW und 65 % für CVMW. Die Resultate demonstrieren einerseits einen linearen Zusammenhang von Alter und verschiedener kinematischer Charakteristika sowie eine überzufällige Merkmalsverteilung für die Modelle ROMMW und CVMW mit ausreichender Spezifität und Sensitivität und – daraus hervorgehend – eine ausreichende Trennschärfe der klassifikatoren in der Differenzierung von symptomatischen und asymptomatischen Bewegungsmustern. Die Resultate sind einerseits im Einklang mit anderen – kategorisierenden – Studienresultaten und ergänzen andererseits – durch die Erstellung und Bewertung trennscharfer Klassifikatoren – den aktuellen Forschungsstand konsekutiv. Die Trennschärfe-Indizes bewegen sich dabei in vergleichbarer Größenordnung wie andere (subjektive) Klassifikatoren (z.B. Schmerzstärke) zur Einordnung von Nackenschmerzpatienten. Insbesondere in der individuellen Beurteilung, aber auch für mögliche prospektive Vergleiche sind valide Ein ordnungskriterien von Belangen und bieten gegenüber einfachen kategorisierenden Gruppenwerten genauere und verlässlichere Klassierungen. Zukünftige Forschungsaktivitäten sollten sich insbesondere mit der Übertragbarkeit vorliegender Cut-Offs auf interventionsinduzierte individuelle Veränderungen auseinandersetzen.
Interpretation magnetotellurischer Messungen auf Island und 3D-Modellierungen des Island-Plumes
(2014)
Die Lage und der geologische Aufbau Islands sind eine einmalige geologische und geophysikalische Besonderheit - nur hier liegt der Mittelatlantische Rücken deutlich oberhalb des Meeresspiegels. Eine Theorie ist, dass unter Island ein sogenannter Hotspot existiert - ein aufsteigender Mantelplume (oder eine andere Temperatur- und Schmelzanomalie). Das bedeutet, dass die Tektonik, die Petrologie und die (geo)physikalischen Parameter von der Wechselwirkung der Meeresbodenspreizung mit dem aufsteigenden Mantelplume bestimmt werden. Die magnetotellurischen Untersuchungen auf Island und die magnetotellurischen Modelle der vorliegenden Arbeit lassen sich nach Zieltiefen unterteilen. Im ersten Teil steht vor allem die Untersuchung der Leitfähigkeitsstruktur des oberen Erdmantels im Vordergrund, wobei der Schwerpunkt auf Modellstudien liegt. Hier wird die Theorie des aufsteigenden Mantelplumes aufgegriffen und hinsichtlich der Möglichkeiten der Magnetotellurik (MT) diesen zu detektieren, untersucht. In dieser Arbeit werden deshalb verschiedene synthetische 3D-Modelle untersucht. Diese sollen klären, unter welchen Bedingungen, d.h. bei welcher Tiefenlage, Ausdehnung und Leitfähigkeit, ein Mantelplume in der Magnetotellurik messbare Signale liefert. Da Temperatur und Schmelzanteil hierbei eine entscheidende Rolle spielen, werden auch Ergebnisse von geodynamischen Modellierungen verwendet. Die verschiedenen Modellierungen machen deutlich, dass der Plume in Modellen mit maximal 1% Schmelzanteil nur sehr schlecht mit der MT aufgelöst werden kann. Ein weiteres Problem ist die relativ geringe laterale Ausdehnung des Bereichs hoher Leitfähigkeit. Insbesondere bei Berücksichtigung des Krustenleiters liegen die Effekte des Plumes im Bereich der Messfehler bei realen Daten. Erst bei 3% Schmelzanteil im Plume ergeben sich Charakteristiken in den Sondierungskurven, die eindeutig dem Plume zugeordnet werden können. Im zweiten Teil liegt das Augenmerk auf der Leitfähigkeitsstruktur der isländischen Kruste, für deren Untersuchung ca. 200 Datensätze aus zahlreichen deutsch-isländischen Messkampagnen zur Verfügung stehen. In dieser Arbeit werden sie ganzheitlich ausgewertet und interpretiert. Hier steht im Speziellen der in verschiedenen früheren Untersuchungen gefundene gute Leiter in ca. 10 km Tiefe im Vordergrund. Seine Ausdehnung, Tiefenlage und Leitfähigkeit sowie laterale Änderungen werden genauer untersucht. Dazu werden aus den gemessenen Daten und den daraus ermittelten magnetotellurischen Impedanztensoren nicht nur die Sondierungskurven, sondern weitere Parameter wie Phasentensoren und Rotationsinvarianten abgeleitet und diskutiert. Um einen Überblick über die räumliche Verteilung der Untergrundstrukturen zu erhalten, werden die einzelnen Messpunkte charakterisiert und Stationen mit ähnlichem Verhalten in Gruppen zusammengefasst. 1D- und 2D- Inversionsmodelle liefern einen direkten Hinweis auf die Leitfähigkeitsverteilung. Diese zeigt ausgeprägte laterale Änderungen. Aus den 2D-Modellen ergeben sich Hinweise, die darauf schließen lassen, dass diese Zone niedrigen Widerstands nicht durchgängig oder geschlossen sein muss, um die gemessenen Daten zu erklären. Der gute Leiter scheint weniger mit der Aufwölbung durch den vermuteten Mantelplume oder eine andere tiefer liegende Schmelzanomalie korreliert zu sein. Die lateralen und vertikalen Variationen lassen auf einen Zusammenhang mit den Vulkansystemen auf Island schließen. Darauf deuten auch die Induktionsvektoren hin, die lateral betrachtet stark variieren. Ein weiteres Ergebnis ist das Fehlen dieses Krustenleiters in einem mindestens 20km breiten Streifen entlang der Südküste.
Epileptische Anfälle, unabhängig von ihrer Art und Auftrittshäufigkeit, bilden eine Symptomatik, welche bei ca. 1% der Weltbevölkerung auftritt. Hierbei kann es beispielsweise zu unkontrollierten Muskelkrämpfen kommen, ebenso aber zu einer Vielzahl anderer Symptome, die in ihrer Gesamtheit das Krankheitsbild der sogenannten Epileptogenesis bilden. Bei etwa zwei Drittel der an Epilepsie leidenden Patienten kann in vielen Fällen Anfallsfreiheit im Rahmen einer medikamentösen Therapie erreicht werden. Dies umso besser, wenn die Medikation präventiv zum geeigneten Zeitpunkt erfolgen könnte. Demzufolge würden in einer großen Anzahl von Fällen Patienten von einem System profitieren, das eine automatisierte zuverlässige Anfallsvorhersage ermöglicht. Bei nur 20% der anderen Patienten kann eine chirurgische Behandlung erfolgreich sein.
In dieser Arbeit soll eine weitergehende Untersuchung des im Institut für Angewandte Physik der Johann Wolfgang Goethe- Universität entwickelten Prädiktionsverfahrens an verschiedenen EEG-Registrierungen unterschiedlicher Patienten erfolgen. Dabei soll im speziellen untersucht werden, ob basierend auf den Resultaten einer Signalprädiktion eine Unterscheidung zwischen Voranfallszeitraum, Anfall und anfallsfreier Phase getroffen werden kann, und ob basierend auf den Kenngrößen eines Prädiktors und des Prädiktionsfehlers eine Merkmalsdefinition gefunden werden kann, welche in einem späteren, implantierbaren Frühwarnsystem eine automatisierte Anfallsvorhersage ermöglicht. Als Datenbasis sollen vier Langzeit-EEG-Registrierungen mit einer Länge von jeweils 5 – 10 Tagen zugrunde gelegt werden. Zur Prädiktion sollen zeitdiskrete, gedächtnisbehaftete, mehrschichtige Zellulare Nichtlineare Netzwerke herangezogen werden. Dabei soll insbesondere anhand von unterschiedlichen Netzwerken festgestellt werden, inwieweit mittels einer Signalprädiktion Synchronisationseffekte zwischen EEG-Signalen verschiedener Hirnareale festgestellt werden können.
Der negative Einfluss auf die Abstoßungsrate, die Transplantatfunktion und das Transplantatüberleben bei Nierentransplantationen von Antikörpern, die im Serum von Transplantatempfängern nachgewiesen werden, ist unumstritten. Die Entwicklung immer sensitiverer Methoden zur Antikörperdetektion wie beispielsweise die Luminex-Technologie wirft jedoch neue Fragen auf: Sind die hier nachgewiesenen, zum Teil sehr niedrigtitrigen Antikörper immer noch relevant für das Outcome von Transplantationen? Oder bergen die hier zusätzlich aufgedeckten Antikörper nur die Gefahr in sich, die Organallokation zu erschweren und mögliche komplikationslose Transplantationen zu verhindern? Zur Beantwortung dieser Fragen erfolgte die Durchführung dieser retrospektiven Studie.
In die Studie wurden Seren von 197 Nierentransplantatempfängern eingeschlossen. Diese Seren wurden vor der Transplantation auf Antikörper im Luminex untersucht und anschließend deren Transplantatfunktion und das Transplantatüberleben in Abhängigkeit vom Antikörperstatus ermittelt. Zusätzlich erfolgte eine Gegenüberstellung mit den Ergebnissen aus den im Rahmen der aktuellen Richtlinien zur Transplantationskompatibilität durchgeführten Testmethoden LCT und ELISA.
Bei einem Vergleich der drei unterschiedlichen Techniken zum HLA-Antikörpernachweis zeigte sich, dass der Luminex eine deutlich größere Sensitivität als der ELISA und insbesondere als der LCT besitzt. Außerdem war nachweisbar, dass die mittels Luminex Technology nachgewiesenen HLA-Antikörper ein schlechteres Transplantatüberleben bewirken (Graphik 4). Dies zeigte sich insbesondere, wenn HLA-Klasse I oder gleichzeitig HLA-Klasse I und HLA-Klasse II Antikörper bei Patienten vorhanden sind (Graphik 5). Im Gegensatz dazu fanden sich bei der Betrachtung der Patienten mit im LCT oder im ELISA nachgewiesen HLA-Antikörpern deutlich geringere, klinisch prognostische Hinweise auf das Transplantatüberleben (Graphik 10 und 13).
Das Transplantatüberleben war signifikant besser bei nicht-immunisierten Patienten als bei der Kohorte, die mittels einer der Nachweismethoden HLA-spezifische Antikörper aufwies. Eine Analyse der Transplantatfunktion, die mithilfe der Proteinurie und des Serum-Kreatinins bestimmt wurde, ergab, dass nicht immunisierte Patienten ein besser funktionierendes Transplantat besitzen als antikörperpositive Empfänger. Ein besonders negativer Einfluss donorspezifischer Antikörper konnte hier jedoch nicht nachgewiesen werden.
Im Hinblick auf die klinische Relevanz der nachgewiesenen HLA-Antikörper erfolgte die Auswertung mit unterschiedlichen MFI Kategorien (MFI 1000, 2000, 3000 und 4000). Anhand dieser Arbeit wurde ein MFI-Grenzwert zur Bestimmung des Antikörperstatus im Luminex von größer oder gleich 1000 im Luminex festgelegt, der am besten mit dem Transplantatoutcome korrelierte. Ein negativer Einfluss donorspezifischer Antikörper konnte jedoch nicht nachgewiesen werden. Es zeigte sich dennoch bei MFI Werten über 2000 ein tendenziell schlechteres Transplantatüberleben, wenn donorspezifische Antikörper vorliegen (Graphik 7).
Bei der Betrachtung des Antikörperstatus im LCT und im ELISA war kein Unterschied hinsichtlich des Transplantatüberlebens in Abhängigkeit vom Antikörperstatus sichtbar. Jedoch wurden die Patientenseren mit diesen beiden Methoden vor der Durchführung der Transplantation auf präformierte Antikörper untersucht und bei positiver Befundung eine intensivierte Immunsuppression veranlasst, was zu einer Beeinflussung des Transplantatoutcomes führt. Eine Unterteilung der nicht immunisierten Patienten im LCT und im ELISA anhand des Luminex-Ergebnisses zeigt, dass Patienten, die sowohl im LCT bzw. ELISA als auch im Luminex keine Antikörper aufweisen ein signifikant besseres Transplantatüberleben besitzen als Empfänger, die nur im Luminex immunisiert sind, jedoch nicht im LCT bzw. im ELISA. Dies lässt darauf schließen, dass die Beachtung von Antikörpern, die ausschließlich im Luminex nachgewiesen werden können, zu einem besseren Transplantatoutcome führt. Somit ist eine Durchführung des Luminex in Kombination mit anderen Antikörpernachweisverfahren von Vorteil.
Zur genauen Beantwortung der anfangs aufgeworfenen Fragen bedarf es sicherlich trotz einiger bereits vorhandener Arbeiten – mit zum Teil jedoch sehr unterschiedlichen Ergebnissen – noch zusätzlicher Studien. Auch sollte die Rolle der Denaturierung der HLA-Antigene auf den Beads, die zu falsch positiven und negativen Resultaten führen können, weiter analysiert werden. Außerdem muss der Einfluss komplementaktivierender Antikörper, wie mit der C1q- und C4d-Technik im Luminex nachweisbar, und der Einfluss nicht HLA-spezifischer Antikörper noch genauer erläutert werden.
Diese Arbeit beschreibt die Identifizierung, Klonierung und Charakterisierung von zwei neuen humanen S1P-Rezeptoren. Damit wird die Familie der S1P-Rezeptoren um einen hochaffinen und einen niedrig affinen Rezeptor erweitert. Die Untersuchungen der Expressionsprofile aller humanen S1P/LPA-Rezeptoren sowohl in Herz-Kreislauf-relevanten Geweben als auch in Endothelzellen und glatten Muskelzellen erfolgten bisher nicht im Sinne der hier dargestellten familienübergreifenden Betrachtung. Zusätzlich wurde in dieser Arbeit erstmalig auch der hS1P5-Rezeptor mit eingeschlossen. Wir konnten zeigen, dass zur Beurteilung der S1P- und LPA-Effekte in den untersuchten Gewebe- und Zellarten neben den bisher bekannten sieben Rezeptoren auch der hS1P5-Rezeptor betrachtet werden muss. Dies ist von entscheidender Bedeutung, da in bisherigen Untersuchungen insbesondere bei der Interpretation der S1P-Wirkungen nur die Rezeptoren S1P1-3 berücksichtigt wurden. In dieser Arbeit wurde außerdem zum ersten Mal eine große Anzahl potentieller Lipidliganden an den S1P-Rezeptoren S1P1-3 und 5 sowie am hGPR63 getestet. Auch wenn hierbei keine neuen Liganden identifiziert werden konnten, grenzen unsere Untersuchungen die Zahl potentieller zusätzlicher Liganden ein. Außerdem konnten wir zeigen, dass Suramin nicht - wie bisher vermutet - ein spezifischer Antagonist des S1P3-Rezeptors ist, sondern auch S1P5-Rezeptor-vermittelte Effekte blockieren kann. Hierdurch kann eine Fehlinterpretation von durch Suramin-hemmbaren Effekten verhindert werden. Ein wichtiger Befund dieser Arbeit, insbesondere für die pharmazeutische Industrie, ist die speziespezifische Expression des S1P5-Rezeptors. Während in der Ratte hauptsächlich eine Verteilung des Rezeptors im ZNS zu beobachten ist, findet sich das humane Homologe hauptsächlich in peripheren und hier insbesondere Herz-Kreislauf-relevanten Geweben. Der Einsatz von Tiermodellen, bei denen es sich in der Regel um Nager handelt, zur Untersuchung der S1P-Effekte muss daher kritisch überdacht werden, da in diesem Fall ein im Menschen potentiell relevanter Rezeptor nicht in den peripheren Geweben der Ratte vorhanden und somit nicht an den S1P-Wirkungen beteiligt ist. Zudem konnten wir auch funktionelle Unterschiede zwischen den beiden Rezeptoren unterschiedlicher Spezies beobachten, was zusätzlich gegen die Verwendung von Tiermodellen zumindest bei Untersuchungen des S1P5-Rezeptors spricht. Neben der erstmaligen Charakterisierung der Signaltransduktionswege des S1P5-Rezeptors konnte im Laufe dieser Arbeiten eine weitere neue Eigenschaft des S1P5-Rezeptors festgestellt werden: Dieser ist in der Lage, ligand-unabhängige Effekte hervorzurufen. Dies ist von Bedeutung, da häufig Rezeptoren, die aufgrund von Mutationen konstitutiv aktiv sind, für die Ausbildung von Krankheiten verantwortlich sind. Wir konnten darüberhinaus zeigen, dass der zweite in dieser Arbeit identifizierte S1P-Rezeptor, der orphan-hGPR63, von relativ hohen Konzentrationen an S1P sowie von doPA angeschaltet wird. Wenngleich die Affinität des hGPR63 zu doPA niedrig ist, ist dies jedoch der erste Rezeptor, der auf dieses Lipid reagiert. Welche physiologische Bedeutung diesem Rezeptor zukommt, ist noch völlig offen, die primäre Expression im Hirn weist jedoch auf eine zumindest partielle zentrale Wirkung hin. Zusätzlich zu den molekularbiologischen Befunden können aus dieser Arbeit wichtige Informationen für das Screenen von GPCRs und hier insbesondere von Lipid-GPCRs abgeleitet werden. Allgemein gilt, dass der Auswahl des richtigen Versuchssytems im Hinblick auf die Fragestellung und das zu untersuchende Protein eine entscheidende Bedeutung zukommt. Während bei Rezeptoren mit einer restriktiven Gewebeverteilung die Suche nach einem geeigneten Zellsystem keine Schwierigkeiten bereitet, stellt dies das Hauptproblem in der Lipidforschung dar. Da es keine Säugerzellen gibt, die nicht auf S1P reagieren, muss jedes Versuchssystem erneut auf Eignung und optimale Zellart untersucht werden. So konnten in transient transfizierten CHO-K1-Zellen hintergrundfreie S1P-Signale im FLIPR-Versuch gemessen werden, während in den MAP-Kinase-Versuchen in CHO-K1-Zellen der hohe endogene Hintergrund das Versuchsfenster auf ein Minimum reduzierte. Während die Messung von LPA-Effekten in CHO-K1-Zellen mit der FLIPR-Technologie aufgrund der endogenen Signale nicht möglich ist, können LPA-Effekte in McARH7777-Zellen ohne störenden Hintergrund gemessen werden. In diesem Zellsystem ist wiederum die Messung von S1P nicht oder nur begrenzt möglich. Auch wenn diese Beispiele spezifisch für Lipidrezeptoren sind, lässt sich doch aus dieser Arbeit die Notwendigkeit ableiten, neben der richtigen Substanz-Bibliothek besonders bei der Suche nach Liganden für orphan-GPCRs das richtige zelluläre System einzusetzen.
Die vorliegende Arbeit befasst sich mit der Medikamentenadhärenz an die Therapie mit oralen Antikoagulanzien (OAT) in der Schlaganfall-Sekundärprophylaxe und leitet auf Basis einer prospektiven Untersuchung Rückschlüsse über das Einnahmeverhalten unter verschiedenen Behandlungsformen ab.
Orale Antikoagulanzien werden erfolgreich zur Schlaganfallprävention bei Patienten mit Vorhofflimmern eingesetzt. Über Jahrzehnte waren Vitamin K-Antagonisten (VKA) die einzige Therapieoption, in der Praxis jedoch mit Schwierigkeiten verbunden, wie etwa Medikamenten- und Nahrungsmittelinteraktionen sowie häufige Gerinnungskontrollen. Als ab dem Jahr 2011 die ersten nicht-Vitamin K oralen Antikoagulanzien (NOAK) zugelassen wurden (zunächst Rivaroxaban und Dabigatran), lag ein besonderes Augenmerk auf der Frage, ob die fehlenden Gerinnungskontrollen und dadurch selteneren Arztkontakte unter Einnahme von NOAK einen negativen Einfluss auf die Adhärenz ausüben könnte.
In der vorliegenden Studie wurden prospektiv Daten zur Adhärenz und Persistenz in Bezug auf die Therapie mit OAT zu Zwecken der Schlaganfall-Sekundärprophylaxe gesammelt. Hierbei stand die Selbsteinschätzung der Patienten anhand der 8-Punkte-Morisky Medication Adherence Scale (MMAS-8) im Vordergrund. Die Daten der Untersuchung wurden an drei großen akademischen Schlaganfallzentren der Universitätskliniken Frankfurt, Würzburg und Marburg (Klinikum Fulda) erhoben. Während des Zeitraums Oktober 2011 bis September 2012 wurden alle 596 Patienten mit der Entlassungsdiagnose eines ischämischen Schlaganfalls oder einer transient ischämischen Attacke in Kombination mit Vorhofflimmern in die Studie aufgenommen. Dabei bildeten diejenigen 324 Patienten, die nach Entlassung eine orale Antikoagulation (VKA, Dabigatran oder Rivaroxaban) erhielten, die Untersuchungskohorte dieser Arbeit. Ein Jahr nach Entlassung wurden in einem Follow-up (1) die Adhärenz bzw. Persistenz in Bezug auf die verschriebene Medikation, (2) etwaige Therapiewechsel und deren Gründe, sowie (3) patientenseitige Einflussfaktoren erfragt.
Insgesamt konnte eine sterblichkeitskorrigierte Antwortrate von 73,3% (209 Patienten) erzielt werden. Von diesen Patienten erhielten 92,8% weiterhin eine Art der oralen Antikoagulation. Auch innerhalb der spezifischen ursprünglich verschriebenen OAT konnte eine gute Persistenz festgestellt werden (VKA 80,9%; NOAK 74,8%; P=0,243), wobei Dabigatran tendenziell, aber nicht-signifikant, am schwächsten abschnitt. Sofern Wechsel zwischen verschiedenen Formen der OAT erfolgten, wurden diese zumeist mit Nachteilen der jeweiligen Wirkstoffeigenschaften, wie z.B. gastrointestinale Nebenwirkungen, eine Verschlechterung der Nierenfunktion, sowie die vereinfachte Einnahme anderer Antikoagulanzien mit nur einer täglichen Dosis, begründet.
Zusätzlich stellte sich im Rahmen einer multivariaten Analyse insbesondere der Grad der Behinderung (Modifizierte Rankin Skala, mRS) zum Zeitpunkt des Follow-ups als signifikanter Einflussfaktor auf die Adhärenz heraus. Die Wahl der OAT hatte hingegen keinen relevanten Einfluss.
Zusammenfassend wurde in der Studie eine sehr gute Einnahmetreue von über 90% beobachtet, sofern man konventionelle und neue Antikoagulanzien in Summe zählt. Zudem wurde gezeigt, dass die Wahl der spezifischen OAT keinen signifikant positiven oder negativen Einfluss auf die Adhärenz nach sich zieht. Dieses Ergebnis widerspricht der Befürchtung einer generell niedrigeren Adhärenz an NOAK. Vielmehr könnte eine Erweiterung der Therapieoptionen durch die neuen oralen Antikoagulanzien es erlauben, besser auf spezielle Patientenbedürfnisse wie beispielsweise Medikamentenverträglichkeit oder Komorbiditäten einzugehen, und in Folge die Einnahmetreue zu Zwecken der Schlaganfall-Sekundärprophylaxe zu verbessern.
Die zunehmende Verbreitung des Internets als universelles Netzwerk zum Transport von Daten aller Art hat in den letzten zwei Dekaden dazu geführt, dass die anfallenden Datenmengen von traditionellen Datenbanksystemen kaum mehr effektiv zu verarbeiten sind. Das liegt zum einen darin, dass ein immer größerer Teil der Erdbevölkerung Zugang zum Internet hat, zum Beispiel via
Internet-fähigen Smartphones, und dessen Dienste nutzen möchte. Zudem tragen immer höhere verfügbare Bandbreiten für den Internetzugang dazu bei, dass die weltweit erzeugten Informationen mittlerweile exponentiell steigen.
Das führte zur Entwicklung und Implementierung von Technologien, um diese immensen Datenmengen wirksam verarbeiten zu können. Diese Technologien können unter dem Sammelbegriff "Big Data" zusammengefasst werden und beschreiben dabei Verfahren, um strukturierte und unstrukturierte Informationen im Tera- und Exabyte-Bereich sogar in Echtzeit verarbeiten zu können. Als Basis dienen dabei Datenbanksysteme, da sie ein bewährtes und praktisches Mittel sind, um Informationen zu strukturieren, zu organisieren, zu manipulieren und effektiv abrufen zu können. Wie bereits erwähnt, hat sich herausgestellt, dass traditionelle Datenbanksysteme, die auf dem relationalen Datenmodell basieren, nun mit Datenmengen konfrontiert sind, mit denen sie nicht sehr gut hinsichtlich der Performance und dem Energieverbrauch skalieren. Dieser Umstand führte zu der Entwicklung von spezialisierten Datenbanksystemen, die andere Daten- und Speichermodelle implementieren und für diese eine deutlich höhere Performance bieten.
Zusätzlich erfordern Datenbanksysteme im Umfeld von "Big Data" wesentlich größere Investitionen in die Anzahl von Servern, was dazu geführt hat, dass immer mehr große und sehr große Datenverarbeitungszentren entstanden sind. In der Zwischenzeit sind die Aufwendungen für Energie zum Betrieb und Kühlen dieser Zentren ein signifikanter Kostenfaktor geworden. Dementsprechend sind bereits Anstrengungen unternommen worden, das Themenfeld Energieeffizienz (die Relation zwischen Performance und Energieverbrauch) von Datenbanksystemen eingehender zu untersuchen.
Mittlerweile sind über 150 Datenbanksysteme bekannt, die ihre eigenen Stärken und Schwächen in Bezug auf Performance, Energieverbrauch und schlussendlich Energieeffizienz haben. Die Endanwender von Datenbanksystemen sehen sich nun in der schwierigen Situation, für einen gegebenen Anwendungsfall das geeigneteste Datenbanksystem in Hinblick auf die genannten Faktoren zu ermitteln. Der Grund dafür ist, dass kaum objektive und unabhängige Vergleichszahlen zur Entscheidungsfindung existieren und dass die Ermittlung von Vergleichszahlen zumeist über die Ausführung von Benchmarks auf verschiedensten technischen Plattformen geschieht. Es ist offensichtlich, dass die mehrfache Ausführung eines Benchmarks mit unterschiedlichsten Parametern (unter anderem die Datenmenge, andere Kombinationen aus technischen Komponenten, Betriebssystem) große Investitionen in Zeit und Technik erfordern, um möglichst breit gefächerte Vergleichszahlen zu erhalten.
Eine Möglichkeit ist es, die Ausführung eines Benchmarks zu simulieren anstatt ihn real zu absolvieren, um die Investitionen in Technik und vor allem Zeit zu minimieren. Diese Simulationen haben auch den Vorteil, dass zum Beispiel die Entwickler von Datenbanksystemen die Auswirkungen auf Performance und Energieeffizienz bei der Änderungen an der Architektur simulieren können anstatt sie durch langwierige Regressionstests evaluieren zu müssen. Damit solche Simulationen eine praktische Relevanz erlangen können, muss natürlich die Differenz zwischen den simulierten und den real gewonnenen Vergleichsmetriken möglichst klein sein. Zudem muss eine geeignete Simulation eine möglichst große Anzahl an Datenbanksystemen und technischen Komponenten nachstellen können.
Die vorliegende Dissertation zeigt, dass eine solche Simulation realistisch ist. Dafür wurde in einem ersten Schritt die Einflussaktoren auf Performance, Energieverbrauch und Energieeffizienz eines Datenbanksystems ermittelt und deren Wirkung anhand von experimentellen Ergebnissen bestimmt. Zusätzlich wurden auch geeignete Metriken und generelle Eigenschaften von Datenbanksystemen und von Benchmarks evaluiert. In einem zweiten Schritt wurde dann ein geeignetes Simulationsmodell erarbeitet und sukzessiv weiterentwickelt. Bei jedem Entwicklungsschritt wurden dann reale Experimente in Form von Benchmarkausführungen für verschiedenste Datenbanksysteme und technische Plattformen durchgeführt. Diese Experimente wurden mittels des Simulationsmodells nachvollzogen, um die Differenz zwischen realen und simulierten Benchmarkergebnissen zu berechnen. Die Ergebnisse des letzten Entwicklungsschrittes zeigen, dass diese Differenz unter acht Prozent liegt. Die vorliegende Dissertation zeigt auch, dass das Simulationsmodell nicht nur dazu geeignet ist, anerkannte Benchmarks zu simulieren, sondern sich im allgemeinen auch dafür eignet, ein Datenbanksystem und die technische Plattform, auf der es ausgeführt wird, generell zu simulieren. Das ermöglicht auch die Simulation anderer Anwendungsfälle, zum Beispiel Regressionstests.
Kurz zusammengefasst waren die Ziele dieser Arbeit, die in vivo Untersuchung einer Hyperhomocysteinämie und spezifischer diätetischer Mikronährstoffe im Kontext der Alzheimer-Erkrankung. Zu diesem Zweck wurden zwei Krankheitsmodelle in den Mäusen induziert. Zum einen wurde eine Alzheimer-ähnliche Pathologie genetisch simuliert durch den Einsatz des neuen AppNL-G-F knock-in Modells, das im Zuge dieser Arbeit auch weiter charakterisiert wurde. Zum anderen wurde eine chronische Hyperhomocysteinämie in den Tieren induziert via Langzeit-Fütterung einer Spezialdiät, die defizient an den Vitaminen B6, B12 und Folat war, was sich durch erhöhte Werte der Aminosäuren Homocystein und Homocysteinsäure in verschiedenen biologischen Matrices der Mäuse wie Serum, Urin und Hirngewebe, bemerkbar machte. Durch die Kombination der Krankheitsmodelle wurden sowohl Aspekte einer familiären Alzheimer-Erkrankung (verstärkter Amyloid-β-Anabolismus im knock-in Modell) als auch ein potentielles Charakteristikum der sporadischen Form der Krankheit (erhöhte Homocystein-Spiegel) simuliert. Auswirkungen des AppNL-G-F Genotyps, einer zusätzlichen Hyperhomocysteinämie und potentiell vorteilhafter, oder gar präventiv wirksamer Mikronährstoffe wurden dabei mit Hilfe von diversen Verhaltensversuchen und ergänzenden ex vivo Analysen bewertet.
Trotz massiver cerebraler Amyloidose war lediglich ein milder Einfluss auf die kognitive Leistungsfähigkeit der AppNL-G-F Tiere im Vergleich zur gleichaltrigen Wildtyp-Kontrolle detektierbar. Dies weist zum einen auf die Subtilität des Mausmodells hin und zum anderen befeuert es die kontroverse, häufig geführte Diskussion um die zentrale Bedeutung der „Amyloid-Hypothese“ im Rahmen der komplexen Alzheimer-Pathologie. Die kognitiven Fähigkeiten der entsprechenden Mäuse verschlechterten sich auch nicht bei gleichzeitig signifikant erhöhten Homocystein- und Homocysteinsäurespiegeln, d.h. die Hyperhomocysteinämie hat in diesem Modell für familiären Alzheimer nicht kausal zur Verschlimmerung der induzierten Pathologie beigetragen sowohl hinsichtlich der kognitiven Leistung in diversen Verhaltensversuchen als auch hinsichtlich dem Schweregrad der cerebralen Amyloidose.
Zur Hyperhomocysteinämie, vor allem aber auch zur Rolle bestimmter diätetischer Interventionen in dem Kontext, findet man eine heterogene, teilweise konträre Literatur vor, insbesondere im klinischen Kontext. Die untersuchten diätetischen Ansätze in dieser Arbeit, bestehend aus hochdosierten B-Vitaminen, mehrfach ungesättigten Fettsäuren, Betain und einer komplexeren Mikronährstoffkombination, zeigten ebenfalls keinen konsistenten Effekt auf Phänotyp und Amyloid-β-Menge in den Hirnen der Tiere. Die Ergebnisse der durchgeführten Studien legen daher, zumindest in diesem Krankheitsmodell, keinen Wert als potentiell präventiven Ansatz der kognitiven Verschlechterung bei Alzheimer nahe.
Da die dieser Arbeit zugrundeliegenden in vivo Studien keine per se erhöhten, AppNL-G-F-assoziierten Homocysteinspiegel offenbarten, zeigte sich Homocystein nicht als Biomarker, zumindest für die in diesem Mausmodell simulierten Aspekte der komplexen Alzheimer-Pathologie. Neben den zuvor beschriebenen fehlenden Effekten der Hyperhomocysteinämie, konnten in dieser Arbeit jedoch auch statistisch signifikante Einflüsse sichtbar gemacht werden. Wie in der durchgeführten Kinetikstudie gezeigt, resultierte die Alzheimer-ähnliche Pathologie in einem signifikant höheren Schweregrad der ausgebildeten Hyperhomocysteinämie in den AppNL-G-F Tieren im Vergleich zur gleichaltrigen Wildtyp-Kontrolle. Folglich übte der gestörte Amyloid-β-Metabolismus, neben der B-vitamindefizienten Diät, einen zusätzlich verstärkenden Effekt auf den hyperhomocysteinämischen Status aus. Sowohl für knock-in-, als auch Wildtyp-Tiere konnte gezeigt werden, dass bei Beendigung der Karenz an Vitamin B6, B12 und Folat, die erhöhten Homocystein- und Homocysteinsäurespiegel innerhalb kurzer Zeit wieder auf Baseline-Niveau normalisiert werden können.
Weitere signifikante Effekte wurden detektiert bezüglich Erythrozyten-bezogener Parameter wie den Hämoglobingehalt im Blut der hyperhomocysteinämischen Tiere. Ein reduzierter Sauerstofftransport und die damit einhergehende verringerte Versorgung der Neuronen mit Sauerstoff in den entsprechenden experimentellen Gruppen deuten auf eine vornehmlich vaskuläre Wirkung hin im Hinblick auf Homocystein-bezogene Pathomechanismen, die potentiell zu einer Demenz beitragen. Solche Effekte können zusätzlich verstärkt worden sein durch die, in der durchgeführten Proteomanalyse gezeigte, Herunterregulierung angiogener Marker im Serum und in der Cerebrospinalflüssigkeit dieser Tiere. Eine Verringerung der kapillären Dichte im Hirn und ein verringerter cerebraler Blutfluss haben ein zusätzlich reduziertes Angebot an Sauerstoff und Glucose zur Folge und stellen einen Link zu eingeschränkter kognitiver Leistungsfähigkeit in Älteren und Alzheimer-Patienten dar. Translational relevant ist eine vaskuläre Wirkung von Homocystein auch dadurch, dass vaskuläre Demenz und Alzheimer in etwa 40% der Fälle koinzident sind und Homocystein in früheren Humanuntersuchungen eine größere Bedeutung bei der vaskulären Demenz im Vergleich zur Alzheimer-Erkrankung nahelegte.
Auch wenn in Summe die beschriebenen Effekte der Hyperhomocysteinämie nicht groß genug waren, um sich in phänotypischen Einschränkungen in den Tieren auszudrücken, so konnten in der hier vorliegenden Arbeit dennoch Details zur Rolle erhöhter Homocysteinspiegel für verschiedene biologische Prozesse aufgeklärt werden. Insbesondere die Funde der explorativen Proteomanalyse in Serum und CSF könnten Ansatzpunkte für weitergehende Untersuchungen darstellen und sollten in anderen präklinischen Krankheitsmodellen und/oder einer Humanstudie validiert werden.