Universitätspublikationen
Refine
Year of publication
Document Type
- Doctoral Thesis (1725) (remove)
Language
- German (1725) (remove)
Has Fulltext
- yes (1725)
Is part of the Bibliography
- no (1725)
Keywords
- Schmerz (9)
- Grundschule (5)
- HIV (5)
- RNA (5)
- Depression (4)
- Digitalisierung (4)
- Hepatitis C (4)
- Polytrauma (4)
- Prostatakarzinom (4)
- Schmerzforschung (4)
Institute
- Medizin (711)
- Biowissenschaften (172)
- Biochemie und Chemie (132)
- Biochemie, Chemie und Pharmazie (97)
- Pharmazie (91)
- Physik (91)
- Gesellschaftswissenschaften (46)
- Erziehungswissenschaften (37)
- Neuere Philologien (37)
- Psychologie (36)
Ziel dieser klinischen Studie war es, die Ergebnisse der operativen Behandlung eines idiopathischen Makulaforamens durch Vitrektomie, ggf. in Kombination mit einer Phakoemulsifikation, ILM-Peeling und einer Tamponade entweder mit Luft oder mit 20%-igem SF6-Gas zu vergleichen. Primärer Endpunkt war die Verschlussrate nach einer Vitrektomie und die Reoperationsrate bei primär nicht geschlossenen Makulaforamina. Sekundärer Endpunkt war die Visusentwicklung in der ersten postoperativen Woche und nach 3 Monaten.
In der vorliegenden Arbeit wurden hierzu retrospektiv 117 Augen von 117 konsekutiven Patienten analysiert. Es wurden die Ergebnisse von 2 Patientengruppen verglichen. In der ersten Gruppe wurden 66 Augen (m=27, w=39, Altersmedian 70 Jahre), bei denen am Ende der Vitrektomie eine Tamponade mit Luft erfolgte, untersucht. In der zweiten Gruppe wurden die Ergebnisse von 51 Augen (m=20, w=31, Altersmedian 71 Jahre), bei denen 20%-SF6-Gas als Tamponade verwendet wurde, ausgewertet. Bei etwa 70 % der Augen beider Gruppen erfolgte eine simultane Phakoemulsifikation. Der Verschluss des Makulaforamens wurde bereits in den ersten postoperativen Tagen mit einem modifizierten Fourier Domain-OCT untersucht. Sobald der Verschluss des Makulaforamens im OCT gesichert werden konnte, wurde die postoperative „Gesicht nach unten“-Lagerung („Bauchlage“) beendet. Die mediane Lagerungszeit betrug 1 Tag (Spanne 1-6 Tage). Der Zeitraum der Nachbeobachtung betrug 3 Monate (Median).
Die Verschlussrate nach einer Vitrektomie aller Makulaforamina betrug 87,2% (102/117 Augen). Die primäre Verschlussrate der Luft-Gruppe und der SF6-Gas-Gruppe betrug 83,3% (55/66 Augen) bzw. 92,2% (47/51 Augen). Bei Augen mit einem persistierenden Foramen erfolgte eine frühe Reoperation. Die Verschlussrate nach 3 Monaten lag insgesamt bei 99,1% (116/117 Augen), in der Luft-Gruppe bei 98,5% (65/66 Augen) und in der SF6-Gas-Gruppe bei 100% (51/51 Augen). Es zeigte sich kein statistisch signifikanter Unterschied der Verschlussrate bzw. der anatomischen Ergebnisse zwischen den beiden Endotamponade-Gruppen.
Es konnte jedoch ein statistisch signifikanter Unterschied des Fernvisus bei der Entlassung zwischen beiden Endotamponadegruppen nachgewiesen werden. Der logMAR-Visus bei Entlassung lag in der Luft-Gruppe mit 1,3 (Median) deutlich unter dem Visus der SF6-Gas-Gruppe mit 1,9 (Median). Die Anwendung von Luft führte somit im Vergleich zu SF6 zu einem schnelleren postoperativen Visusanstieg. In beiden Gruppen zeigte sich nach 3 Monaten eine signifikante Visusbesserung. Es ließ sich kein signifikanter Unterschied des Fernvisus zwischen den beiden Gruppen mehr nachweisen.
Die Makulaforamenchirurgie mit pars plana Vitrektomie und Peeling der ILM erzielte sowohl mit einer Luft- als auch mit einer 20%-SF6-Gas-Tamponade guten anatomischen und funktionellen Ergebnissen. Mit einer kurz wirksamen Endotamponade erscheint eine postoperative Lagerung essenziell, dürfte aber in den meisten Fällen nur wenige Tage erforderlich sein, um den Verschluss eines durchgreifenden Makulaforamens zu erreichen. Die Reoperations-Rate nach einer Lufttamponade war bei sehr großen Foramina (> 600 µm) signifikant höher als bei Foramina mit einem Durchmesser kleiner 600 µm. Daher scheint die Anwendung von Gasen, die länger als Luft wirken, nur bei sehr großen Foramina erforderlich zu sein. Vorteil einer kurz wirkenden Lufttamponade ist die postoperativ um einige Tage schneller einsetzende visuelle Rehabilitation, so dass die Patienten früher in ihren Alltag zurückkehren können. Eine frühe postoperative Untersuchung der Makula unter Einsatz der optischen Kohärenztomographie ist Voraussetzung für eine individualisierte Steuerung der Lagerung und für eine möglichst frühe Erkennung und Reoperation von nicht geschlossenen Makulalöchern.
Die Chloroplastenbewegung ist eine der wichtigsten Anpassungen, die Pflanzen entwickelt haben, um eine effiziente Ausbeute an Lichtquanten für die Photosynthese zu gewährleisten. Auch wenn der genaue Mechanismus und die Signalwege, die diesen Prozess vermitteln, noch nicht vollständig verstanden sind, konnten einige an der Chloroplastenbewegung beteiligte Proteine (phot1, phot2, chup1, Aktin, Profilin) in den letzten Jahren identifiziert werden. Chup1, das an der äußeren Chloroplastenmembran verankerte Protein, wird als putativer Linker zwischen den Chloroplasten und dem Aktin-Zytoskelett gesehen. Durch die Interaktion mit Profilaktin reguliert chup1 die Aktin-Polymerisierung und somit auch die Chloroplastenbewegung. Die Analyse der intra- und intermolekularen Interaktionen von chup1, die in dieser Studie ermittelt wurden, deutet auf eine Homodimerisierung von chup1 durch die Coiled coil Domäne sowie auf eine Assoziation des N- mit dem C-terminalen Leuzin- Zipper hin. Neben diesen Interaktionen konnte für einen der vier putativen Interaktionspartner von chup1, der wall associated kinase 3, eine mögliche Funktion bei der Vermeidungsbewegung der Chloroplasten gezeigt werden. In Anbetracht dieser Interaktion und der postulierten Phosphorylierungsstellen in chup1, könnte eine Regulierung von chup1 durch Phosphorylierung erfolgen. Um die Funktionen von chup1 und phot2 besser zu verstehen, wurden die Pflanzen mit knock-out in diesen Gene genauer charakterisiert und die T-DNA Insertionslinien von chup1 und phot2 zeigen keine Reduzierung in der photosynthetischen Aktivität. Im Gegensatz dazu, bedingt der knock out von beiden Genen eine deutliche Verminderung der photosynthetischen Leistung. Infolge der fehlenden Chloroplastenbewegung im chup1phot2 Doppel knock out führt das möglicherweise zu einem verringerten Schutz der Photosynthese. Dies bestätigt weiter die Verbindung zwischen der durch phot2 induzierten Signalkaskade und der Aktin-Polymerisierung, die durch chup1 reguliert wird. Um den Einfluss von chup1, phot1 und phot2 auf die transkriptionelle Regulierung nach BL zu analysieren, wurde das globale Expressionsmuster nach BL-Behandlung untersucht. Bei der Analyse der Mutanten-Pflanzen mit einem Defekt in der Chloroplastenbewegung (chup1, phot1, phot2) konnte keine Beeinflussung der Regulierung der Genexpression in BL-gesteuerten Signalkaskaden durch diese Proteine beobachtet werden. Die Regulierung der Expression geschieht eher auf posttranskriptioneller Ebene und wird mit Hilfe von microRNA gesteuert.
Im adulten Säugerhirn findet Neurogenese in der SVZ der Seitenventrikel kontinuierlich statt. Eine Vielzahl von Signalsystemen steuert in komplexer Weise zelluläre Antworten und reguliert die Proliferation, Differenzierug und Wanderung NSZ. Gegenwärtig ist nur wenig über die zugrundeliegenden Signalwege bekannt. Zunehmend gibt es Hinweise darauf, dass Nukleotide an diesen Prozessen beteiligt sind. Frühere Untersuchungen unserer Arbeitsgruppe zeigten, das die Nukleotide ADPbetaS und UTP in kultivierten NSZ der adulten SVZ einen schnellen Kalziumeinstrom induzieren und die Wachstumsfaktor-vermittelte NSZ-Proliferation steigern. In der vorliegenden Arbeit wurde ein System zur Kultivierung adhärenter adulter NSZ etabliert. Die Untersuchungen zeigen, dass adulte NSZ eine Vielzahl an P2Y- und P2X-Rezeptoren, sowie die Nukleotid-hydrolysierenden Enzyme NTPDase2 und TNAP exprimieren. Untersuchungen der ADPbetaS-, UTP- und EGF-vermittelten Signalwege zeigen, dass alle drei Agonisten eine ERK1/2- und CREB-Phosphorylierung induzieren, wobei sich die zeitlichen Charakteristika zwischen den Nukleotiden und EGF unterscheiden. Inhibierungsexperimente geben Einblicke in die dabei aktivierten Signalkaskaden und weisen auf eine ADPbetaS-induzierte Transaktivierung des EGF-Rezeptors hin. Während UTP über den P2Y2-Rezeptor wirkt, übt ADPbetaS seine Funktion über den P2Y1- und P2Y13-Rezeptor aus. Die Daten implizieren zudem, dass Nukleotide und EGF gleiche Zielproteine über verschiedene Signalwege induzieren und dass sie das Potenzial besitzen, bei der Kontrolle der Zellproliferation in der adulten Neurogenese synergistisch zu agieren. Vergleichende Analysen mit kultivierten NSZ aus Wildtyp-, P2Y1- und P2Y2-Rezeptor-Knockout-Mäusen belegen ein verändertes Antwortverhalten in Gegenwart von ADPbetaS, UTP und EGF und lassen kompensatorische Mechanismen vermuten. Die Resultate dieser Arbeit demonstrieren zudem, dass ATP, ADPbetaS, UTP und EGF die Migration von NSZ induzieren. Parallel dazu konnten Veränderungen des Aktinzytoskelletes, wie die Zunahme an F-Aktin, die Bildung von Stressfasern und eine Veränderung der Zellmorphologie gezeigt werden. Diese Prozesse gehen mit einer Aktivierung der Proteinkinasen Akt und FAK einher. Die Daten weisen darauf hin, dass Nukleotide und EGF für die Zytoarchitektur der SVZ und die Wanderung von Neuroblasten zum OB eine wichtige Rollen spielen könnten.
Elektronische Gesundheitsnetzwerke entwickeln sich zunehmend zu einer wichtigen Sparte im Bereich der Gesundheitsinformation. Mittlerweile stehen zahlreiche Online-Foren und -Expertenräte für den Austausch von Patienten untereinander oder zur Ratsuche in Gesundheitsfragen zur Verfügung. Besonders chronisch kranken Patienten kann so der Kontakt zur Außenwelt erleichtert und einer psychosozialen und medizinischen Unterversorgung entgegen gewirkt werden. Während es unstrittig ist, dass virtuelle Foren und Expertenräte bedeutende Chancen eröffnen, gibt es bisher kaum wissenschaftlich begleitete Projekte, die die Qualität und Effizienz der verfügbaren Dienste evaluieren. In der vorliegenden Arbeit wird der Nutzen elektronischer Gesundheitsnetzwerke am Beispiel des Online- Expertenrats muko.info analysiert. Das Modellprojekt wurde 2003 in Kooperation zwischen der Johann- Wolfgang- Goethe- Universität Frankfurt und dem Mukoviszidose e.V. zum Schwerpunktthema „Mukoviszidose“ initiiert. Hierbei wird die Hypothese geprüft, dass professionelle Beratungsangebote im Internet geeignet sind, einen relevanten Beitrag in dem vielschichtigen Versorgungskonzept chronisch kranker Patienten mit Mukoviszidose zu leisten. Im Rahmen einer 4- jährigen Projektphase wurden insgesamt 1.035 Kontaktaufnahmen mit 2.045 gestellten Fragen registriert. Davon verteilten sich 1.922 der Fragen auf das Patientenforum, während 123 Fragen aus dem Fachforum stammten. Die Fragen wurden unter Berücksichtigung quantitativer, qualitativer sowie emotionaler und psychosozialer Parameter untersucht. Als quantitative Parameter fanden in unserer Analyse die Gesamtzahlen der Kontakte und Fragestellungen, der Ratsuchenden und Ratgeber sowie eine Auswahl von 15 thematischen Kategorien Berücksichtigung. Ebenso ging die Unterscheidung zwischen Fragestellern und Patienten sowie die jeweilige Geschlechter- und Altersverteilung, aber auch die Berufsparten und Fachrichtungen sowohl der berufsbedingten Fragesteller als auch der Experten mit ein. Hinsichtlich der qualitativen Parameter wurden die Gründe der Ratsuchenden für ihre Teilnahme am jeweiligen Forum, die professionellen Rahmenbedingungen des Projekts und die Patientenzufriedenheit in die Auswertung miteinbezogen. Hierfür war ebenfalls die Betrachtung sowohl der inhaltlichen und haftungsrechtlichen Richtlinien als auch der organisatorischen, ethischen und prozeduralen Prinzipien erforderlich. Ferner fand eine Analyse der verbalisierten Emotionen in den Fragetexten statt. Es wurde eine Einteilung in 10 Emotionen gewählt und diese quantitativ der Anzahl der rein sachlich formulierten Antworten gegenübergestellt. Die daraus gewonnenen Ergebnisse wurden in Korrelation mit speziellen Rubriken, Altersklassen und Personengruppen gesetzt. Die Ergebnisse unserer Analyse belegen eine ausgeglichene Frequentierung des Expertenrats während der Projektzeit, wobei sich ein deutlicher Überhang weiblicher Fragesteller in beiden Foren zeigte. Die Gründe für die Teilnahme der Patienten beruhten in beiden Foren primär auf dem Wunsch nach Beantwortung fachlichmedizinischer Fragen, relevant häufig auch in den Bemühungen um eine Zweitmeinung. Qualitativ herrschte im Expertenrat eine grundsätzlich freundliche und spannungsarme Atmosphäre, welche von dem professionellen Verhalten der Experten sowohl in fachlicher als auch in psychosozialer Hinsicht gestützt wurde. Der sensible und ermutigende Umgang mit den Patienten sowie die meist zeitnahe, ausführliche und fundierte Bearbeitung der Anliegen wurde von den Fragestellern hoch geschätzt und wiederholt positiv bewertet. Im Zusammenhang der emotionalen und psychosozialen Situation der Betroffenen spiegelten sich im Patientenforum die enormen Belastungen und der starke emotionale Druck der Menschen im Umgang mit der chronischen Erkrankung in einer Vielzahl der Fragen wider. Demgegenüber wies sich das Fachforum durch fachlich- distanzierte, meist sachlich formulierte Anliegen aus. Unsere Ergebnisse zeigen, dass die Qualität der Antworten und die Patientenzufriedenheit wesentlich davon abhängen, ob es dem Experten gelingt, sich von der rein fachlichen Problematik zu lösen und seinen Blick für die emotionalen Bedürfnisse der Patienten zu öffnen. Ein respektvoller, ermutigender Umgang mit den Fragestellern sowie die Berücksichtigung ihrer emotionalen Bedürfnisse konnten neben der medizinisch- fundierten Beratung als wichtigste Aufgaben der Experten registriert werden. Finden diese Basisvariablen ihre Anwendung, hat ein professioneller Expertenrat im Internet nicht nur das Potential, einen ergänzenden Beitrag zum bestehenden Versorgungssystem für Patienten mit Mukoviszidose zu leisten. Vielmehr zeigte sich der Expertenrat vor dem Hintergrund der spezifischen Vorteile des Mediums Internet in einem geschützten, professionellen Rahmen als geeignetes Angebot für chronisch kranke Menschen, um diese zeitlich, geographisch, fachlich sowie emotional zu entlasten und zu stabilisieren. Die komplexen Anforderungen des Online- Expertenrats stellen die aktiven Mitglieder vor besondere Belastungen. Unsere Ergebnisse machen deutlich, dass neben medizinisch- fachlicher Expertise auch psychosoziale Kompetenz notwendig ist, welche ggfs. im Rahmen projektbegleitender Schulungen vermittelt und gepflegt werden sollte.
Mit einer immer weiter steigenden Lebenserwartung, steigt auch die Anzahl der an Alzheimer erkrankten Patienten stetig an. Die Kosten für die Versorgung dieser Patienten sind für das Gesundheitssystem weltweit immens.
Bislang führten alle Therapiebemühungen zu mangelhaften Erfolgen. Ein medikamentöses Eingreifen in den Krankheitsverlauf und die Beeinflussung der auslösenden Faktoren konnte, trotz eines hohen Forschungsaufwandes bislang nicht realisiert werden.
Diese Arbeit beschäftigt sich mit der quantitativen analytischen Charakterisierung zweier Substanzen, die sich auf drei relevante Bereiche auswirken, die für die Entwicklung und das Fortschreiten der Alzheimer Krankheit verantwortlich gemacht werden. Die γ-Sekretase, die an der Entstehung der toxischen Aβ-Peptide beteiligt ist, die dann durch Agglomerisierung zu den charakteristischen pathologischen Aβ-Plaques führen. Der nukleäre Rezeptor PPARγ, welcher an der Genexpression vor allem inflammatorischer Faktoren im Gehirn beteiligt ist und weitere AD relevante Vorgänge wie den Abbau der Aβ-Peptide beeinflusst. Und schließlich die mitochondriale Dysfunktion, die zur verringerten Energieversorgung und schließlich zum Untergang von Synapsen und ganzer Neuronen führen kann. Diese drei Bereiche konnten in vitro durch die zwei untersuchten Substanzen MH84, einem Pirinixinsäurederivat und MH163, einem Zimstsäurederivat, positiv beeinflusst werden.
Aus diesem Grund wurden in vivo Studien zu beiden Verbindungen an Mäusen geplant, die die pharmakokinetischen und pharmakodynamischen Eigenschaften der Substanzen untersuchen sollten.
Im Vorfeld dieser Studien wurden analytische Methoden entwickelt um die Substanzen aus den biologischen Proben bestimmen zu können. Das Hauptaugenmerk lag dabei auf einer besonders hohen Empfindlichkeit um auch sehr kleine Konzentrationen, die sich bei den Studien im Hirngewebe der Tiere ergeben können, bestimmen zu können.
Die Validierung der Methoden sollte nach Guideline der FDA (Food and Drug Administration) für bioanalytische Methodenentwicklung erfolgen.
Die Validierung stellt die Grundlage dar, um die Gehalte der Verbindungen aus biologischen Matrices wie Plasma und Hirn einwandfrei quantifizieren zu können und somit auch die Bioverfügbarkeit im ZNS nachzuweisen.
Für MH84 konnte eine empfindliche LC/MS-Methode entwickelt und validiert werden. Dabei wurde eine MultoHigh 100 RP 18-5µ, 125 x 4 mm HPLC Säule und ein MicrOTOF-QII Massenspektrometer der Firma Bruker® mit einer APCI-Quelle für die Ionsierung verwendet.
Es konnten alle Forderungen der FDA Guideline zur analytischen Methode erfüllt werden und die Stabilität der Substanz zweifelsfrei bewiesen werden.
Die validierte Methode wurde anschließend für die Auswertung einer Pharmakokinetik-Studie an gesunden Mäusen verwendet. Der zeitliche Konzentrationsverlauf von MH84 im Plasma und Hirngewebe, sowie die ZNS-Bioverfügbarkeit der Substanz, konnten mit Hilfe der analytischen Methode bestimmt werden.
Zusätzlich wurden eine Akkumulationsstudie und zwei pharmakodynamische Studien durchgeführt. Dabei wurde festgestellt, dass sich MH84 nach 21-tägiger, oraler Gabe von 12_mg/Kg nicht im Gehirn gesunder Mäuse anreichert.
Die Wirkung von MH84 auf transgene Tiere, die das Krankheitsmodell beschreiben, wurde ebenfalls nach 21 Tagen oraler Gabe untersucht. Die Tiere waren deutlich vitaler im Vergleich zu den transgenen Kontrolltieren.
Es konnten vor allem Verbesserungen der mitochondrialen Dysfunktion festgestellt werden, die zu einer vollständigen Wiederherstellung der Parameter im Vergleich zu nicht-transgenen Kontrolltieren führten. Die Aβ-Spiegel konnten vermutlich aufgrund der kurzen Behandlungsdauer nur leicht gesenkt werden.
Für MH163 wurde ebenfalls eine empfindliche Analysenmethode entwickelt. Dabei konnte die gleiche HPLC-Säule wie bei MH84 verwendet werden. Die chromatographischen Bedingungen und die APCI-Parameter wurden für diese Verbindung neu optimiert.
Im Verlauf der Methodenentwicklung wurden jedoch verschiedene Instabilitäten der Substanz sichtbar. Dabei handelte es sich licht- und zeitabhängige Vorgänge.
Es kam infolge einer E/Z-Isomerisierung an der Doppelbindung der Zimtsäuregruppe zu einem zweiten analytischen Signal, welches bei der Anwendung der entwickelten LC/MS- Methode sichtbar wurde. Die Gesamtfläche beider Signale von MH163 zeigte zusätzlich eine ebenfalls zeitabhängige Abnahme. Durch eine Strukturaufklärung konnte ein Coumarin-Derivat als mögliches Umlagerungsprodukt identifiziert werden.
Da durch die Umlagerungsprozesse nicht sichergestellt ist, welche Verbindung die Aktivität in den in vitro Testsystemen ausgelöst hat und eine einwandfreie quantitative Bestimmung von MH163 in einem für die Analytik aus den Matrices benötigten Zeitraum nicht möglich ist, wurden die Tierstudien zu MH163 abgesagt.
as Locus coeruleus-noradrenerge System ist die primäre Quelle für zentrales corticales und subcorticales Noradrenalin. Die noradrenergen Projektionen des LC sind an der Modulation einer Vielzahl von funktionellen zentralen Abläufen beteiligt, u.a. an Aufmerksamkeitsprozessen, der Vermittlung von Stress und der Schlaf-Wach-Koordination, aber auch an der Koordination spezifischerer kognitiver Funktionen im Rahmen von Belohnungs-orientiertem Verhalten.
Die im Rahmen der vorliegenden Arbeit im anatomisch-topographischen Teil durchgeführten Experimente belegen eine dichte noradrenerge Innervation des präfrontalen Cortex, des dorsalen und ventralen Hippocampus, und des Kleinhirns durch Neurone des Locus coeruleus. Innerhalb des LC sind die nach präfrontal und hippocampal projizierenden Neurone vorwiegend im dorsalen Anschnitt über die gesamte rostro-caudale Achse zu finden. Der Anteil ipsilateral gelabelter Zellen überwiegt deutlich. Coeruleocerebelläre Neurone sind innerhalb des LC sowohl in den dorsalen als auch ventralen Abschnitten, ebenfalls über die gesamte rostro-caudale Achse, zu finden. Der Anteil kontralateral gelabelter Zellen ist relativ höher als bei den anderen Projektionen.
Die im ersten elektrophysiologischen Teil der Arbeit durchgeführten Experimente belegen ein in den Grundeigenschaften ähnliches Feuerungsmuster selektiv identifizierter coeruleo-präfrontaler und coeruleo-hippocampaler Nervenzellen. Einzelne Aktionspotential-Parameter waren signifikant unterschiedlich, hinweisend auf unterschiedliche hyperpolarisierende Ströme in beiden Populationen. Eine Überprüfung des a2-Autorezeptor-Status im zweiten elektrophysiologischen Teil der Arbeit ergab ein fehlendes Ansprechen der coeruleo-präfrontalen Neurone auf a2-Blockade (im Gegensatz zu den coeruleo-hippocampalen Neuronen); dieser Befund ist vereinbar am ehesten mit fehlenden oder funktionell down-regulierten a2-Rezeptoren selektiv in nach präfrontal projizierenden Neuronen des Locus coeruleus. Hierbei handelt es sich um einen in der Literatur nicht vorbeschriebenen Befund.
Da die Implantologie ein fester Bestandteil der modernen Zahnheilkunde geworden ist, wird auch die Evaluation des Kieferknochens immer relevanter. Diese hohe Bedeutung des Kieferknochens ist damit zu begründen, dass für den Langzeiterfolg eines Implantates die knöcherne Einheilung im Rahmen der Osseointegration die Grundvoraussetzung bildet. Zudem erfordern verschiedene Knochenqualitäten des Kieferknochens unterschiedliche Implantatdurchmesser und Bohrprotokolle. Schon hier zeigt sich, wie relevant weitreichende Kenntnisse über den Kieferknochen sind.
Auch im Rahmen der Implantatforschung und -entwicklung ist es von großer Bedeutung, Knochen zu evaluieren und damit kalibrieren und kategorisieren zu können, um vergleichbare Versuchswerte generieren zu können. In der aktuellen Literatur liegen zahlreiche Studien zu der Knochendichte, -qualität und -quantität des Kieferknochens vor, Evaluationsmethoden des Kieferknochens sind jedoch rar. Aufgrund dessen befasst sich diese Arbeit mit der Neuentwicklung einer Evaluationsmethode von Knochen.
Zu diesem Zweck wurde in dieser Arbeit der an ein inseriertes Implantat-Dummy angrenzende Knochen mit einem Bone-Evaluation Tool bewertet und geprüft, ob eine Korrelation zwischen dem Eindrehmoment des Implantat-Dummys, der Kompaktadicke und dem Eindrehmoment des nachfolgenden Bone-Evaluation-Tools besteht. Eine bestehende Korrelation würde bedeuten, dass dieses Evaluation-Tool in der Lage ist, Knochen bezüglich seiner Güte zu bewerten und zu kalibrieren.
Durchgeführt wurden die Versuche an dem distalen Ende von bovinen Rippensegmenten sowie an Segmenten des bovinen Femurkopfes. Beide sollten den Kieferknochen der humanen Mandibula simulieren. Es wurden zwei im Durchmesser differierende Bohrprotokolle angewendet, welche als „Hard Bone Small“ (HBS) und „Hard Bone Large“ (HBL) bezeichnet wurden. Als erstes erfolgte jeweils eine Vorbohrung (ø HBS: 3,3 mm; ø HBL: 4,0 mm), gefolgt von der Insertion des Implantat-Dummys (ø HBS: 3,5 mm; ø HBL: 4,2 mm). Als nächstes erfolgte die Entfernung (Aufbohrung) der Gewindeimpressionen, die durch den Implantat-Dummy generiert wurden (ø HBS: 3,8 mm; ø HBL: 4,5 mm). Anschließend wurde das Bone-Evaluation-Tool inseriert (ø HBS: 4,0 mm; ø HBL: 4,7 mm). Zum Schluss wurden die Rippensegmente mittig der Insertionsstelle aufgehackt und an beiden Hälften jeweils median der Insertionsstelle die Kompaktadicke gemessen und die Werte gemittelt.
Anhand der Ergebnisse konnte gezeigt werden, dass beide Bohrprotolle (HBS und HBL) verwendet werden können, um bovinen Rippenknochen zu evaluieren (p<0,001), da eine statistisch signifikante Korrelation zwischen Drehmoment ID mit Drehmoment BET und der Kompaktadicke bewiesen wurde (p<0,001). In Folgearbeiten wird geprüft, ob sich diese Bohrprotokolle auch auf menschlichen Kadaverknochen übertragen lassen.
Diese Arbeit trägt dazu bei, die Lutherdarstellung in Lehr- und Schulbüchern der ersten Schulbuchgeneration systematisch zu erschließen. Sie stellt sich der Herausforderung den jeweils spezifischen Akzent der Lutherdarstellung und -konzeption, welcher in den Lehrtexten des Lehrbuchs transportiert wird, herauszuarbeiten und weitergehend im Verbund mit den anderen untersuchten Lehrbüchern auf übergreifende, verbindende und trennende Elemente zu untersuchen. Diese Forschungsarbeit leistet einen Beitrag zur Erschließung Luthers sowie ihrer Art und Intensität in dem Medium des Schulbuchs im Kontext der Aufklärung. Insgesamt werden zehn Werke von acht Autoren im Zeitraum von 1780 bis 1817 untersucht, darunter Schulbücher von Johann Matthias Schröckh, Lorenz von Westenrieder und Jakob Brand.
Im Rahmen dieser Arbeit wurde ein Reaktionsmikroskop (REMI) nach dem Messprinzip COLTRIMS (Cold Target Recoil Ion Momentum Spectrometry) neu konstruiert und aufgebaut. Die Leistungsfähigkeit des Experimentaufbaus konnte sowohl in diversen Testreihen als auch anschließend unter realen Messbedingungen an der Synchrotronstrahlungsanlage SOLEIL und am endgültigen Bestimmungsort SQS-Instrument (Small Quantum Systems) des Freie-Elektronen-Lasers European XFEL (X-ray free-electron laser) eindrucksvoll unter Beweis gestellt werden.
Mit der Experimentiertechnik COLTRIMS ist es möglich, alle geladenen Fragmente einer Wechselwirkung eines Projektilteilchens mit einem Targetteilchen mittels zweier orts- und zeitauflösender Detektoren nachzuweisen. In einem Vakuumrezipienten wird die als Molekularstrahl präparierte Targetsubstanz inmitten der Hauptkammer zentral mit einem Projektilstrahl (z.B. des XFEL) zum Überlapp gebracht, sodass dort eine Wechselwirkung stattfinden kann. Bei den entstehenden Fragmenten handelt es sich um positiv geladene Ionen sowie negative geladene Elektronen. Elektrische Felder, erzeugt durch eine Spektrometer-Einheit, sowie durch Helmholtz-Spulen erzeugte magnetische Felder ermöglichen es, die geladenen Fragmente in Richtung der Detektoren zu lenken. Die Orts- und Zeitmessung eines einzelnen Teilchens (z.B. eines Ions) findet in Koinzidenz mit den anderen Teilchen (z.B. weiteren Ionen bzw. Elektronen) statt. Mit dieser Messmethode können die Impulsvektoren und Ladungszustände aller geladenen Fragmente in Koinzidenz gemessen werden. Da hierbei die geometrische Anordnung der einzelnen Komponenten für die Leistungsfähigkeit des Experiments eine entscheidende Rolle spielt, mussten bei der Neukonstruktion des COLTRIMS-Apparates für den Einsatz an einem Freie-Elektronen-Laser (FEL) einige Rahmenbedingungen erfüllt werden. Besonders wurden die hohen Vakuumvoraussetzungen an den Experimentaufbau aufgrund der enormen Lichtintensität eines FEL beachtet. Das Zusammenspiel der vielen Einzelkomponenten konnte zunächst in mehreren Testreihen überprüft werden. Unter anderem durch Variation der Vakuumbauteile in Material und Beschaffenheit konnten die zuvor ermittelten Vorgaben schließlich erreicht werden. Das neu konstruierte Target-Präparationssystem zur Erzeugung molekularer Gasstrahlen erlaubt nun den Einsatz von bis zu vier unterschiedlich dimensionierten, differentiell gepumpten Stufen. Zudem wurden hochpräzise Piezo-Aktuatoren verbaut, welche die Bewegung von Blenden im Vakuum erlauben, wodurch eine variable Einstellung des lokalen Targetdrucks ermöglicht wird. Die Anpassung der elektrischen Felder des Spektrometers für ein jeweiliges Experiment wurde mittels Simulationen der Teilchentrajektorien, Teilchenflugzeiten sowie der Detektorauflösung durchgeführt.
Da die in dieser Arbeit besprochenen Messungen und Ergebnisse die Wechselwirkungsprozesse von Röntgenstrahlung bzw. Synchrotronstrahlung mit Materie thematisieren, wird die Erzeugung von Synchrotronstrahlung sowohl in Kreisbeschleunigern als auch in den modernen Freie-Elektronen-Lasern (FEL) erklärt und hergeleitet. Der im Röntgenbereich arbeitende Freie-Elektronen-Laser European XFEL, welcher u.A. als Strahlungsquelle für die hier gezeigten Experimente diente, ist eine von derzeit noch wenigen Anlagen ihrer Art weltweit. Seine Lichtintensität in diesem Wellenlängenbereich liegt bis zu acht Größenordnungen über den bisher verwendeten Anlagen für Synchrotronstrahlung.
Beim ersten Einsatz der neuen Apparatur an der Synchrotronstrahlungsanlage SOLEIL wurde der ultraschnelle Dissoziationsprozess von Chlormethan (CH3Cl) untersucht. Während des Zerfallsprozesses nach Anregung durch Röntgenstrahlung werden hochenergetische Auger-Elektronen emittiert, welche in Koinzidenz mit verschiedenen Molekülfragmenten nachgewiesen wurden. Durch den Zerfallsmechanismus der ultraschnellen Dissoziation wird die Auger-Elektronenemission nach resonanter Molekülanregung während der Dissoziation des Moleküls beschrieben. Die kinetische Energie des Auger-Elektrons ist dabei abhängig von seinem Emissionszeitpunkt. Somit können die gemessenen Auger-Elektronen ein „Standbild“ der zeitlichen Abfolge des Dissoziationsprozesses liefern.
Es wird eine detaillierte Beschreibung der Datenanalyse vorgenommen, welche aus Kalibrationsmessungen und einer Interpretation der Messdaten besteht. Die abschließende Betrachtung besteht in der Darstellung der Elektronenemissionswinkelverteilungen im molekülfesten Koordinatensystem. Die Winkelverteilung der Auger-Elektronen wird am Anfang der Dissoziation vom umgebenden Molekül- potential beeinflusst und zeigt deutliche Strukturen entlang der Bindungsachse. Entfernen sich die Bindungspartner voneinander und das Auger-Elektron wird währenddessen emittiert, so verschwinden diese Strukturen zunehmend und eine Vorzugsemissionsrichtung senkrecht zur Molekülachse wird sichtbar.
Die Analyse der Messdaten zur Untersuchung von Multiphotonen-Ionisation an Sauerstoff-Molekülen am Freie-Elektronen-Laser European XFEL ermöglichte unter anderem die Beobachtung „hohler Moleküle“, also Systemen mit Doppelinnerschalen- Vakanzen. Solche Zustände können vor allem durch die sequentielle Absorption zweier Photonen entstehen, wobei die hierbei nötige Photonendichte nur von FEL- Anlagen bereit gestellt werden kann. Hier konnte das Ziel erreicht werden, erstmalig die Emissionswinkelverteilungen der Photoelektronen von mehrfach ionisierten Sauerstoff-Molekülen (O+/O3+-Aufbruchskanal) als Folge der ablaufenden Mechanismen femtosekundengenau zu beobachten. Hierzu wurde ein vereinfachtes Schema der verschiedenen Zerfallsschritte erstellt und schließlich ermittelt, dass der Zerfall durch eine PAPA-Sequenz beschrieben werden kann. Bei dieser handelt es sich um die zweimalige Abfolge von Photoionisation und Auger-Zerfall. Somit werden vier positive Ladungen im Molekül erzeugt. Das zweite Photon des XFEL wird dabei während der Dissoziation der sich Coulomb-abstoßenden Fragmente absorbiert, weshalb es sich um einen zweistufigen Prozess aus Anrege- und Abfrage- Schritt (Pump-Probe) handelt. Schlussendlich gelang zudem der Nachweis von Doppelinnerschalen-Vakanzen im Sauerstoff-Molekül nach Selektion des O2+/O2+- Aufbruchkanals. Hierfür konnten die beiden Möglichkeiten einer zweiseitigen oder einseitigen Doppelinnerschalen-Vakanz getrennt betrachtet werden und ebenfalls erstmalig das Verhalten der Elektronenemission dieser beiden Zustände verglichen werden.
Ziel der vorliegenden Arbeit ist es die computergestützte, lichtoptometrische Gesichtsscannung ‚Primos body‘ zur dreidimensionalen Weichteilvermessung des Gesichts gegenüber der althergebrachten, manuellen Gesichtvermessung durch das ‚Clinometer nach Dr. Behrend‘ für den Bereich der Kieferorthopädie zu evaluieren. An dieser Untersuchung haben insgesamt 42 gesunde Erwachsene im Alter zwischen 24 und 51 Jahren teilgenommen. Um die optimalen Versuchsanordnungen sowie die Untersucher-Intervariabilität der Geräte festzustellen sind Voruntersuchungen durchgeführt worden. Bestandteil der Hauptuntersuchungen ist es mittels beider Apparaturen definierte Winkel zu vermessen und vergleichend auszuwerten. Für beide Messreihen kommen Landmarken im Bereich der Gesichtsmitte (Glabella, Nasenspitze und Hauptpogonion) zur Anwendung. Bezüglich Primos body werden zusätzlich die Abbildungen lächelnder sowie nicht lächelnder Gesichter (l- und nl- Messreihe) softwaregestützt nach definierten Winkeln ausgewertet. Die Voruntersuchungen ergeben, dass für das Clinometer die Methode „Fläche – Kopfhalterung“ als die sicherste Variante bezüglich der Reproduzierbarkeit der Messwerte einzustufen ist. Zur zusätzlichen Fixierung des Clinometers sollte daher zukünftig eine Kopfhalterung eingesetzt werden. Ferner sollte es auf eine Fläche aufgelegt werden. Abgesehen davon besagen die statistischen Auswertungen, dass das Clinometer nach Dr. Behrend einer häheren Untersucher-Intervariabilität unterliegt, als das Primos body. Die Untersucher-Intervariabilität des Clinometers liegt aber in einer klinisch wenig relevanten Größenordnung (<1°).
Für die Messungen der Hauptuntersuchungen mittels des Primos bodys sind folgende Winkel gewählt worden: Die erste Halbgerade stellt immer die Bipupillarlinie dar, die zweiten Halbgeraden werden gebildet aus den Verbindungslinien zwischen 1) Glabella und Nasenspitze (BN); 2) Glabella und Hauptpogonion (BK); 3) den beiden äußeren Augenwinkeln (BäA); 4) den bei-den Mundwinkeln (BM); 5) den beiden inneren Augenwinkeln (BiA); 6) Glabella und dem Interincisalpunkt (BI) sowie 7) den beiden Eckzahnspitzen (BE).
Der Winkel BN hat in den l- und nl-Messreihen die größte Distanz zur Symmetrieebene, beim Lächeln verändert er sich am stärksten und bezüglich der Standardabweichung unterliegt er der größten Streuung. Der Winkel BäA unterliegt der kleinsten Distanz zur 0°-Ebene, verändert sich beim Lächeln am wenigsten und weist bezüglich der Standardabweichung die geringste Streuung auf. Der Winkel BK konnte vom Untersucher am präzisesten bestimmt werden, dem Winkel BE wird hingegen die größte Ungenauigkeit zugeschrieben. Die Gesichter der Probanden dieser Studie werden beim Lächeln nicht symmetrischer oder asymmetrischer. Vielmehr nähert sich die Veränderung einer Gauß`schen Normalverteilung an. Der Winkel BK verändert sich beim Lächeln signifikant stärker, wenn er in nicht lächelnder Stellung weit von der Symmetrieebene entfernt ist (Spearman-Rho-Test: p=0,015). Für alle anderen Winkel sind keine Signifikanzen diesbezüglich festzustellen. Auch gilt für BK: Die Gesichter der Frauen der Studie sind sowohl in der nl- als auch l-Messreihe bezüglich des Winkels BK signifikant symmetrischer als die der Männer (Wilcoxon-Mann-Whitney-U-Tests: p<0,05). Der Bland-Altman-Test ergibt, dass der Winkel BK eher mit dem Ästhetikwinkel vergleichbar ist als der Winkel BN. Für zukünftige Vermessungen mit dem Clinometer sollte die Gesichtsmitte daher eher durch Hinzuziehen der Kinnmitte, als der Nasenachse zur Bestimmung des Ästhetikwinkels miteinbezogen werden. Weiterführend ist die softwaregestützte Gesichtsvermessungsmethode mit Primos body bezüglich der Messgenauigkeit dem Clinometer überlegen. Die vorliegende Dissertation kann somit ein neues bildgebendes Verfahren im Bereich der dreidimensionalen Gesichtsvermessung spe-ziell für das kieferorthopädische und kieferchirurgische Gebiet vorstellen, mit Hilfe jener zahlreiche Anwendungsmöglichkeiten in Diagnostik, Planung, Therapie und Nachsorge bestehen. Zusätzlich sollen die Ergebnisse Anstoß für weitere Forschungen im Bereich der dreidimensionalen Gesichtsvermessung sein um zukünftig invasive bildgebende Verfahren ersetzten zu können.
Um Wissen in einer Form abzulegen, in der es automatisiert verarbeitet werden kann, werden unter anderem Ontologien verwendet. Ontologien erlauben über einen als Inferenz bezeichneten Prozess die Ableitung neuen Wissens. Bei inhaltlichen Überschneidungen werden Ontologien über Ontologie-Alignments miteinander verbunden, die Entitäten aus den verschiedenen Ontologien in Beziehung zueinander setzen. Üblicherweise werden diese Alignments als Mengen von Äquivalenzen formuliert, die beschreiben, welche Konzepte aus einer Ontologie Konzepten aus einer anderen Ontologie entsprechen. Ebenfalls verbreitet sind Ober- und Unterklassenbeziehungen in Alignments.
Diese Ontologie-Alignments werden zum Beispiel in der Biomedizin in Forschungsdatenbanken verwendet, da durch Alignments Informationen aus verschiedenen Bereichen zusammengeführt werden können. Der manuelle Aufwand, um große Ontologien und Alignments zu erstellen, ist sehr hoch. Dementsprechend wäre es wünschenswert, bei einer Veränderung von Ontologien nicht wieder von vorne beginnen und eine neue Ontologie erstellen zu müssen und möglichst viel aus der veränderten Ontologie und den die Ontologie betreffenden Alignments wiederverwenden zu können. Daher sollten möglichst automatisierte Verfahren verwendet werden. Diese Arbeit untersucht vier Ansätze, um die Anpassung von Alignments an Veränderungen in Ontologien zu automatisieren.
Der erste Ansatz bezieht Inferenzen in den Prozess zur Vorhersage von Alignment-Änderungen mit ein. Dazu werden die Inferenzen vor und nach der Änderung der Ontologien berechnet und auf Basis der Unterschiede mit einem regelbasierten Algorithmus bestimmt, wie sich das Alignment ändern soll. Der zweite Ansatz, wie auch die weiteren Ansätze, hat nicht zum Ziel das Alignment direkt anzupassen. Stattdessen soll vorhergesagt werden, welche Teile des Alignments angepasst werden müssen. Dazu werden die Ontologien und das Alignment als Wissensgraph-Embeddings repräsentiert. Diese Embeddings bilden Knoten aus den Ontologien in einen Raum mit 300-1000 Dimensionen so ab, dass in dem Raum auch die Beziehungen zwischen den Entitäten der Ontologien repräsentiert werden können. Diese Embeddings werden dann verwendet, um verschiedene Klassifikationsalgorithmen zu trainieren. Auf diese Weise wird vorhergesagt, welche Teile des Alignments sich verändern werden. Der dritte Ansatz verbindet Embeddings mit einem Veränderungsmodell. Das Veränderungsmodell kategorisiert die an den Ontologien vorgenommenen Veränderungen. Auf diese Kategorisierung und das Embedding werden dann Klassifikationsalgorithmen angewandt. Der vierte Ansatz verwendet eine speziell auf Wissensgraphen ausgerichtete Architektur für neuronale Netze, sogenannte Graph Convolutional Networks, um Veränderungen an Alignments vorher zu sagen.
Diese Ansätze werden auf ihre jeweiligen Vor- und Nachteile untersucht. Dazu werden die Verfahren an zwei Anwendungsfällen untersucht. Der Ansatz zur regelbasierten Einbeziehung von Inferenzen wird anhand eines Anwendungsbeispiels aus dem Bereich der Interweaving Systems betrachtet. In dem Beispiel wird eine allgemeine Methode für Interweaving Systems angewandt um das Selbstmanagement von Ampelsteuerungen zu ermöglichen. Die auf maschinellem Lernen aufbauenden Ansätze werden auf einem Auszug aus der biomedizinischen Forschungsdatenbank UMLS evaluiert.
Dabei konnte festgestellt werden, dass die betrachteten Ansätze grundsätzlich zur Anpassung von Alignments an Ontologie-Veränderungen eingesetzt werden können. Der Ansatz zur regelbasierten Einbeziehung von Inferenzen kann dabei vor allem auf sehr kleinen Datensätzen eingesetzt werden, bei denen alle Gesetzmäßigkeiten der Veränderungen grundsätzlich bekannt sind. Diese Anwendbarkeit ergibt sich aus dem Entwurf der Problemstellung für den ersten Ansatz. Die auf maschinellem Lernen aufbauenden Ansätze eignen sich besonders für große Datensätze und bieten den Vorteil, dass auch ohne ein vollständiges Verständnis des Veränderungsprozesses Vorhersagen getroffen werden können.
Unter den Ansätzen, die maschinelles Lernen einsetzen, zeigte die Einbeziehung von Veränderungsmodellen keine Vorteile gegenüber den anderen Ansätzen. Auf einem etwas
kleineren Datensatz waren die Ergebnisse des Embedding-basierten Ansatzes und der Relational Graph Convolutional Networks vergleichbar, während auf einem größeren Datensatz
die Graph Convolutional Networks etwas bessere Ergebnisse erreichen konnten.
Weitere Ergebnisse dieser Arbeit stellen eine Formalisierung der Problemstellung der Anpassung von Ontologie-Alignments an Veränderungen sowie eine formale Darstellung der Ansätze dar. Ein weiterer Beitrag der Arbeit ist die Vorstellung eines Anwendungsfalls aus dem Bereich der Interweaving Systems für Ontologie-Alignments. Außerdem wurde das Problem der Anpassung von Alignments an Veränderungen so formuliert, dass es mithilfe von
maschinellem Lernen betrachtet werden kann.
Es gibt zwei Leitmotive, die sich konsequent in der Rhetorik der Forschungsliteratur zu Anselm Kiefer beobachten lassen: zum einen die Auseinandersetzung des Künstlers mit dem Nationalsozialismus und in der Folge mit der nordisch-germanischen Mythologie und zum anderen die Beschäftigung mit dem Judentum und der jüdischen Mystik. Innerhalb des Gesamtoeuvres sind jedoch diejenigen Arbeiten, die sich augenscheinlich und sehr offensichtlich mit dem Nationalsozialismus beschäftigen nur eine sehr kleine Gruppe. In seiner 50 Jahre umfassenden künstlerischen Laufbahn hat er lediglich in den ersten Jahren eine offensive Auseinandersetzung mit der NS-Vergangenheit Deutschlands gesucht. Sie bildet gleichsam den Startpunkt seiner künstlerischen Karriere. Mittlerweile ist der Künstler Anselm Kiefer mit der Aufarbeitung des Nationalsozialismus und den Begrifflichkeiten Vergangenheitsbewältigung, Erinnerungsarbeit und Trauerarbeit kanonisiert. Doch je länger der Schaffensprozess von Kiefer andauert und je weiter man auf sein produktives Œuvre zurückblicken kann, umso deutlicher erkennt man nachweisbar zwei ganz andere bildimmanente Leitkategorien in diversen Facetten und Nuancen, die in ihrer Überordnung eine völlig neue Dimension einschlagen: die Dimension von Zeit und Raum respektive Zeitlichkeit und Räumlichkeit in Kiefers gesamtem Werkkomplex.
Insistent beschäftigt sich Kiefer mit allgemeingültigen Themen der Vergangenheit, Gegenwart und Zukunft oder diskutiert zeitlose und damit verbunden auch schwer zugängliche Inhalte. Zeitlos meint in diesem Fall, dass er sich nicht mehr mit den ihm vorher typischen Referenzen der Historie und Geschichte (wie eben dem Nationalsozialismus) beschäftigt, sondern vielmehr auch mit zeitlichen Dimensionen wie der kosmologischen, geologischen oder Lebens-Zeit. Zunehmens treten ab Mitte der achtziger Jahre Raumbezogene Kosmos- und Genesisthemen aus dem Alten Testament oder der Kabbala in den Mittelpunkt. Raum und Zeit als zwei Leitkategorien breiten sich wie eine Art Dach über Kiefers gesamtes Œuvre und über die üblichen ikonografischen Interpretationsmodelle aus. Sie werden von mir als alternative Lesart der Forschung empfohlen.
Jedes Bildwerk besitzt neben seiner räumlichen Gestalt und seinem kompositorischen Bildaufbau auch eine implizite Bildzeit. Beide Determinanten bedingen als Ordnungsraster nicht nur die jeweilige formale Bildgestalt, sondern auch den strukturellen Bildgehalt in Form eines zeitlich-räumlichen Ausdrucks. Raum und Zeit sind als normativ zu verstehen, im Sinne eines Standards, gleichsam als eine Regel, die grundsätzlich für die Annäherung und Interpretation der Kieferschen Arbeiten angewendet werden kann. Die Wahrnehmung von Raum und Zeit bei Kiefer kann gleichsam übergreifend in die folgenden drei Kategorien eingeteilt werden: 1.) die thematische Referenz auf die beiden Dimensionen, 2.) der tatsächlich motivische Bezug oder 3.) die faktische Umsetzung anhand der Dimension des Bildträgers oder der Entstehungszeit des Werkes. Raum und Zeit liegen zudem ganz grundsätzlich dem kosmologischen Weltentwurf zugrunde, da Alles in Zeit und Raum ist. Die beiden Dimensionen sind dem Kieferschen Sternenbild qua seiner Existenz daher schon anhaftig.
Kiefer hat in den Jahren 1995 bis 2010 eine beachtliche Anzahl an Sternenbildern geschaffen. Er fertigt die Bilder vor allem seriell an, so dass diese Fülle auf Basis diverser formaler Bildanlagen von mir in zwei Gruppen unterteilt wurde.
Die erste Gruppe folgt einer traditionellen Bildform, indem sie grundsätzlich den Bildträger kompositorisch in eine irdische und eine stellare räumliche Zone unterteilen. Der nächtliche Sternenhimmel breitet sich darin geschlossen über einer Landschaft oder einem Innenraum aus. Der Betrachter wird gleichsam von seinem irdischen Standpunkt aus auf den Blick gen Sternenhimmel gelenkt. Die Sternenbilder aus irdischer Perspektive versammeln philosophisches und literarisches Gedankengut der historischen Personen Immanuel Kant, Ingeborg Bachmann und Pierre Corneille. Die zweite Gruppe umfasst jene Arbeiten, die den irdischen Standpunkt verlassen und keine Horizontlinie mehr aufweisen. Bei diesen Arbeiten begreift Kiefer den Bildträger in seiner kompletten Dimensionalität als rein stellaren Bildraum. In den Werken wird als Konsequenz eine für Kiefers Sternenbilder neue bildräumliche Perspektive obligat.
Die Sternenbilder Kiefers fokussieren grundsätzlich kosmologische Fragestellungen, seien sie philosophisch, literaturwissenschaftlich, naturphilosophisch, naturwissenschaftlich oder religiös konnotiert. Damit folgen sie der Tradition vorangegangener Künstlergenerationen. In einem Einführungskapitel, welches für die Verortung Kiefers in die Tradition des Sternenbildes wichtig ist, wird aufgezeigt, dass das Bild der Sterne stets in enger Verbindung mit den eben genannten Disziplinen steht, durch diese maßgeblich beeinflusst wurde und weiterhin wird. Den Künstlern ist die Tatsache gemein, dass sie mit ihrer Darstellung des Sternenhimmels der Frage nach einer räumlichen und zeitlichen Ordnung der Welt, gleichsam als Kosmos verstanden, sowie ihrer Entstehungsursache und des „Bauplans“ nachgehen. Den Sternenbildern scheint gemein zu sein, dass sie realiter durch Beobachtungen, Erkenntnisse und Ergebnisse Wissensräume sichtbar machen, determinieren und das jeweilige Wissen transportieren.
Kiefers kosmologischer Diskurs verläuft in dem großen Bereich des Nicht-Wissens, mit dem Versuch einen ontologischen Sinn herzustellen. Die Arbeiten, die auf Kant referenzieren, auf Bachmann und auf Corneille zeugen von Kiefers kosmologischer Auseinandersetzung, seiner Frage nach Gott, seiner Verortung im Kosmos, seiner Beschäftigung mit dem Darstellbaren und Un-Darstellbaren und einer damit verbundenen Sinnsuche.
Abdominale Aortenaneurysmen sind in Industrienationen eine häufige Erkrankung der Personengruppe über 65 Jahre. Diese Dilatationen der abdominalen Aorta zeichnen sich durch eine lokale Inflammation aus, die mit der Infiltration von Immunzellen, dem Verlust von glatten vaskulären Muskelzellen und der Degeneration der extrazellulären Matrix einhergeht. Ursprünglich als Symptom einer Atherosklerose angesehen, sind die Ursachen dieser progressiv verlaufenden Erkrankung nach wie vor nicht vollständig verstanden; obwohl steigendes Alter, männliches Geschlecht, genetische Prädisposition, Rauchen und ein zuvor erlittener Myocardinfarkt als Risikofaktoren identifiziert werden konnten. Der lange Zeit asymptomatische Krankheitsverlauf, die Gefahr einer Ruptur mit häufig letalen Folgen und der Mangel einer effizienten pharmakologischen Therapie machen eine weitere Untersuchung dieser Erkrankung unabdingbar.
Diltiazem ist ein Inhibitor spannungssensitiver L Typ-Calciumkanäle, der seit über 25 Jahren zur Behandlung von arterieller Hypertonie, verschiedener Arrhythmien und Angina pectoris verwendet wird. Im Rahmen der vorliegenden Arbeit sollte untersucht werden, ob Diltiazem auch einen antianeurysmatischen Effekt besitzt. Eine vierwöchige subcutane Infusion des blutdrucksteigernden Hormons Angiotensin II führte nach vier Wochen zur Bildung abdominaler Aortenaneurysmen, sowie zu atherosklerotischen Gefäßveränderungen der thorakalen Aorta Apolipoprotein E (ApoE)-defizienter Mäuse. Eine parallele Therapie mit Diltiazem über das Trinkwasser konnte diese Entwicklung unabhängig vom arteriellen Blutdruck und damit unabhängig von der antihypertensiven Wirkung verhindern. Im Aortenbogen Diltiazem-behandelter Tiere konnte im Rahmen dieses in vivo-Modells nach sechs Tagen eine deutlich geringere lokale Expression proinflammatorischer Cytokine, wie Tumornekrosefaktor-a, Interleukin-1ß (IL1B) und Interleukin-6 (IL6), Chemokine, wie CCL2, und degenerativer Proteasen, wie der Matrix-Metalloprotease 9 (MMP9), festgestellt werden. Dies war die Folge einer reduzierten Anzahl von Macrophagen in der Gefäßwand. Zirkulierende proinflammatorische Cytokine, wie CCL12, konnten im Serum teilweise ebenfalls vermindert nachgewiesen werden.
Obwohl die antihypertensive Wirkung von Diltiazem in glatten vaskulären Muskelzellen vermittelt wird, war es nicht möglich, die Angiotensin II-induzierte Produktion von promigratorischem CCL2 und proinflammatorischem IL6 in isolierten Aortenringen ApoE-defizienter Mäuse oder in glatten vaskulären Muskelzellen der Ratte zu reduzieren. Diltiazem war zudem nicht in der Lage, die CCL2-induzierte Migration proinflammatorischer Ly6C+-Monocyten in vivo zu unterbinden. In isolierten peritonealen Macrophagen ApoE-defizienter Mäuse dagegen, konnte die IL6 induzierte Expression von IL1B- und CCL12-mRNA durch eine Inkubation mit Diltiazem verhindert werden. In der RAW264.7-Zelllinie, die morphologische und funktionelle Merkmale von Monocyten und Macrophagen aufweist, konnte die Dilitiazem-sensitive IL6-induzierte Expression von IL1B-mRNA in vitro ebenfalls nachgewiesen werden. Eine Stimulation mit IL6 war in diesen Zellen jedoch nicht ausreichend, um die Sekretion von IL1B-Protein auszulösen.
Thorakales Aortengewebe wies im Vergleich mit RAW264.7-Zellen eine veränderte Ausstattung spannungssensitiver Calciumkanäle auf. In letzteren fanden sich keine muskelzellspezifischen L-Typ-Calciumkanäle (CACNA1C), aber eine relevante Expression neuronaler P/Q-Typ-Calciumkanäle (CACNA1A). Mittels fluorimetrischer Bestimmung mit Fura-2AM konnte jedoch festgestellt werden, dass die intrazelluläre Calciumkonzentration Diltiazem-behandelter RAW264.7-Zellen unverändert war und der antiinflammatorische Effekt somit calciumunabhängig vermittelt wurde.
Diltiazem war nicht in der Lage, eine Lipopolysaccharid (LPS)-bedingte Inflammation in RAW264.7-Zellen zu unterbinden. Weder die LPS-induzierte Sekretion von IL1B Protein, noch die nucleäre Translokation des Transkriptionsfaktors NF-?B oder die Aktivierung des NF-?B-Promotors konnten durch eine Inkubation der Zellen mit Diltiazem verhindert werden. Diltiazem reduzierte jedoch, die IL6-induzierte Aktivierung des AP 1-Promotors unabhängig von der MAPK1-Phosphorylierung oder der Phosphorylierung und nucleären Translokation des Transkriptionsfaktors STAT3 zu unterbinden. Eine Unterdrückung von c-Jun N-terminale Kinase JNK- oder p38 Proteinkinase-vermittelten Signalwegen ist damit wahrscheinlich.
Das Pirinixinsäurederivat LP105 ist ein neuer Inhibitor der Arachidonat-5-Lipoxygenase (LOX5), der im Rahmen dieser Arbeit erstmals in vivo auf seine antianeurysmatischen Eigenschaften hin untersucht wurde. LOX5 katalysiert die Reaktion von Arachidonsäure zu Leukotrien A4 und kontrolliert damit einen wichtigen Schritt in der Synthese proinflammatorischer Leukotriene. LP105 war im Tiermodell nicht in der Lage die Angiotensin II-induzierte Bildung abdominaler Aortenaneurysmen in ApoE-defizienten Mäusen komplett zu unterbinden, führte aber über die Reduktion der vaskulären Inflammation zu einer deutlich verringerten Krankheitslast. LP105 selbst beeinflusste die mRNA-Expression verschiedener Enzyme des Arachidonsäuremetabolismus nicht, verstärkte jedoch durch die Blockade von LOX5 die Metabolisierung von Arachidonsäure über Arachidonat-15-Lipoxygenase und Cytochrom P450-Enzyme.
1. Hintergrund und Ziel der Studie: Bei der Thrombolysetherapie des akuten ischämischen Schlaganfalls ist die Dosierung des Thrombolytikums strikt an das Körpergewicht des Patienten gebunden. Dies ist notwendig um die Effektivität der Therapie zu gewährleisten und um das Auftreten von Blutungskomplikationen weitestgehend zu verhindern. Aufgrund unterschiedlichster Faktoren, wie beispielsweise Einschränkungen des Bewusstseinszustands, oder aber Aphasie und Dysarthrie, sind viele potentielle Lyse-Patienten jedoch nicht in der Lage, ihr Körpergewicht dem behandelnden Arzt mitzuteilen. In vielen Fällen fehlen in der Akutsituation die Zeit, sowie die entsprechenden technischen Möglichkeiten, insbesondere bettlägerige Patienten zu wiegen. Folglich wird das Körpergewicht oftmals vom Arzt nach Augenmaß abgeschätzt, was erwiesenermaßen mit Ungenauigkeiten verbunden ist. Ziel der Studie war es, Approximationsmethoden zu entwickeln, die das Körpergewicht des Patienten anhand einfach erhältlicher anthropometrischer Maße zuverlässig zu bestimmen vermögen. 2. Methoden: Auf Grundlage anthropometrischer Daten einer bevölkerungsbasierten Population von 6.954 erwachsenen Probanden wurden, mittels linearer Regression, Approximationsformeln zur Abschätzung des Körpergewichts erstellt. Diese Formeln beinhalteten die Parameter „Körpergröße“, „Bauchumfang“ und „Hüftumfang“, sowie teilweise das Lebensalter der Person. Die verwendeten Parameter stellten allesamt unabhängige Prädiktoren des Körpergewichts dar. Die geschlechtsspezifischen Formeln wurden anschließend anhand einer unabhängigen Gruppe von 178 Patienten (90 Männer, 88 Frauen, Durchschnittsalter: 67,3 Jahre [±15,6 Jahre]) validiert. Einschlusskriterium war hierbei die Verdachtsdiagnose eines Schlaganfalls bei einer notfälligen stationären Aufnahme in die neurologischen Klinik des Klinikums der Johann-Wolfgang Goethe Universität Frankfurt am Main im Zeitraum April bis August 2006. Unter Verwendung des Goldstandards „Wiegung“, wurde die Genauigkeit der anthropometrischen Gewichtsapproximationen mit der Genauigkeit von jeweils zwei unabhängigen visuellen Schätzungen von in der Schlaganfall-Thrombolyse erfahrenen Ärzten verglichen. Für die klinische Nutzung wurden Approximationshilfen (ein Internet-Rechner und Nomogramme) entwickelt, die den Gebrauch der anthropometrischen Approximationsformeln erleichtern sollen. 3. Ergebnisse: Unter Verwendung der anthropometrischen Approximationsformeln konnten genauere Abschätzungen des wahren Körpergewichts erzielt werden, als durch rein visuelle Schätzung. Für die einfachsten und gleichzeitig genauesten Approximationsformeln (Approximationsmodell 1) betrug die durchschnittliche absolute Abweichung vom gewogenem Körpergewicht 3,1 kg (± 2,6 kg). Die Formeln waren somit signifikant genauer als die beiden Schätzungen durch Ärzte (Schätzung 1: 6,5 kg [± 5,2 kg], Schätzung 2: 7,4 kg [± 5,7 kg]; p < 0,001 für die Genauigkeitsvergleiche zwischen der jeweiligen Schätzung und der Approximation). Die Verwendung der Approximationsformeln reduzierte den Anteil aller Schätzungen, die mehr als 10% vom wahren Körpergewicht abwichen, von 31,5% (Schätzung 1) bzw. 40,4% (Schätzung 2) auf 6,2% (Approximationsmodell 1). In lediglich einem Fall (0,6%) wich das approximierte Gewicht mehr als 20% vom wahren Körpergewicht ab, wohingegen dies in 4,6% (Schätzung 1), respektive 8,5% (Schätzung 2) der Fälle für die Schätzungen zutraf. Die Benutzung der auf den Approximationsformeln basierenden Nomogramme führte zu keiner relevanten Verschlechterung der Schätzgenauigkeit (durchschnittliche absolute Abweichung vom gewogenen Körpergewicht 3,11 kg [± 2,69 kg], Anteil der Fehlschätzungen > 10% des Körpergewichts: 7,3%). Mit einer durchschnittlichen absoluten Abweichung vom wahren Körpergewicht von 2,7 kg (± 2,4 kg) und einem Anteil von 3,4% der Gewichtsschätzungen mit einer Abweichung von mehr als 10% vom wahren Gewicht, waren lediglich die Gewichtsangaben der Patienten selbst genauer als die anthropometrischen Approximationen. Die Messung der anthropometrischen Parameter dauerte durchschnittlich 99,5 Sekunden (± 36,7 s), für die Berechnung des Körpergewichts mittels Nomogramm wurden im Durchschnitt 56,7 Sekunden (± 15,3 s) benötigt. Die Übereinstimmung der Messergebnisse zwischen verschiedenen Untersuchern war hoch (Intraclass correlation Coefficients [ICC] für Körperlänge: 0,9978 [95% Konfidenzintervall 0,9954 - 0,9991], ICC für Bauchumfang: 0,9891 [0,9771 - 0,9953], ICC für Hüftumfang: 0,9921 [0,9836 - 0,9966]). 4. Schlussfolgerung: Durch die Verwendung von Approximationsformeln, basierend auf einfach bestimmbaren anthropometrischen Messgrößen (Körperlänge, Bauch- und Hüftumfang) ist es möglich, innerhalb kurzer Zeit eine relativ genaue Abschätzung des Körpergewichts von Schlaganfallpatienten zu erhalten. In Situationen, in denen das Körpergewicht des Patienten nicht umgehend erfragbar oder durch Wiegung bestimmbar ist, kann die vorgeschlagene Approximationsmethode helfen, grobe Schätzfehler und in der Folge Dosierungsfehler bei dosiskritischen Medikamenten zu minimieren.
Zwei flavonoidhaltige Pflanzenextrakte, der neuartige Extrakt WS1261, sowie der standardisierte Ginkgo biloba L.-Extrakt EGb761 wurden auf antidepressive Wirkungsmechanismen untersucht, zusätzlich als chemisch definierte Einzelsubstanz das in beiden enthaltene Flavonoid Isorhamnetin. Methodisch wurden hierzu Effekte auf Transporter und Enzyme des Monoaminstoffwechsels, depressionsrelevante Stresshormone neurotrophe Eigenschaften untersucht.
WS1261 hemmte in höheren Konzentrationen in vitro die (Wieder-) Aufnahmetransportmechanismen von NA und 5-HT. Ex vivo war ein Effekt auf die Aufnahme von NA und 5-HT weder nach 1 h, noch 4 h nach Akutbehandlungen zu sehen, sondern erst nach (14-taegiger) subchronischer Behandlung, und dann auch nur Ufer 5-HT zu messen. Nach subchronischer Behandlung konnte eine ebenfalls in vitro festgestellte Hemmung der MAO-A durch WS1261 ebenfalls ex vivo gezeigt werden.
EGb761 hemmte in vitro die Wiederaufnahme von NA, 5-HT und DA. Ex vivo war dieser Effekt weder 1 h, noch 4 h nach einer Akutgabe, allerdings nach 14-taegiger Dauerbehandlung im Bezug auf eine Hemmung der NA-Aufnahme messbar, ohne dass MAO-A oder MAO-B-Aktivitaet beeinflusst wurden.
WS1261 erhoehte nach 14-taegiger Behandlung konzentrationsabhaengig die Plasma-Corticosteronspiegel. WS1261 war in der Lage, die Ausdifferenzierung von PC12-Zellen konzentrationsabhaengig zu fördern, wodurch auf eine Wirkung ähnlich dem neurotrophen Wachstumsfaktor NGF geschlossen werden kann. Die Konzentration des Wachstumsfaktor BDNF wurde in zwei relevanten Hirnregionen durch WS1261 nicht, in einer jedoch durch Isorhamnetin allein erhoeht.
Zusammengefasst ergaben sich Hinweise darauf, dass eine mögliche antidepressive Wirkung von WS1261 durch eine Wirkung auf eine Beeinflussung des Monoaminstoffwechsels, oder die Erhöhung depressionsrelevanter Stresshormonlevel erklärbar sein koennte, insbesondere nach subchronischer Behandlung. Es ergaben sich ausserdem Hinweise auf wachstumsfaktoraehnliche Wirkungsweisen. Eine Wirkung ueber eine Erhšhung zentraler BDNF-Konzentrationen konnte durch die vorliegende Untersuchung im Beobachtungszeitrum nicht festgestellt werden.
Die literaturbekannte kognitionsverbessernde Wirkung des Ginkgo biloba-Extraktes EGb761 koennte erklärbar sein durch eine nach subchronischer Behandlung feststellbare Hemmung des Noradrenalintransporters NET, da im frontalen Cortex vor allem ueber diesen die synaptische Elimination des hier mit Aufmerksamkeit und Lernprozessen im Zusammenhang stehenden Neurotransmitters Dopamin erfolgt.
Das in beiden Extrakten enthaltene Flavonoid Isorhamnetin kann hšchstens mit einem Teil dieser festgestellten Effekte in Verbindung stehen, da die Extrakte sich in ihrer Wirkungsweise unterschieden, und Isorhamnetin alleine teilweise andere Effekte zeigte, als die isorhamnetinhaltigen Extrakte WS1261 und EGb761. Dies koennte jedoch auch durch die unterschiedlichen in den Extrakten enthaltenen Mengen erklärbar sein.
Die Motivation dieser Arbeit lag in der Formulierungsentwicklung eines nanopartikulären Systems auf Basis von Poly(D,L Milch-co-Glykolsäure) (PLGA) zum Transport eines antiangiogenen Antikörpers zur spezifischen Anreicherung in malignen Tumoren. Durch das partikuläre System soll eine optimierte Therapie mit erhöhten pharmazeutischen Wirkkonzentrationen am Wirkort bei gleichzeitig reduzierten Nebenwirkungen erreicht werden. In der Literatur wurden schon mehrfach unterschiedliche Herstellungsmethoden sowie diverse Untersuchungen der PLGA-Nanopartikel (NP) beschrieben. Dennoch fehlen bisher von Antikörperbeladenen PLGA-NP zur Tumortherapie systematische Untersuchungen der Herstellung, der Charakterisierung physikochemischer Eigenschaften, der Lagerstabilität und der Wirkung in biologischen Systemen. Diese Untersuchungen wurden in dieser Arbeit durchgeführt und die Ergebnisse in vier Teilbereiche gegliedert. Im ersten Teilbereich wurde die Herstellung und Charakterisierung der PLGA-NP etabliert. Dabei wurde zunächst der Einfluss unterschiedlicher Herstellungsparameter und Formulierungen auf unbeladene und Proteinbeladene PLGA-NP untersucht. Charakterisiert wurden die Nanopartikel anhand der Partikelgröße und Polydispersität, dem Zetapotential und den bildgebenden Verfahren TEM und SEM. Neben der Reproduzierbarkeit der physikochemischen Eigenschaften ist für die Entwicklung nanopartikulärer Systeme die exakte Bestimmung der Einbettungseffizienz hochpotenter Proteine von größter Bedeutung. Da an dieser Stelle keine normierten Methoden zur Verfügung standen, wurden drei Bestimmungsmethoden bewertet und die Einbettungseffizienzen untersucht. Im zweiten Teilbereich wurden die Lyophilisation und die Lagerstabilität der PLGA-NP untersucht. Um die kritischen Faktoren wie Partikelgröße und Partikelgrößenverteilung bis zur Applikation gewährleisten zu können, wurde die Lyophilisation der entwickelten PLGA-NP anhand unterschiedlicher Kriterien analysiert. Die Stabilität des erhaltenen Lyophilisats wurde durch eine anschließende Lagerstabilitätsstudie bei unterschiedlichen Klimabedingungen bewertet. Die Charakterisierung der Partikelgrößen und Partikelgrößenverteilungen mittels PCS, AUZ und TEM der PLGA-NP in Gegenwart unterschiedlicher Stabilisatoren erfolgte vor und nach der Lyophilisation sowie nach 4, 8 und 13 Wochen Lagerung bei Klimabedingungen von 4°C, 25°C/60rF und 40°C/75rF. Im dritten Teilbereich der Arbeit werden Ergebnisse zum Freisetzungsverhalten der Proteine aus den PLGA-NP dargestellt. Für die kontrollierte Freigabe der Proteine aus den Nanopartikeln spielt der Abbaumechanismus der Partikel und damit des Polymers eine bedeutende Rolle. Das Abbauverhalten der PLGA-NP wurde daher zunächst über die Veränderung der Partikelgröße und Partikelgrößenverteilung mittels PCS und AUZ untersucht. Dafür wurden PLGA-NP unterschiedlichster Formulierungen bis zu 100 Tage beobachtet und analysiert. Ein wichtiges Ziel dieser nanopartikulären Systeme ist die Freisetzung des Antikörpers über die gewünschte Zeit, damit eine pharmakologische Wirkung erzielt werden kann. Dafür wurden ebenso PLGA-NP unterschiedlichster Formulierungen in einem geeigneten Freisetzungsmedium mittels verschiedener Freisetzungsmodelle und analytischer Methoden untersucht. Neben unterschiedlichen Proteinen wurde auch der Proteinzustand, das Polymer sowie der Zusatz von Hilfsstoffen variiert. Im letzten Teil der Arbeit wurde die biologische Wirkung der Antikörperbeladenen PLGA-NP in Zellkulturversuchen ermittelt. Die Nanopartikel wurden hier auf ihren antiangiogenen Effekt mittels „Attachment- und Detachment-Assay“ sowie auf zellspezifische Bindung und Zellaufnahme mittels FACS und CLSM untersucht. Des Weiteren wurde ein präklinischer Transwell-Versuch entwickelt, um einen biologischen Nachweis des „sustained release“-Effektes der PLGA-NP zu erbringen. Auf Basis dieser Arbeit und der Erkenntnisse vorangegangener Studien scheint es möglich, gut charakterisierte Antikörper-beladene PLGA-NP zur Tumortherapie mit einer pharmakologischen Wirkung zu etablieren und für weiterführende präklinische Untersuchungen einzusetzen.
Bei dieser Studie wurde die antivirale Effektivität, sowie die Verträglichkeit von einem selektiven NS3/4A Protease-Inhibitor als Monotherapie und in Kombination mit Peginterferon alfa-2a über einen Behandlungszeitraum von 14 Tagen evaluiert. Bezüglich der Hepatitis unvorbehandelte Patienten mit einer Genotyp 1 Infektion wurden in unterschiedliche Therapiearme randomisiert: (i) Placebo und Peginterferon alfa-2a (n=4), (ii) Telaprevir Monotherapie (n=8) oder (iii) Telaprevir in Kombination mit Peginterferon alfa-2a (n=8). Telaprevir wurde in oraler Tablettenform mit jeweils 750 mg alle 8 Stunden verabreicht und Peginterferon alfa-2a wurde einmal wöchentlich 180 μg subkutan injiziert. Bei der Studie zeigte sich ein medianer Abfall der HCV RNA von Beginn der Therapie bis zu letztem Behandlungstag 15 von -1.09 log10 (Bereich: -2.08 log10 und -0.46 log10) in der Placebo und Peginterferon alfa-2a-Gruppe; -3.99-log10 (Bereich: -5.28 und -1.26) in der Telaprevir-Gruppe, und -5.49-log10 (Bereich: -6.54 und -4.30) in der Kombinations- Gruppe mit Telaprevir plus Peginterferon alfa-2a. Bei 4 Patienten, die mit Telaprevir und Peginterferon alfa-2a behandelt wurden, war die HCV RNA an Tag 15 nicht mehr nachweisbar und bei einem Patienten, der initial mit Telaprevir behandelt wurde. Insgesamt kam es unter der Therapie zu keinem viralen Durchbruch unter der Kombination mit Telaprevir und Peginterferon alfa-2a während der 14-tägigen Behandlung innerhalb der Studie. Die meisten Nebenwirkungen waren von milder Intensität und es kam zu keinen schwerwiegenden Nebenwirkungen oder vorzeitigen Therapieabbrüchen. Die Studie zeigte eine potente antivirale Wirksamkeit von Telaprevir als Monotherapie und bei der Kombination mit Peginterferon alfa-2a kam es zu einer gesteigerten antiviralen Aktivität. Bereits aufgrund dieser Ergebnisse initiierte, größere Studien werden nun evaluieren, ob Telaprevir in Kombination mit Peginterferon alfa und Ribavirin die dauerhaften antiviralen Ansprechraten verbessern kann.
Trotz einer fast 30-jährigen Forschungs- und Umsetzungshistorie stellen Projekte zum Aufbau integrierter Datenhaushalte (Data Warehouses) für Unternehmen immer noch eine große Herausforderung dar. Gerade in Data Warehouse-Projekten bei Finanzdienstleistern führt eine hohe semantische Komplexität häufig zu Projektverzögerungen oder zum Scheitern der Vorhaben. Dies zeigt die Arbeit anhand von explorativen Fallstudien auf und fragt nach den Gründen für diesen typischen Verlauf. Eine mögliche Ursache liegt in einer unzureichenden Kommunikation zwischen den Projektbeteiligten, was zu Missverständnissen in der Konzeption und somit zu Fehlimplementierungen führt, die – gerade wenn sie spät erkannt werden – deutliche Verzögerungen und Budgetüberschreitungen zur Folge haben. Ausgehend von diesen beobachteten Praxisproblemen sucht die vorliegende Arbeit auf der Grundlage des Design-Science-Research nach Lösungsansätzen: unter Übertragung der Erkenntnisse der Kommunikationstheorie wurden drei Artefakte entwickelt, sukzessive verbessert und validiert. Die Paper zeigen auf, dass sich durch den Einsatz formalisierter Templates, eines verbesserten Vorgehensmodells in Verbindung mit einem korrespondieren Softwaretool das Kommunikationsverhalten in den Projekten verbessern lässt und somit eine höhere Projekt-Performance erreicht wird. Hierzu wurden insgesamt sechs Projekte zum Aufbau von Data Warehouses im Finanzdienstleistungsumfeld in Fallstudien analysiert und zudem Experten-Interviews mit den Projektbeteiligten durchgeführt, die im Ergebnis die positive Wirkung der Artefakte unterstützen.
Es wurde das Leitfähigkeitsverhalten von reinem, lufthaltigem Wasser bei kontinuierlicher und impulsgetasteter Röntgenbestrahlung (60 kV8) untersucht. Hierbei ergaben sich zwei einander überlagerte Effekte: 1. Ein der Röntgen-Dosisleistung proportionaler irreversibler Leitfähigkeitsanstieg, der vermutlich auf eine Strahlenreaktion des gelösten CO2 zurückzuführen ist, 2. eine reversible Leitfähigkeitserhöhung während der Bestrahlung, die sich mit der Entstehung einer Ionenart mit einer mittleren Lebensdauer von ca. 0,15 sec erklären läßt. Es wird angenommen, daß es sich dabei um Radikalionen O2⊖ handelt, welche durch die Reaktion der als Strahlungsprodukt entstehenden Η-Radikale mit dem gelösten Sauerstoff gebildet werden. Ein möglicher chemischer Reaktionsmechanismus wird angegeben, der zu befriedigender quantitativer Übereinstimmung der Versuchsergebnisse mit Ausbeutewerten und Reaktionskonstanten aus der Literatur führt.