Refine
Document Type
- Doctoral Thesis (4)
Has Fulltext
- yes (4)
Is part of the Bibliography
- no (4)
Institute
Strukturgleichungsmodelle (SEM) werden in den letzten Jahren vermehrt zur Aufdeckung von nichtlinearen Effekten wie Interaktionseffekten oder quadratischen Effekten in der empirischen Forschung verwendet. Daher kommt der Bereitstellung von effizienten und robusten Schätzverfahren für die Analyse von nichtlinearen SEM, die simultan multiple nichtlineare Effekte schätzen können, eine wichtige Bedeutung in der methodologischen Forschung zu. Bisher wurde jedoch nur ungenügend die Problematik untersucht, dass zwar die üblicherweise verwendeten Schätzverfahren aus der Klasse der Produktindikator-(PI)-Ansätze (z.B. der Unconstrained-Ansatz; Kelava & Brandt, 2009; Marsh, Wen & Hau, 2004) und der Klasse der verteilungsanalytischen Verfahren (z.B. LMS oder QML; Klein & Moosbrugger, 2000; Klein & Muthén, 2007) auf der Annahme einer multivariaten Normalverteilung für einen Großteil der im Modell enthaltenen Variablen beruhen, diese jedoch in der Empirie fast nie gegeben ist. Andere Ansätze, wie die momentbasierten Verfahren des 2SMM- oder des MM-Ansatzes (Wall & Amemiya, 2000, 2003; Mooijaart & Bentler, 2010), die die Normalitätsannahme deutlich abschwächen können, finden in der Literatur hingegen nur geringe Berücksichtigung. Im ersten Teil dieser Arbeit werden diese momentbasierten Verfahren zur Schätzung von multiplen nichtlinearen Effekten erweitert und hinsichtlich ihrer Schätzeigenschaften bei nicht-normalverteilten Daten im Vergleich zu den PI- und den verteilungsanalytischen Ansätzen sowohl theoretisch als auch anhand einer umfangreichen Simulationsstudie untersucht (Brandt, Kelava & Klein, in press).
Zusammenfassend zeigt sich, dass LMS und QML bei normalverteilten Indikatoren die effizientesten Schätzungen liefern und in diesem Fall eingesetzt werden sollten. Bei nicht-normalverteilten Daten ist jedoch ein Parameterbias zu beobachten. Der erweiterte Unconstrained-Ansatz liefert zwar sowohl für normalverteilte als auch für nicht-normalverteilte Indikatoren erwartungstreue Parameterschätzungen, die Standardfehler werden jedoch stets unterschätzt (auch bei der Verwendung eines robusten Schätzers für die Standardfehler), was sich in einem erhöhten alpha-Fehler widerspiegelt. Der 2SMM-Ansatz liefert sehr gute Schätzergebnisse für normalverteilte und nicht-normalverteilte Indikatoren und kann insbesondere bei nicht-normalverteilten Indikatoren verwendet werden; bei normalverteilten Indikatoren ist das Verfahren etwas weniger effizient als LMS. Ein Nachteil des Verfahrens ist jedoch seine schwierige Erweiterung für andere als das hier untersuchte Querschnittsmodell (z.B. für Latente Wachstumskurvenmodelle). Der MM-Ansatz zeigt deutliche Schwächen in seinen Schätzungen, die sowohl bei einer simultanen Schätzung von mehr als einem nichtlinearen Effekt als auch bei nicht-normalverteilten Indikatoren auftreten, und stellt daher keine Alternative zu den anderen Schätzverfahren dar.
Um ein Verfahren bereitzustellen, das bei nicht-normalverteilten Daten zuverlässige und effiziente Schätzungen für nichtlineare Effekte liefern kann, wurde der NSEMM-Ansatz entwickelt (Kelava, Nagengast & Brandt, in press). Der NSEMM-Ansatz ist ein allgemeinerer Ansatz als der 2SMM-Ansatz und kann flexibler auch für andere Modelle genutzt werden, da er direkt in Mplus spezifizierbar ist. Der NSEMM-Ansatz verwendet zur Approximation der Verteilung der (latenten) Prädiktoren ein Mischverteilungsmodell, und stellt damit eine Erweiterung der SEMM (Structural Equation Mixture Models) dar. Im Gegensatz zu den SEMM, die nichtlineare Effekte semi-parametrisch modellieren, d.h. keine Funktion für die Nichtlinearität annehmen, verwendet der NSEMM-Ansatz eine parametrische Funktion für die nichtlinearen Effekte (z.B. einen quadratischen Effekt), wodurch eine Aussage über die Effektstärke des nichtlinearen Effekts möglich ist. Neben einer Darstellung des Konzepts der Mischverteilungsmodelle und des NSEMM-Ansatzes werden auch erste Ergebnisse zu den Schätzeigenschaften des NSEMM-Ansatzes im Vergleich zu LMS und dem erweiterten Unconstrained-Ansatz berichtet.
Im letzten Teil der Arbeit wird auf Interaktionseffekte in Längsschnittstudien eingegangen. Hierbei wird das Problem von heterogenen Entwicklungs- und Wachstumsprozessen aufgegriffen, das in der Empirie häufig auftritt, wenn die Streuung der Entwicklungsverläufe von den Ausgangsbedingungen abhängt. Wird diese Heterogenität nicht adäquat berücksichtigt, wie es der Fall bei latenten Wachstumskurvenmodellen (LGM) ist, sind Prognosen basierend auf den Ausgangsbedingungen einer Person nicht akkurat, da die Konfidenzintervalle für die Prognose auf einer fehlspezifizierten Varianz beruhen. Das heterogene Wachstumskurvenmodell (HGM; Klein & Muthén, 2006) erweitert das Standard-LGM um eine heterogene Varianzkomponente, die mit einem spezifischen Interaktionseffekt modelliert wird. Das HGM stellt eine Alternative zu den Growth Curve Mixture Modellen (GMM) dar, wenn keine Annahme über diskrete Klassen getroffen werden soll, sondern eine feinstufigere, kontinuierliche Modellierung der Heterogenität von Interesse ist. In dieser Arbeit wird für das HGM eine Implementierung in Mplus basierend auf dem LMS-Schätzer entwickelt, deren Anwendung und Interpretation an einem empirischen Datensatz aus der AIDS-Forschung demonstriert wird (Brandt, Klein & Gäde, under revision). Die Implementierung ermöglicht eine anwenderfreundliche Verwendung des Verfahrens und erlaubt die Berücksichtigung von Kovariaten zur Erklärung der Heterogenität in den Entwicklungsverläufen. Die Ergebnisse einer Simulationsstudie zeigen, dass das Verfahren auch bei moderater Verletzung der Verteilungsannahmen eine zuverlässige Parameterschätzung liefert.
Das Strukturgleichungsmodell (SEM) wird in den Sozial- und Verhaltenswissenschaften oft verwendet, um die Beziehung zwischen latenten Variablen zu modellieren. In der Analyse dieser Modelle spielt die Bewertung der Modellgüte eine wesentliche Rolle, wobei geprüft werden soll, ob das untersuchte Modell (Zielmodell) zu den erhobenen Daten passt. Dafür werden verschiedene inferenzstatistische und deskriptive Gütemaße verwendet. In nichtlinearen SEM, in denen nichtlineare Effekte, wie beispielsweise Interaktionseffekte, modelliert werden, gibt es bisher allerdings keine Verfahren, um die Modellgüte ausreichend prüfen zu können. Insbesondere der χexp2-Test ist für verschiedene nichtlineare SEM nicht geeignet (vgl. Klein & Schermelleh-Engel, 2010; Mooijaart & Satorra, 2009).
In dieser Arbeit werden zwei unterschiedliche nichtlineare SEM betrachtet. Das erste dieser Modelle wird für die Analyse von Interaktions- und quadratischen Effekten verwendet (quadratisches SEM, QSEM). Das zweite Modell ist das Heterogene Wachstumskurvenmodell (HGM; Klein & Muthén, 2006). In diesem Modell wird das latente Wachstumskurvenmodell (LGM), mit dem individuelle Wachstumsverläufe modelliert werden können, um eine heterogene Varianzkomponente des Slope-Faktors erweitert. Diese Heterogenität des Slope-Faktors ist abhängig von den Ausgangswerten und Kovariaten.
Ziel dieser Arbeit war es, die Bewertung der Modellgüte für das QSEM und das HGM zu verbessern. Für das QSEM und das HGM wurde jeweils ein globaler Modelltest entwickelt („Quasi-Likelihood-Ratio-Test“; QLRT). Darüber hinaus wurden Differenztests für diese Art der Modelle diskutiert. Außerdem wurde für beide Modelle je ein Gütemaß bereitgestellt, um fehlende Nichtlinearität, wie fehlende nichtlineare Terme bzw. fehlende Heterogenität der Slope-Varianzen, aufdecken zu können (der Homoscedastic Fit Index, HFI, für das QSEM und der hhet-Test für das HGM).
Die Entwicklung der neuen Gütemaße ist im Wesentlichen von der verwendeten Schätzmethode abhängig. Für beide Modelle, das QSEM und das HGM, wurde in dieser Arbeit die Quasi-Maximum-Likelihood-Methode (Quasi-ML-Methode; Wedderburn, 1974) ausgewählt, mit der für beide betrachteten Modelle geeignete Schätzungen erzielt werden können (Klein & Muthén, 2006, 2007). Die Quasi-ML-Methode ist vergleichbar mit der Maximum-Likelihood-Methode, berücksichtigt allerdings Fehlspezifikationen der LogLikelihood-Funktion, wie beispielsweise kleinere Abweichungen von der angenommenen Verteilung. Für das QSEM wurde im Rahmen der Entwicklung der Modelltests eine zur Schätzung von QSEM entwickelte Quasi-ML-Methode (QML-Methode; Klein & Muthén, 2007) vereinfacht zu der „simplified QML“-Methode (sQML-Methode; Büchner & Klein, 2019). Für die sQML-Methode ist es erheblich einfacher als für die QML-Methode einen globalen Modelltest zu entwickeln. In einer Simulationsstudie konnte gezeigt werden, dass die sQML-Methode ähnlich gute Schätzeigenschaften wie die QML-Methode aufweist.
Die Idee der neuen globalen Modelltests für das QSEM und das HGM besteht darin, statt des für das lineare SEM verwendeten χexp2-Tests, der ein Likelihood-Quotienten-Test („Likelihood Ratio Test“, LRT) ist, einen Quasi-LRT (QLRT) zu verwenden, der auf der Quasi-ML-Methode basiert (Büchner & Klein, 2019; Büchner, Klein & Irmer, 2019). Wie für den χexp2-Test soll das Zielmodell mit einem unbeschränkten Vergleichsmodell verglichen werden. Ist der Unterschied zwischen den Modellen groß, wird darauf geschlossen, dass das Zielmodell nicht gut zu den Daten passt. Die Schwierigkeit bei der Entwicklung solcher QLRT liegt dabei in der Definition eines Vergleichsmodells. Die hier verwendete Idee für solche Vergleichsmodelle besteht darin, wie im χexp2-Test, die Beschränkungen durch das Zielmodell im Vergleichsmodell aufzuheben. Eine weitere Herausforderung ist die Bestimmung der asymptotischen Verteilung der QLRT-Statistiken, die nicht, wie viele LRT-Statistiken, asymptotisch χexp2-verteilt sind. Deshalb wurde die korrekte asymptotische Verteilung dieser Teststatistiken bestimmt, die das Ermitteln von p-Werten ermöglicht.
Globale Modelltests sind zwar geeignet, wichtige Aussagen zur Passung des Modells zu machen, ermöglichen aber keine direkte Aussage über den Vergleich zweier konkurrierender Modelle. Ein solcher Modellvergleich ist aber wichtig, um ein möglichst sparsames Modell zu erhalten. Zum Vergleich ineinander geschachtelter Modelle werden häufig Differenztests verwendet. Diese werden auch in der Arbeit mit dem QSEM und dem HGM empfohlen. Allerdings ist zu beachten, dass die Teststatistiken für mit der Quasi-MLMethode geschätzten Modelle nicht χexp2-verteilt sind. Im Rahmen dieser Arbeit wurde eine korrekte asymptotische Verteilung angegeben. Im Speziellen wurde der Differenztest für den Vergleich zwischen einem HGM und einem LGM vorgestellt, mit dem getestet wird, ob die im HGM modellierten heterogenen Slope-Varianzen notwendig sind.
Ein weiteres Ziel bestand darin, fehlende Nichtlinearität, die nicht in einem Modell berücksichtigt ist, aufzudecken. Dafür wurde ein Test für Regressionsmodelle, der hhet-Test (Klein, Gerhard, Büchner, Diestel & Schermelleh-Engel, 2016), angepasst. Für das SEM wurde dieser Test zu einem Fit-Index, dem HFI (Gerhard, Büchner, Klein & SchermellehEngel, 2017), weiterentwickelt und darin die Verteilung der Residuen der abhängigen Variable bewertet. Der HFI deckt dabei Veränderungen in der Verteilung auf, die durch fehlende nichtlineare Terme verursacht sind. Für das LGM wird der hhet-Test verwendet, um fehlende heterogene Entwicklungsverläufe aufzudecken. Es wird die Verteilung der mit dem LGM standardisierten beobachteten Variablen geprüft.
Für alle vorgeschlagenen Gütemaße wurden Simulationsstudien durchgeführt, um ihre Eignung für die Bewertung des QSEMs bzw. des HGMs zu prüfen. Die α-Fehler-Raten waren meistens nahe an dem erstrebten 5%-Niveau. Für den QLRT für das QSEM bei kleinen Stichproben und für den HFI bei komplexeren Modellen waren sie allerdings erhöht. Darüber hinaus zeigten die Tests insgesamt eine gute Teststärke für das Aufdecken von Fehlspezifikationen. Wie in allen statistischen Tests muss dafür die Stichprobengröße ausreichend groß sein. Die praktische Anwendbarkeit der beiden QLRTs, des hhet-Tests und des Differenztests für das HGM wurde anhand von empirischen Beispielen aufgezeigt.
Das World Wide Web (Web) als die wohl wichtigste Entwicklung von Informations- und Kommunikationstechnologien (engl. information and communication technologies, ICTs) Ende des 20. Jahrhunderts bietet uns Zugang zu einer unbegrenzten Fülle an Informationen. Doch um es als reichhaltige Informationsquelle effektiv nutzen zu können, benötigen wir spezifische ICT-Fähigkeiten. Die Dissertation Development of Interactive Performance Measures for two Components of ICT Literacy: Successfully Accessing and Evaluating Information befasst sich daher mit der Untersuchung zweier grundlegender ICT Fähigkeiten für die erfolgreiche Nutzung des Web als Informationsquelle: der Fähigkeit, auf die gewünschten Information zugreifen zu können, also basale Computerfähigkeiten (engl. basic computer skills, BCS), sowie der Fähigkeit, die Online-Informationen in Bezug auf ihre Glaubwürdigkeit bewerten zu können. Hierzu werden zunächst anhand der Betrachtung des theoretischen Hintergrundes beider ICT-Fähigkeiten Definitionen der Konstrukte vorgestellt. Ziel der Arbeit stellt die Entwicklung zweier Testverfahren zur interaktiven, computer-basierten Erfassung basaler Computerfähigkeiten sowie der Fähigkeit zur Bewertung der Glaubwürdigkeit von Online-Informationen dar. Die den Testverfahren zugrundeliegende faktorielle Struktur sowie die Beziehung beider ICT-Fähigkeiten zu verwandten Konstrukten werden untersucht. Des Weiteren werden Ergebnisse aus der praktischen Anwendung des neu entwickelten Tests zur Evaluation von Online-Informationen (TEO) genutzt, um zu einem tieferen Verständnis über den Suchprozess im Web (engl. web search proccess) zu gelangen und Faktoren zu identifizieren, die diesen beeinflussen. Dabei wird sowohl der Einfluss sogenannter Aufgabencharakteristika (engl. task characteristics) untersucht, die den Kontext des Suchprozesses bestimmen, als auch der Einfluss individueller Prozesscharakteristika (engl. individual process characteristics), welche durch die jeweilige Person bestimmt sind, die die Informationssuche vornimmt.
Um den Forschungszielen der Arbeit gerecht zu werden, wurden drei Studien durchgeführt. Die erste Studie befasst sich mit der Entwicklung der Skala zur Erfassung basaler Computerfähigkeiten (BCS). Im Konkreten wurden Hypothesen über die Zusammenhänge der BCS-Skala mit praktischem Computerwissen, Worterkennung, einer Selbsteinschätzung der eigenen Computerfähigkeiten sowie elektronischer Lesefähigkeit formuliert und analysiert. Die zweite Studie behandelt die Entwicklung des Tests zur Evaluation von Online-Informationen (TEO) und exploriert sowohl die latente Struktur des Konstruktes der Bewertung der Glaubwürdigkeit von Online-Informationen als auch den Zusammenhang mit basalen Computerfähigkeiten, Worterkennung und logischem Denken. In der dritten Studie wird der Suchprozess im Web näher beleuchtet und mögliche Einflussgrößen einer erfolgreichen Bewertung von Online-Informationen erforscht, wobei der Einfluss von Aufgabencharakteristika, individuellen Prozesscharakteristika und deren Interaktion ergründet wird. Im Speziellen wurde der Einfluss dreier Aufgabencharakteristika geprüft, die sich auf die Komplexität einer Aufgabe beziehen: die Anzahl der Suchergebnisse (Links auf der Ergebnisseite einer Suchmaschinenabfrage), die Attraktivität der weniger glaubwürdigen Links auf der Ergebnisseite einer Suchmaschinenabfrage im Vergleich zum glaubwürdigsten Link sowie die Kongruenz zwischen den Glaubwürdigkeitsmerkmalen in den Links auf der Ergebnisseite der Suchmaschinenabfrage und auf den dazugehörigen Webseiten. Dabei war die Attraktivität eines Links definiert als die Gesamtanzahl der Glaubwürdigkeitsmerkmale, welche auf eine hohe Glaubwürdigkeit der Informationen hinweisen. Je mehr Merkmale eines Links hohe Glaubwürdigkeit indizieren, desto attraktiver ist ein Link. Von Kongruenz zwischen den Glaubwürdigkeitsmerkmalen wurde ausgegangen, wenn diese sowohl in einem Link auf der Ergebnisseite der Suchmaschinenabfrage als auch auf der korrespondierenden Webseite gleichermaßen hohe oder gleichermaßen geringe Glaubwürdigkeit anzeigen. Inkongruenz hingegen wurde angenommen, wenn die Glaubwürdigkeitsmerkmale in einem Link auf der Ergebnisseite hohe Glaubwürdigkeit und jene auf der korrespondierenden Webseite geringe Glaubwürdigkeit anzeigen und vice versa. Weiterhin wurde der Einfluss dreier individueller Prozesscharakteristika auf den Bewertungserfolg untersucht: die Anzahl besuchter unterschiedlicher Webseiten, die auf der Ergebnisseite der Suchmaschinenabfrage verbrachte Zeit sowie die auf den korrespondierenden Webseiten verbrachte Zeit.
Zusammengefasst präsentiert die Arbeit reliable Instrumente zur Erfassung basaler Computerfähigkeiten sowie der Fähigkeit zur Bewertung der Glaubwürdigkeit von Online-Informationen. Sie zeigt die hohe Relevanz basaler Lesefähigkeiten (Worterkennung) für beide Konstrukte auf und offenbart die Fähigkeit zum logischen Denken als Prädiktor für die Bewertungskompetenz. Während eine erfolgreiche Bewertung von Online-Informationen durch eine hohe Anzahl von Suchergebnissen negativ beeinflusst wurde, wirkte sich Kongruenz der Glaubwürdigkeitsmerkmale sowie eine hohe Anzahl besuchter unterschiedlicher Webseiten positiv auf den Bewertungserfolg aus. Die Attraktivität der weniger glaubwürdigen Links sowie die zeitbezogenen Prozesscharakteristika beeinflussten den Bewertungserfolg wider Erwarten nicht. Die Anzahl besuchter unterschiedlicher Webseiten erwies sich bei einer hohen Anzahl von Suchergebnissen als weniger prädiktiv für den Bewertungserfolg als bei einer geringen Anzahl von Suchergebnissen.
Hidradenitis suppurativa ist eine multifaktoriell-bedingte chronisch entzündliche Hauterkrankung, die durch eine Okklusion der Talgdrüseneinheit des Haarfollikels entsteht. Aus der anschließend mit Entzündung einhergehenden Ruptur des Haarfollikels entwickeln sich entzündliche Knoten, Abszesse und Fistelgänge. (39–41) In der weiteren Progression der Erkrankung kommt es zur Störung der Hautarchitektur und fibrotischen Narbenbildungen. (52) Durch Untersuchungen des entzündlichen Infiltrates konnte bereits die Beteiligung einer Reihe von Immunzellen und Entzündungsmediatoren identifiziert werden. Hierzu zählen Makrophagen, neutrophile Granulozyten, Dendritische Zellen, Lymphozyten, IL-1β sowie TNF-α. (41,45,46,51,53) Da die genaue Pathophysiologie der Hidradenitis suppurativa bislang unzureichend aufgeklärt ist, gibt es aktuell keine kausale Therapiemöglichkeit für die Betroffenen. (52) Die Wahl der Therapie wird anhand der Bewertung des Schweregrades nach Hurley getroffen. (25) Obwohl meisten Patientinnen und Patienten von der milden bis mittelschweren Form der Hidradenitis suppurativa (Hurley I und Hurley II) betroffen sind (98), werden die meisten Arzneimittel für die Behandlung von Hurley II und Hurley III von den Leitlinien empfohlen. Zu den empfohlenen Medikamenten gehören u. a. Rifampicin, meist in Kombination mit Clindamycin, sowie der TNF-α-Inhibitor Adalimumab (18,85), welche effektiv und systemisch wirken. Durch die entstehenden Nebenwirkungen wäre die Behandlung der milden bis mittelschweren Hidradenitis suppurativa mit diesen Medikamenten allerdings unverhältnismäßig. Um jedoch den im Verlauf der Krankheit entstehenden Hautdestruktionen vorbeugen zu können, müssten die Medikamente möglichst früh eingesetzt werden. (228) Vor diesem Hintergrund sollte in Kooperation mit dem Institut für Pharmazeutische Technologie der Goethe Universität Frankfurt eine Rifampicin-Nanoformulierung zur Behandlung milder bis mittelschwerer Hidradenitis suppurativa entwickelt und im Labor der dermatologischen Klinik präklinisch validiert werden.
Daher wurde im ersten Teil der vorliegenden Arbeit ein Epidermismodell aus der Haut betroffener Patientinnen und Patienten generiert, um die Rifampicin-Nanoformulierung validieren zu können. Dieses wies eine mehrschichtige Epidermis mit allen wichtigen Differenzierungsmarkern ähnlich der läsionalen Hidradenitis suppurativa auf und schüttete die proinflammatorischen Zytokine IL-1β und TNF-α aus. Als weiteres Modell wurden ex vivo Explantate aus läsionaler Hidradenitis suppurativa Haut etabliert. Für die Bewertung der Validität der Explantatkulturen wurde die Morphologie und Integrität der Epidermis mittels Hämatoxylin-Eosin sowie der Proliferationsmarker Ki-67 näher beleuchtet. Im zweiten Teil dieser Arbeit wurden Untersuchungen für die Festlegung eines Konzentrationsbereichs, unter Verwendung von Rifampicin in DMSO gelöst als in vitro Behandlung, durchgeführt.
Hierbei wurde gezeigt, dass die eingesetzten Konzentrationen keine negativen Effekte bezüglich Proliferationsfähigkeit der Keratinozyten oder Apoptoseinduktion ausüben. Die Behandlung von nicht entzündlichen Epidermismodellen sowie Explantatkulturen mit der Rifampicin-Nanoformulierung mit einem Wirkstoffgehalt von 0,3 % führte ebenfalls zu keinen Proliferationsverlusten, induzierte keine Apoptose oder Zytotoxizität und hatte keinen Einfluss auf die Differenzierung der Keratinozyten. Im letzten Teil der Arbeit sollte die Wirksamkeit der Rifampicin-Nanoformulierung näher beleuchtet werden. Als Antibiotikum inhibiert Rifampicin die DNA-abhängige RNA-Polymerase von Bakterien (107,108), weshalb es bei der Behandlung der Tuberkulose eingesetzt wird. (111–113) Die Hidradenitis suppurativa ist aber primär keine Infektionskrankheit, sondern eine von Bakterien getriggerte, entzündliche Erkrankung. (19,52,82) Aus diesem Grund ist der positive Effekt der systemischen Rifampicintherapie vermutlich vielmehr auf eine antiphlogistische Wirkung zurückzuführen. Diese Überlegung wird durch mehrere Artikel gestützt, die zeigten, dass Rifampicin die Ausschüttung von IL-1β und TNF-α in unterschiedlichen in vitro und in vivo Modellen hemmt. (89–91,96,97) Die anschließenden Untersuchungen zur Wirksamkeit einer in vitro Rifampicinbehandlung bestätigten die antientzündliche Wirkung in den Explantatkulturen indem es die Sekretion von IL-1β, IL-6, IL-8, IL-10 und TNF-α verminderte. Ebenso senkte die Rifampicin-Nanoformulierung die Ausschüttung von IL-1β in den ex vivo Explantaten, was somit die in der klinischen Praxis beobachteten antiinflammatorischen Wirkung von Rifampicin belegt. Des Weiteren stellte sich in Untersuchungen heraus, dass Rifampicin zu einer reduzierten Zahl CD4(+)-T-Zellen führte, aber auf die CD3(+)-T-Zellen keine Auswirkungen hatte, was auf eine Veränderung des T-Zell Phänotyps hinweist.
Aufgrund der vorliegenden Ergebnisse zur Validierung der Rifampicin-Nanoformulierung, spricht nichts gegen die Testung der Rifampicin-Nanoformulierung in einem individuellen Heilversuch am Menschen.