Refine
Year of publication
Document Type
- Doctoral Thesis (3623) (remove)
Language
- German (3623) (remove)
Has Fulltext
- yes (3623) (remove)
Is part of the Bibliography
- no (3623) (remove)
Keywords
- Gentherapie (12)
- HIV (12)
- Deutschland (11)
- Schmerz (10)
- Nanopartikel (8)
- Apoptosis (7)
- Genexpression (7)
- Mitochondrium (7)
- Paracoccus denitrificans (7)
- RNS (7)
Institute
- Medizin (1388)
- Biochemie und Chemie (446)
- Biowissenschaften (408)
- Pharmazie (237)
- Physik (216)
- Biochemie, Chemie und Pharmazie (98)
- Gesellschaftswissenschaften (95)
- Neuere Philologien (67)
- Psychologie (66)
- Kulturwissenschaften (65)
Bei THS handelt sich um einen operativen Eingriff der Neurochirurgie, bei dem Impulse in tiefere Hirnstrukturen appliziert werden, ohne diese zu beschädigen. Die THS stellt eine etablierte Behandlungsoption bei Bewegungsstörungen von Morbus Parkinson, essentiellem Tremor und Dystonie dar. Zugleich besteht ein zunehmendes Interesse an weiteren Anwendungsmöglichkeiten für neurologische und psychiatrische Erkrankungen. Insoweit wird von einem weiterwachsenden Therapieverfahren in der Neurochirurgie auszugehen sein.
Die bislang implantierten THS-Systeme sind nicht bzw. nur eingeschränkt MRT-fähig.
Aufgrund der in den letzten Jahren zu beobachtenden steigenden Anzahl an Bildgebungen, insbesondere bei MRT-Untersuchungen, stellt sich hier die Frage nach dem Umgang mit einem bildgebenden Verfahren und der Notwendigkeit MRT-fähiger THS-Systeme für das Patientenkollektiv.
Hierzu wurde in der vorliegenden Dissertation analysiert, wie viele der mit THS versorgten Patienten überhaupt ein MRT - nach erfolgreicher Implantation - benötigt haben und zu welchen Konsequenzen dies gegebenenfalls geführt hat.
Die in diesem Zusammenhang retrospektiv gesammelten Patientendaten stammen sowohl aus dem digitalen Patientensystem als auch aus telefonischen Interviews mit Patienten, die seit mindestens 12 Monaten ein THS-System implantiert bekommen haben. Es wurde erfasst, bei wem und aus welchem Grund eine CT- oder MRT-Untersuchung stattgefunden hat. Zusätzlich sind diese Daten von einem unabhängigen Neurologen dahingehend beurteilt worden, ob ein MRT anstatt eines CTs sinnvoller gewesen wäre.
Bei 28 der 54 hier teilnehmenden Patienten ist mindestens eine Bildgebung im Rahmen einer CT- oder MRT-Untersuchung erfolgt. In 16 Fällen ist dabei bei 14 dieser Patienten die Frage aufgekommen, ob ein MRT durchgeführt werden solle. In diesem Zusammenhang sind letztlich sieben MRT-Untersuchungen an sieben Patienten durchgeführt worden, drei kraniale MRT-Untersuchungen und vier Wirbelsäulen MRT-Untersuchungen.
In sieben Fällen bei sechs Patienten hätte der unabhängige Neurologe zu einer MRT-Untersuchung anstatt der durchgeführten CT-Untersuchung geraten.
Von den durchgeführten MRT-Untersuchungen haben alle kranialen sowie zwei Wirbelsäulen MRT-Untersuchungen zu einer konservativen Therapie geführt. Zu einer operativen Therapie haben zwei der durchgeführten Wirbelsäulen MRT-Untersuchungen geführt. Während der in diesem Patientenkollektiv durchgeführten MRT-Untersuchungen ist es zu keiner kritischen Situationen oder Folgeschäden gekommen. Aus Gründen der Patientensicherheit wird trotzdem empfohlen, soweit möglich, bei Patienten mit einem THS-Implantat eine CT-Untersuchung durchzuführen.
Aus den dieser Arbeit zu Grunde liegenden Daten lässt sich konstatieren, dass der Einsatz MRT-fähiger THS-Geräte nicht zwingend geboten ist, dies insbesondere bei jüngeren Patienten jedoch durchaus in Betracht gezogen werden sollte.
Dieser Arbeit lag die Fragestellung zugrunde, welchen Einfluss die jeweilige Transfusionsstrategie auf AML-Patienten unter intensiver Induktionschemotherapie hat.
Dafür wurde ein am Universitätsklinikum Frankfurt zwischen 2007 und 2018 behandeltes Kollektiv von 352 Patienten untersucht. So erfolgte hier bis ins Jahr 2015 hinein die Transfusion eines EK ab einem Hb-Wert <8g/dl und nach Änderung des Transfusionstriggers ab einem Hb <7g/dl. AML-Patienten aus dem Jahr 2015 – dem Jahr der Änderung der Transfusionsregel – wurden von weiterer Untersuchung ausgeschlossen, um zwei klar abgrenzbare Kohorten erhalten zu können.
Es zeigte sich, dass die weniger restriktive Transfusionskohorte unter Induktionschemotherapie einen durchschnittlich um 1g/dl höheren Hb-Wert aufwies und früher als die restriktive Kohorte transfundiert wurde. Die Anzahl an Fiebertagen, CRP-Werte, Aufenthalte auf Intensivstation sowie die Dauer des Krankenhausaufenthaltes betrachtend, zeigte sich hingegen kein signifikanter Unterscheid zwischen beiden Kohorten.
Basierend auf unserer Arbeit ergeben sich keine Hinweise dafür, dass die restriktive Transfusionspraxis einer weniger restriktiven für AML-Patienten unterlegen ist. Limitierend auf die Aussagekraft der Ergebnisse wirken sich dabei die retrospektive Natur der Arbeit sowie die zeitliche Verschiebung der Behandlungszeiträume beider Kohorten aus.
Ergebnisse der bislang ausstehenden randomisierten Studien, die den Einfluss unterschiedlicher Transfusionsregimes auf Patienten mit hämatologischen Krankheiten untersuchen, sind in Bälde zu erwarten. Die bereits vorliegenden Pilotstudien und Ergebnisse der TRIST-Studie decken sich mit der von uns beobachteten Nicht-Unterlegenheit der restriktiven Transfusionspraxis für ein hämatoonkologisches Patientenkollektiv, sodass es abzuwarten gilt, ob sich dies auch in weiteren größeren randomisierten und kontrollierten Studien beweisen kann.
Angesichts der Bedrohung durch den Klimawandel sind Maßnahmen zur Reduktion von Treibhausgasemissionen dringend notwendig. Obwohl auf den Gesundheitssektor 5 bis 10 % der nationalen Treibhausgasemissionen entfallen, spielt das Thema Nachhaltigkeit in deutschen Kliniken bisher nur eine untergeordnete Rolle. Studien der letzten Jahre haben gezeigt, dass die Nutzung von Mehrwegartikeln gegenüber der Nutzung von Einwegartikeln in der Anästhesiologie einen Vorteil in Bezug auf die CO2-Emissionen bieten kann. Gleichzeitig stehen Kliniken vor der Herausforderung, kosteneffizient zu handeln. In der vorliegenden Promotionsarbeit werden deshalb die CO2-Emissionen sowie die Kosten von Einweg-Beatmungsschlauchsystemen, Einweg-Beatmungsmasken und Einweg-Laryngoskopspateln im Zentral-OP des Universitätsklinikums Frankfurt pro Nutzung ermittelt und diese mit den Kosten sowie den CO2-Emissionen von entsprechenden Mehrweg-Alternativen pro Nutzung verglichen. Daraus soll eine Handlungsempfehlung für die künftige Verwendung von Mehrwegmaterial oder Einwegmaterial abgeleitet und ein Beitrag zur Nachhaltigkeit in der Anästhesiologie geleistet werden.
Methodisch wurde eine deskriptive Untersuchung umgesetzt. Die Daten wurden anhand von Informationen, die von den Produktherstellern, der Host Energie GmbH, der Abteilung Einkauf und den Mitarbeiterinnen und Mitarbeitern der Materialaufbereitung des Universitätsklinikums Frankfurt zur Verfügung gestellt wurden sowie durch eigene Erhebung gesammelt. Die Kosten pro Nutzung wurden anhand der realen Bezugspreise aus dem Jahr 2022 für die Einwegmaterialien bzw. der Angebote der Anbieter für die Mehrwegprodukte errechnet. Die Kosten der Entsorgung wurden gewichtsbezogen addiert. Für die Mehrwegartikel wurden zudem die Kosten der Aufbereitung berücksichtigt. Für die Kalkulationen der CO2-Emissionen wurden die Konversionsfaktoren des DEFRA aus Großbritannien verwendet, die bei bekanntem Produktgewicht eine näherungsweise Bestimmung der Treibhausgasemissionen der Materialproduktion, der Entsorgung und der Aufbereitung erlauben. Patientendaten wurden nicht verwendet, so dass weder ein Ethikvotum noch ein Datenschutzvotum erforderlich waren.
Die Ergebnisse zeigen, dass alle untersuchten Mehrwegartikel pro Nutzung günstiger sind als die äquivalenten Einwegartikel, wobei der Preisunterschied bei den Laryngoskopspateln am größten ist. Diese kosten als Einwegartikel 2,66 € pro Nutzung, die Mehrweg-Alternative 0,12 € pro Nutzung. Gleichzeitig sind die Treibhausgasemissionen pro Nutzung für alle untersuchten Mehrwegartikel niedriger als für die entsprechenden Einwegartikel. Der Unterschied ist hier ebenfalls bei den Laryngoskopspateln am größten. Ein Einweg-Laryngoskopspatel der Größe 4 generiert pro Nutzung 0,228 kg CO2-Äquivalent, wohingegen die Mehrweg-Alternative nur 0,093 kg CO2-Äquivalent verursacht.
Im Fazit ergibt sich dadurch, dass die Verwendung von Mehrweg-Beatmungsschlauchsystemen, Mehrweg-Beatmungsmasken und Mehrweg-Laryngoskopspateln für das Universitätsklinikum Frankfurt einen sowohl ökonomischen als auch ökologischen Vorteil gegenüber der Verwendung der Einwegartikel bietet. Die Umstellung zu Mehrwegartikeln in der Anästhesiologie hat somit nicht nur das Potenzial Kosten einzusparen, sondern auch den CO2-Fußabdruck im Gesundheitssektor zu senken.
Der Natrium-abhängige Kaliumkanal Slack (KNa1.1, Slo2.2, KCNT1) nimmt eine Schlüsselrolle in der Regulation neuronaler Erregbarkeit ein, indem er die Ausbildung und Feuerungsfrequenz von Aktionspotentialen kontrolliert. Sowohl in Mäusen als auch in Menschen wird Slack besonders hoch in nicht-peptidergen C-Faser-Neuronen exprimiert. Wissenschaftliche Erkenntnisse der letzten Jahre konnten die Beteiligung von Slack-Kanälen in der Signalverarbeitung neuropathischer Schmerzen, aber auch in verschiedenen Arten von Pruritus, feststellen. Dabei zeigen Slack-defiziente Mäuse ein verstärktes mechanisches Schmerzverhalten nach einer peripheren Nervenverletzung und ein erhöhtes Kratzverhalten in akuten Juckreiz-Modellen. Das als Slack-Aktivator identifizierte trizyklische Neuroleptikum Loxapin zeigt sowohl analgetische als auch antipruritische Effekte in Mäusen, jedoch ist sein klinischer Einsatz auf Grund schwerwiegender antipsychotischer Nebenwirkungen limitiert. Basierend auf Loxapins Leitstruktur wurden daher in dieser Arbeit neue Slack-Aktivatoren mit einem verbesserten pharmakologischen Profil designed und ihr Potential für die Therapie von Schmerzen sowie akutem und chronischem Pruritus in vivo untersucht.
Die Appendizitis stellt mit einer Inzidenz von 115 pro 100000 Einwohnern in Deutschland eine der häufigsten Ursachen für ein akutes Abdomen dar. Bakterielle Infektionen sind ein wesentlicher Faktor für die postoperative Morbidität nach Appendektomie.
Ziel dieser prospektiven Studie war es, das Keimspektrum und insbesondere die Prävalenz resistenter Keime bei der akuten Appendizitis zu bestimmen und die Auswirkungen resistenter Keime auf das Auftreten infektiöser Komplikationen zu analysieren. Alle erwachsenen Patient*innen mit akuter Appendizitis, die zwischen April 2022 und Juli 2023 am Universitätsklinikum Frankfurt operativ behandelt wurden, wurden prospektiv eingeschlossen. Das Keimspektrum der Appendix und die Häufigkeit von MRE in Rektalabstrichen wurden analysiert. Die klinischen Daten wurden extrahiert, um die Korrelation des Keimspektrums mit dem Auftreten von postoperativen Komplikationen, Dauer und Art der Antibiotikatherapie und dem postoperativen Verlauf zu evaluieren. 30 Tage nach der Operation wurde ein Follow-up durchgeführt. Insgesamt wurden 105 Patient*innen in die Studie eingeschlossen.
In den Appendixabstrichen gelang ein Erregernachweis bei 67,6 % aller Fälle. Hierbei betrug die Prävalenz von Keimen mit Antibiotikaresistenz 43,8 %, Multipler-Antibiotikaresistenz (MAR) 27,6 % und bei 5,7 % der Fälle gelang ein MRE-Nachweis nach CDC im Appendixabstrich. Beim MRE-Screening konnten im Rektalabstrich bei 11,4 % der Patient*innen ein MRE nachgewiesen werden. In vier Fällen zeigte sich eine Übereinstimmung zwischen rektalen und appendikulären Abstrich, somit betrug die Sensitivität des MRE-Screenings für einen Nachweis multiresistenter Keime in der Appendix lediglich 33,3 % bei einer Spezifität von 86,7 %. In einer univariaten Analyse konnte das Vorliegen eines Diabetes mellitus als Risikofaktor für das Auftreten von Keimen mit Cefuroxim- Resistenz, Multipler-Antibiotikaresistenz (MAR) und MRE identifiziert werden.
Insgesamt erhielten 47,6 % aller Patient*innen postoperativ eine Antibiotikatherapie, von denen erfolgte bei 46 % eine Umstellung der empirischen Antibiose auf eine antibiogramm-gerechte Therapie nach Erhalt des mikrobiologischen Befundes. Insbesondere Patient*innen mit komplizierter Appendizitis erhielten postoperativ eine Antibiotikatherapie, wobei 28 % eine Antibiotikaeskalation benötigten.
Patient*innen, deren Appendixabstriche eine Resistenz gegen maximal ein Antibiotikum aufwiesen, wurden als nicht multiple Resistenz (Nicht-MAR) definiert und mit Patient*innen verglichen, deren Keime mit multipler Antibiotikaresistenz (MAR) waren. Die MAR-Gruppe zeigte im Vergleich zur Nicht-MAR-Gruppe eine höhere Inzidenz postoperativer Komplikationen, insbesondere eine erhöhte Inzidenz von Clavien-Dindo Grad 3 Komplikationen sowie von tiefen postoperativen Wundinfektionen (CDC Grad A3). Weiterhin benötigten Patient*innen der MAR-Gruppe häufiger eine postoperative Antibiotikatherapie und es erfolgte häufiger eine Eskalation der antibiotischen Therapie. Dies ging auch mit einem signifikant verlängerten Krankenhausaufenthalt einher.
Zusammenfassend kann festgestellt werden, dass eine bakterielle Infektion mit Multipler Antibiotikaresistenz bei der akuten Appendizitis häufig auftritt und die Morbidität nach Appendektomie beeinflusst. Die mikrobiologische Untersuchung mittels Appendixabstrich bei operativ behandelten Fällen von akuter komplizierter Appendizitis, die eine postoperative Antibiotikatherapie erfordern, könnte somit eine gezielte und kürzere Antibiotikatherapie ermöglichen. Dies könnte dazu beitragen, längere Krankenhausaufenthalte zu vermeiden, den unnötigen Einsatz unwirksamer Antibiotika zu reduzieren und die Kosten im Gesundheitswesen zu senken.
Polygene Risikoscores (PRS) integrieren zahlreiche Einzelnukleotid-Polymorphismen (SNP) von meist geringer Effektstärke, um Auskunft über das Erkrankungsrisiko bestimmter Krankheiten zu geben. In dieser Arbeit wurde der PRS zur genetisch generalisierten Epilepsie (GGE) von Leu et al. aus dem Jahr 2019 untersucht, um festzustellen, ob über das Erkrankungsrisiko hinaus noch Korrelationen mit weiteren phänotypischen Eigenschaften von Patienten bestehen. Der Nachweis solcher Zusammenhänge würde eine Prädiktionsfähigkeit des GGE-PRS demonstrieren, die perspektivisch ein Potential für dessen klinische Anwendbarkeit, beispielsweise im Sinne der personalisierten Medizin, aufzeigen könnte.
Die Identifizierung neuer Korrelationen sollte durch Vergleich der Phänotypen von zwei Gruppen von GGE-Patienten mit extrem hohen, beziehungsweise extrem niedrigen PRS-Werten erfolgen. Hierfür wurden von 2256 Patienten aus der Datenbank von Epi25, einem internationalen Forschungskollaborativ zur Erforschung der Relevanz genetischer Faktoren bei der Entwicklung von Epilepsie, die Patienten mit den höchsten (n=59) und den niedrigsten (n=49) GGE-PRS-Werten ausgewählt. Für diese 108 Patienten wurden retrospektive klinische Daten von den jeweiligen Behandlungszentren akquiriert. Hierzu wurde den Studienleitern der Zentren ein Questionnaire mit Fragen zu zahlreichen phänotypischen Parametern der Patienten übermittelt. Die Rücklaufrate war mit 54% gut.
Die so eingeholten Patientendaten wurden anschließend mittels Exaktem Test nach Fisher und Wilcoxon-Rangsummentest statistisch analysiert, um Unterschiede zwischen den Phänotypen beider Gruppen nachzuweisen. Im Falle der Pharmakoresistenz zeichneten sich hierbei zunächst signifikante Unterschiede ab, die ein selteneres Auftreten dieser Eigenschaft für Patienten mit hohen GGE-PRS-Werten implizierten. Diese Ergebnisse waren jedoch nach einer Bonferroni-Korrektur und bei Validierung in einer größeren Kohorte (n=825) nicht mehr signifikant. Für die anderen untersuchten Parameter waren ebenfalls keine signifikanten Unterschiede nachweisbar.
Das Ergebnis, dass für keinen der untersuchten Parameter signifikante Differenzen bestanden, obwohl zwei Kohorten mit extrem gegensätzlichen PRS-Werten untersucht wurden, spricht gegen eine Verwendung des aktuell verfügbaren GGE-PRS als prädiktiver Biomarker über das Erkrankungsrisiko hinaus und somit gegen dessen klinische Anwendbarkeit. Jedoch können die nicht-signifikanten Korrelationen im Falle der Pharmakoresistenz als Hinweis verstanden werden, dass im Bereich der Pharmakotherapie Zusammenhänge zwischen Score und Phänotyp bestehen könnten, die weiterer Untersuchungen in zukünftigen Studien bedürfen. Bei Verwendung eines verbesserten GGE-PRS mit zusätzlichen risikoassoziierten SNP und verfeinerter Wichtung der Effektstärken sowie größerer Kohorten könnten in diesem Bereich möglicherweise auch signifikante Zusammenhänge nachweisbar werden.
In Deutschland leidet ca. jeder zehnte Mensch über 40 Jahren an einer chronischen Einschränkung seiner Nierenfunktion. Nicht wenige davon sind im Laufe der Erkrankung auf eine Nierenersatztherapie angewiesen. Die Ursachen für eine Nierenschädigung sind vielfältig. Als neuartiger und vielversprechender Therapieansatz werden aktuell Mesenchymale Stamm-/Stromazellen (MSC) als Therapeutikum für diverse Nierenerkrankungen getestet. Erste Ergebnisse klinischer Phase-I-Studien zeigen, dass MSC sicher als Immunsuppressivum nach Nierentransplantation angewendet werden können. Auch für weitere Erkrankungen der Niere sind erste klinische Studien am Laufen. MSC gelten als regenerativ, immunsupprimierend und antientzündlich. Dennoch gibt es noch einige Limitationen. Nach der Transplantation der Zellen ist das Wachstum der Zellen oft eingeschränkt und es kommt zur vermehrten Apoptose. Auch wird immer wieder ein paradoxes und entzündungsförderndes Verhalten der MSC am Wirkort beobachtet. Ein wichtiger Lösungsansatz ist eine in vitro Vorbehandlung der MSC zur Modulierung der zellulären Eigenschaften. In dieser Arbeit wurden drei Substanzen und Arzneimittel auf ihre Fähigkeit untersucht, die entzündungshemmenden Eigenschaften der MSC zu verbessern und die entzündungsfördernden zu unterdrücken. Der Fokus lag hierbei auf dem Arzneimittel Niclosamid und den beiden bisher noch nicht zugelassenen Substanzen Berberin und Gedunin, die alle in vitro und in vivo bereits erste vielversprechende antientzündliche Wirkungen bewiesen haben. Für diese Arbeit wurden MSC aus Fettgewebe isoliert (ASC) und mit LPS oder einem Cytokin-Mix (Mischung aus TNF-α, IFN-γ und IL-1β) sowie den drei Substanzen stimuliert. Untersucht wurden im Anschluss die mRNA-Expressionen der gängigsten proinflammatorischen (TNF-α, IL-6, TLR-4, ICAM-1, HLA-DR) und antiinflammatorischen Marker (IDO, IL-10), sowie mittels ELISA die Protein-Freisetzung von IL-6 und IL-8. Die vielversprechendsten Ergebnisse ließen sich durch Berberin hervorrufen. Hier zeigte sich eine deutliche Senkung der IL-8-Konzentration im ELISA. Die Anwendung des Gedunin hatte keine signifikante Wirkung auf die ASC. Niclosamid hingegen scheint widererwarten sogar entzündungsfördernd zu wirken, in dem es die IL-6-, ICAM-1-mRNA-Expression steigerte und die IDO-mRNA-Expression absenkte. Unter den drei getesteten Subtanzen hat Berberin die beste Wirkung bewiesen. Nach weiterer Testung könnte eine Anwendung mit Berberin als in vitro Präkonditionierung von MSC vielversprechend sein. Die Verwendung von Niclosamid hingegen sollte vermieden werden, die Wirkung von Gedunin müsste genauer untersucht werden.
Das Schilddrüsenkarzinom (SK) ist die häufigste bösartige endokrine Tumorerkrankung. Während das nicht-metastasierte und nicht-mutierte papilläre Schilddrüsenkarzinom (PSK) und das follikuläre Schilddrüsenkarzinom (FSK) eine gute Heilungschance aufweisen, zeigen die mutierten und metastasierten Varianten des PSK und FSK sowie das anaplastische Schilddrüsenkarzinom (ASK) weiterhin eine schlechte Prognose. Die Entwicklung von Therapieresistenzen stellen hierbei ein Hauptproblem in der Behandlung des fortgeschrittenen Schilddrüsenkarzinoms dar.
In den letzten Jahren wurden in Studien zunehmend Tumor-initiierende Zellen (TIZ) beschrieben, welche eine kleine Subpopulation von Zellen mit der Fähigkeit zur Selbsterneuerung, Tumorinitiierung und Entwicklung von Therapieresistenzen von Tumoren darstellen. Die Existenz von TIZ wurde auch im SK nachgewiesen. Ein entscheidender Faktor für die Persistenz von TIZ ist die Hypoxie, welche über eine Veränderung des Tumormikromilieus und des Zellmetabolismus zur Entstehung von Therapieresistenzen beiträgt. Ein durch Hypoxie hochreguliertes Enzym ist die Carboanhydrase IX (CAIX). CAIX wird hauptsächlich von Tumorzellen exprimiert und katalysiert die Reaktion von Kohlendioxid zu Bicarbonat und einem Proton und trägt damit zur Säurepufferung der Tumorzelle bei. CAIX stellt somit einen entscheidenden Faktor für das Überleben von Tumorzellen in einem hypoxischen Milieu dar. Des Weiteren ist eine erhöhte Expression von CAIX mit einem schlechten Patienten-Outcome assoziiert, wie z.B. im Brustkrebs. Diese Eigenschaften machen CAIX zu einem attraktiven Angriffspunkt einer zielgerichteten Tumortherapie. Die vorliegende Studie hat zum Ziel, die Expression von CAIX sowie dessen biologische Rolle im Schilddrüsenkarzinom näher zu untersuchen.
Hierzu wurden Proben von 114 SK-Patienten immunhistochemisch auf eine CAIX-Expression untersucht und mit tumorfreiem Schilddrüsengewebe verglichen. Hierbei waren unterschiedliche SK-Subtypen vertreten. Für eine weitere Validierung der Expressionsdaten erfolgte die Auswertung eines Datasets von „The Cancer Genome Atlas“ (TCGA) mithilfe von cBioportal. Da die Hypoxie ein wichtiger Faktor für die Persistenz von TIZ ist, wurde die CAIX-Expression in Tumorsphären, ein in vitro Nachweis von TIZ-Aktivität, mittels der Durchflusszytometrie bestimmt und mit der CAIX-Expression von Monolayern verglichen. Als SK-Zelllinien wurden BCPAP (PSK), FTC 133 (FSK) und 8505 C (ASK) verwendet. Anschließend wurde mithilfe der Polymerasekettenreaktion und Immunofluoreszenzfärbung untersucht, ob eine CAIX-Expression in den Tumorsphären mit der Expression von bereits bekannten Stammzellmarkern, u.a. NANOG, assoziiert ist. Die Unterschiede der CAIX-Expression, nach Inkubation der Monolayer jeweils in Normoxie und Hypoxie, wurden mittels Durchflusszytometrie bestimmt. Mithilfe eines genetischen CAIX-Knockdowns sowie einer pharmakologischen Inhibition mit dem CAIX-Inhibitor Methazolamid (MZM) wurde die Tumorzellproliferation und -Sphärenbildung unter Normoxie und Hypoxie bestimmt. Zusätzlich wurde der Einfluss von MZM auf die Apoptose und den Zellzyklus untersucht.
Immunhistochemische Färbungen der Gewebeproben von SK-Patienten zeigten, dass die CAIX-Expression sowohl im PSK und FSK als auch im ASK im Vergleich zum tumorfreien Schilddrüsengewebe erhöht war. Des Weiteren zeigte die klinisch-pathologische Datenanalyse, dass eine erhöhte CAIX-Expression mit dem Auftreten von Lymphknotenmetastasen im differenzierten SK assoziiert war. Auch die Analyse des TCGA-Datasets bestätigte, dass eine erhöhte Expression der CAIX-mRNA mit einem fortgeschrittenen Tumorstadium, Fernmetastasen und mit einem kürzeren Gesamt-Überleben von SK-Patienten korrelierte. Die weiteren funktionellen in vitro Untersuchungen ergaben, dass die CAIX-Expression in den Tumorsphären im Vergleich zu Monolayern erhöht und mit einer erhöhten Expression von Stammzellmarkern assoziiert war. Ein genetischer CAIX-Knockdown und eine CAIX-Inhibition mit MZM führten über eine Induktion der Apoptose und eines Zellzyklusarrests zu einer verminderten Tumorzellproliferation und Sphärenbildung.
Zusammenfassend deuten die Ergebnisse darauf hin, dass CAIX ein vielversprechendes Zielmolekül für eine gezielte Tumortherapie des fortgeschrittenen SK ist. Um diese Hypothese bestätigen zu können, sind jedoch weitere prospektive Analysen von Patientenproben sowie funktionelle in vivo Untersuchungen am SK nötig.
Einleitung: Die Zentrale Notaufnahme (ZNA) stellt eine Schnittstelle zwischen prä- und innerklinischer Versorgung dar. Das Spektrum der Krankheitsbilder erstreckt sich über jegliche Fachrichtungen und variiert von harmlosen Banalitäten bis zu akuten Notfällen. Eine sichere und suffiziente Primärversorgung ist die Basis eines qualitativ-hochwertigen Gesundheitssystems.2 Verspätete oder falsche Diagnosen in der ZNA sind mit 10-30 % keine Seltenheit.
Dies ist nicht nur für den individuellen Patienten belastend, es bedeutet auch einen zusätzlichen Ressourcenverbrauch und eine finanzielle Belastung für das Gesundheitssystem. Clinical Decision Support Systems (CDSS) haben das Potenzial, sowohl professionelle Anwender als auch Laien bei ihrer Diagnosefindung zu unterstützen. Fragestellung: Ziel der Arbeit ist es herauszufinden, welchen Einfluss der Diagnosezeitpunkt auf das Outcome von Patienten mit Abdominalschmerzen in der ZNA hat und inwiefern ein CDSS das Potenzial hat, die genannten Punkte zu beeinflussen.
Methoden: Es handelte sich um eine prospektive, doppelt verblindete Beobachtungsstudie. Patienten, die sich mit Abdominalschmerzen in der Notaufnahme vorstellten, gaben ihre Symptome in die Ada-App ein. Sowohl die Diagnosevorschläge der App als auch die Verdachtsdiagnosen des behandelnden Arztes wurden dokumentiert und verglichen. Weitere erhobene Parameter waren die Verwendung von apparativer Diagnostik, die vergangene Zeit bis zur endgültigen Diagnosestellung, das Auftreten von Komplikationen, die Komorbidität und Mortalität sowie die Länge des Krankenhausaufenthalts. Das Follow-Up erfolgte zu verschiedenen Zeitpunkten bis zu Tag 90. Für die Analyse wurden die 450 Patienten anhand des Zeitpunkts ihrer Diagnosestellung in Gruppen "früh" (Tag 0) und "spät" (Tag 1-24) eingeteilt.
Ergebnisse: Im Vergleich zur „frühen“ Gruppe, hatte die Gruppe der „spät“ diagnostizierten Patienten einen höheren Anteil von Männern (45.2% (n=168/372) versus 60.3 % (n=47/78); p=0.018), im Schnitt einen höheren Charlson Comorbidity Index (0.7 versus 1.1; p=0.045) und im Schnitt einen höheren RAI-C Score (8.06 versus 9.9; p<0.001) am Tag ihrer Vorstellung. Bei den „spät“ diagnostizierten blieben weniger Patienten komplikationsfrei (57.0 % 49 (n=212/372) versus 17.9% (n=14/78); p<0.001), es traten mehr Major-Komplikationen auf (8.9% (n=33/372) versus 17.9% (n=14/78); p=0.024), analog dazu war der Comprehensive Complication Index höher (13.1 versus 25.6; p<0.001) und sie verweilten länger im Krankenhaus (2.6 Tage versus 6.7 Tage; p<0.001). Zudem nahmen sie signifikant mehr apparative Diagnostik in Anspruch.
Die behandelnden Ärzte konnten in 82.6% der Fälle (n=372/450) am Tag der Vorstellung die korrekte Diagnose stellen. Die Ada-App konnte in insgesamt 52% der Fälle (n=234/450) die korrekte Diagnose unter ihren Diagnoseverschlägen nennen.
Schlussfolgerung: Multimorbide Patienten scheinen anfälliger zu sein für falsche und verspätete Diagnosen. Ein später Diagnosezeitpunkt korreliert mit der vermehrten Nutzung apparativer Diagnostik, einem komplikationsreicheren Verlauf, einer höheren Komorbidität und einem längeren Krankenhausaufenthalt.
Die Ada-App ist den Ärzten zwar unterlegen, dennoch ist Potenzial vorhanden.
Für Ärzte kann die Ada-App eine Unterstützung im Rahmen der Diagnosefindung darstellen. Neben der Ressourcenentlastung kann sie vor Fehlannahmen und frühzeitigen Schlussfolgerungen schützen und auf weitere mögliche Differentialdiagnosen hinweisen. Die Ada-App stellt für Laien mit Sicherheit eine Weiterentwicklung gegenüber der simplen Symptomsuche über das Internet dar, dennoch sollten weitere Studien den Nutzen und die Sicherheit der App überprüfen.
Finanzielle Armut prägt Mobilitätspraktiken und kann dabei zum Prozess von mobilitätsbezogener sozialer Exklusion beitragen. Zu den Personen, deren Armutsrisiko besonders hoch ist, zählen in Deutschland Haushalte mit Kindern, insbesondere Alleinerziehende. Ältere Menschen haben nicht die höchste Armutsgefährdung, jedoch besteht bei ihnen das Risiko von Verharrung in Armut, da die Möglichkeiten, die finanzielle Situation aus eigener Kraft zu ändern mit zunehmendem Alter sinken.
Um ein tieferes Verständnis davon zu erhalten, wie finanzielle Armut die Mobilitätspraktiken und soziale Teilhabe von Haushalten mit Kindern sowie älteren Menschen prägt, wurden mit diesen beiden Personengruppen problemzentrierte Interviews in Ronnenberg (Region Hannover) geführt und analysiert. Die Ergebnisse belegen, dass, wenngleich alle Befragten mit ähnlich geringen finanziellen Ressourcen haushalten und Verzicht sowie Abwägungsprozesse notwendig sind, sich ihre Mobilitätspraktiken und Alltagsbewältigungsstrategien unterscheiden, was sich in zwei Typologien widerspiegelt. Erstens, eine Typologie der Mobilitätspraktiken von Haushalten mit Kindern: (i) autozentriert, (ii) autoreduziert, (iii) ÖPNV-orientiert und (iv) nichtmotorisiert. Zweitens, eine Typologie älterer Menschen anhand ihrer Mobilitätspraktiken: (i) aktive ältere Menschen mit vielseitigen sozialen Interaktionen, (ii) nachbarschaftsorientierte ältere Menschen mit lokalen Kontakten und (iii) ältere Menschen, die überwiegend zu Hause sind und wenig soziale Kontakte haben.
Um herauszufinden, inwiefern mobilitätsbezogene Barrieren der sozialen Teilhabe reduziert werden können, wurden fünf Maßnahmen bezüglich ihrer Wirkung auf die Mobilitätspraktiken einkommensarmer Haushalte mit Kindern untersucht: einerseits die Wirkung des 9-Euro-Tickets anhand von problemzentrierten Interviews mit einkommensarmen Haushalten mit Kindern, andererseits anhand von Expert:inneninterviews die Wirkung von Radlernkursen für Frauen mit Migrationshintergrund, eines Mietertickets, eines Quartierstickets und der Verbesserung der Nahraum- und Aufenthaltsqualität am Beispiel von Tempo 30. Die Ergebnisse zum 9-Euro-Ticket belegen, dass ein erschwingliches ÖPNV-Ticket erheblich zur Reduzierung mobilitätsbezogener Barrieren der sozialen Teilhabe im Armutskontext beiträgt. Die Expert:inneninterviews zeigen auf, dass eine Förderung des Umweltverbunds zielführend ist, um zu einer sozial-ökologischen Verkehrswende beizutragen und insbesondere Maßnahmenbündel Wirkung auf die Reduzierung von mobilitätsbezogenen Barrieren der sozialen Teilhabe entfalten.
Die Erkenntnisse dieser Dissertation ergänzen den wissenschaftlichen Forschungstand um ein tiefergehendes Verständnis der Wirkung von finanzieller Armut auf die Mobilitätspraktiken und soziale Teilhabe von Haushalten mit Kindern und älteren Menschen und helfen dabei, Maßnahmen zur Reduzierung mobilitätsbezogener Barrieren der sozialen Teilhabe zu konzipieren und umzusetzen.
Weltweit gibt es laut WHO ca. 58 Millionen Menschen mit einer chronischen Hepatitis-C-Virus (HCV) Infektion und jährlich stecken sich ca. 1,5 Millionen Menschen neu mit diesem Virus an (Stand 2019). Da die Folge einer chronischen Hepatitis-C-Virus Infektion eine potenziell tödlich verlaufende Leberzirrhose oder die Entwicklung eines Hepatozellulären Karzinoms sein können, ist eine frühe Diagnose und eine adäquate Therapie eine wichtige Aufgabe in der Medizin.
Die bisherige Therapie erfolgte mittels pegyliertem Interferon und Ribavirin und seit einigen Jahren auch interferonfrei mittels Direkter Antiviraler Agenzien (DAA). Vor allem beim älteren Therapieregime konnten viele Nebenwirkungen und häufiger auch ein Therapieversagen auftreten, sodass ein leicht zu gewinnender Biomarker nützlich wäre, der die Patienten mit Therapieversagen frühzeitig und im besten Fall sogar vor Therapiebeginn detektieren kann.
In der vorliegenden Arbeit wurden die Spiegel von extrazellulär im Blut zirkulierender, leberspezifischer microRNA miR-122 auf Eigenschaften als solche potenzielle Biomarker untersucht. Dazu wurden die Patientenseren von insgesamt 60 Patienten mit chronischer Hepatitis-C-Virus Infektion analysiert, die mittels pegyliertem Interferon und Ribavirin behandelt wurden. Vor, während und nach der Therapie wurden verschiedene Laborparameter sowie die miR 122 in den Patientenseren bestimmt. 20 dieser Patienten zeigten ein dauerhaftes Ansprechen auf die Therapie (sustained virological response = SVR), 20 zeigten nach einem initialen Therapieansprechen ein Rückfall der Erkrankung (Relapse) und 20 Patienten sprachen gar nicht auf die Therapie an (Non-Responder = NR).
Zunächst wurden die sogenannten Baseline-Charakteristika der Patienten vor Therapiebeginn untersucht. Dabei konnten wir jedoch keinen Unterschied zwischen den Patientengruppen hinsichtlich der Alanin-Aminotransferase (ALT) und Aspartat-Aminotransferase (AST), zwei Laborparameter zur Bestimmung einer Leberschädigung, sowie der HCV-RNA, ein Parameter zur Bestimmung der Viruslast bei Patienten mit einer HCV-Infektion, feststellen.
Auch die miR-122-Spiegel zeigten vor Therapiebeginn keinen signifikanten Unterschied zwischen den drei Patientengruppen. Daraus wurde geschlossen, dass man die miR-122 vor Therapiebeginn nicht als prognostischen Marker für einen Therapieerfolg verwenden kann.
Beim Vergleich der miR-122-Spiegel mit den Laborparametern konnte eine signifikante Korrelation zwischen der miR-122 und der ALT, AST und der Gamma-Glutamyl-Transferase (GGT) festgestellt werden. Die miR-122 scheint somit ähnlich wie die anderen Laborparameter eine Leberzellschädigung widerzuspiegeln.
Nach dem Therapiebeginn konnte bereits ab Woche 4 ein signifikanter Unterschied zwischen den SVR und Non-Respondern sowie zwischen den Relapsepatienten und den Non-Respondern festgestellt werden. Jedoch war der Unterschied zwischen den SVR und den Relapse-Patienten nicht signifikant, sodass man weiterhin keine Unterscheidung dieser beiden Patientengruppen machen konnte.
Auch die ALT- und HCV-RNA-Spiegel zeigten einen ähnlichen Verlauf. In den Gruppen der SVR und Relapse-Patienten zeigte sich im Laufe der Therapie ein Rückgang der Parameter wohingegen die Gruppe der Non-Responder keine signifikante Dynamik aufwies.
Zum Schluss wurden die miR-122-Spiegel 12 bzw. 24 Wochen nach Therapieende bestimmt, dem sogenannten Zeitpunkt des Follow-Up bei dem der Therapieerfolg laut Leitlinie mit Hilfe der HCV-RNA-Messung bestimmt wird. Dabei konnte ein signifikanter Unterschied zwischen den miR-122-Spiegeln bei den SVR-Patienten und den anderen beiden Patientengruppen festgestellt werden.
In Zusammenschau dieser Ergebnisse kann man sagen, dass die miR-122 gut geeignet ist um ähnlich wie die HCV-RNA den Therapieverlauf widerzuspiegeln. Als prognostischer Parameter bzw. Biomarker für ein Therapieansprechen ist sie jedoch nicht geeignet, da keine Unterscheidung zwischen den einzelnen Patientengruppen vor Therapiebeginn möglich ist und während der Therapie lediglich die Non-Responder und nicht die Relapse-Patienten detektiert werden können.
Im Fokus der vorliegenden Arbeit stand die Fragestellung, inwieweit ORF10 von B. recurrentis, dem Erreger des Läuserückfallfiebers, mit verschiedenen Komplementkomponenten interagieren kann.
Mit funktionellen Komplementtests konnte gezeigt werden, dass ORF10 den klassischen, den alternativen sowie den Lektin-Weg inhibiert, wobei sich die stärkste Inhibition gegenüber dem alternativen Weg manifestierte. Darüber hinaus ließ sich in einem Zell-basierten Hämolyse-Assay eine Inhibition des terminalen Komplementweges durch ORF10 nachweisen.
Die durchgeführten Bindungsanalysen mit verschiedenen Komplementkomponenten führten zu dem Ergebnis, dass ORF10 mit C1q, C1s, C3, C3b, C4b und C5 interagiert und diese Protein-Protein-Interaktion mit den Komplementkomponenten C1q, C3, C3b und C4b durch einen dosisabhängigen Verlauf charakterisiert ist. Eine Bindung von C1r, C2, C4, FB, FH sowie FI konnte jedoch nicht nachgewiesen werden.
Auf Basis der modellierten Struktur von ORF10 wurden mithilfe der In-vitro-Mutagenese drei verschiedene Varianten generiert, die jedoch nicht affinitätschromatographisch aus E. coli-Zelllysaten isoliert werden konnten und deshalb nicht für weiterführende funktionelle Analysen zur Verfügung standen.
Die Ergebnisse der Serumbakterizidie-Tests mit einem „gain of function“-Borrelienstamm, welcher ORF10 heterolog produzieren sollte, ergaben, dass keine erhöhte Resistenz gegenüber Humanserum nachgewiesen werden konnte. Inwieweit ORF10 bei der intrinsischen Serumresistenz von B. recurrentis beteiligt ist, lässt sich abschließend nicht vollumfänglich erklären.
Das Hepatoblastom ist ein embryonaler Lebertumor, dessen Zellen unterschiedliche unreife Stadien aufweisen. Aufgrund dieser Unreife ist die Identifizierung von Krebsstammzellen erschwert, die in diesem Tumor vermutet und für Rückfälle verantwortlich gemacht werden. In Vorarbeiten konnte eine Krebsstammzellpopulation mit der Kombination der hämatopoetischen Stammzellmarker CD90 und CD34 sowie dem „oval cell“ OV-6-Antikörper in den etablierten Hepatoblastomzelllinien HuH6 und HepG2 detektiert werden. Diese CD34+OV-6+CD90+ Zellen wiesen eine erhöhte Expression von Pluripotenzfaktoren auf und zeichneten sich durch ein erhöhtes Migrationsverhalten aus.
In der hier vorgelegten Arbeit wurden zunächst Tumor-Sphäroid-Assays durchgeführt um diese Population als Krebsstammzellen zu bestätigen, da nur Krebsstammzellen unter den gegebenen Umständen wachsen können. Diese waren im Anschluss wieder in der Lage, in „normalem Medium“ zu differenzieren. Des Weiteren wurden die Zelllinien mit dem Standardtherapeutikum Cisplatin behandelt. Da Krebsstammzellen als chemoresistent gelten, konnte in der überlebenden Zellpopulation auch eine Anreicherung der CD34+OV-6+CD90+ Zellen beobachtet werden. Zusätzlich ließ sich eine weitere CD34+OV-6+CD90+ Population identifizieren, deren Expression aller drei Marker schwächer war und die bei steigenden Cisplatin-Konzentrationen den Großteil der CD34+OV-6+CD90+ Population ausmachte.
Neben den erhöhten Transkriptmengen der Pluripotenzmarker Oct4 und Nanog zeichneten sich die CD34+OV-6+CD90+ Krebsstammzellen durch eine verstärkte Expression der aktivierungsinduzierten Zytidin-Desaminase AID aus. AID wirkt induzierend auf die Transkription beider Pluripotenzmarker. Daher könnte es auch bei Krebsstammzellen eine Rolle bei der Induktion von Pluripotenz und bei ihrer langfristigen Erhaltung spielen. Dies unterstützend legten die verminderten Transkriptmengen der Pluripotenzgene nach einem AID siRNA Knock-Down eine Abhängigkeit des Stammzellcharakters von diesem Faktor nahe. Um einen Effekt von Therapeutika, die inhibitorisch auf AID wirken, auf Krebsstammzellen zu untersuchen, wurden die Zellen mit den DNMT-Inhibitoren Decitabine und Zebularine sowie dem HSP90-Inhibitor Tanespimycin behandelt. Tatsächlich konnte vor allem in den HuH6-Zellen ein verminderter Anteil der Krebsstammzellpopulation durch die drei Substanzen beobachtet werden. Wurden die Zellen im Anschluss mit dem Standardzytostatikum Cisplatin behandelt, führte allerdings eine Vorbehandlung mit Zebularine oder Decitabine zu einer starken Anreicherung von Krebsstammzellen. Dies war vor allem auf Zellen mit dem schwach positiven CD34+OV-6+CD90+ Expressionsprofil zurückzuführen, die chemo-induziert zu sein scheinen. Zwar erscheint die Mehrheit der Tumorzellen eliminiert zu werden, jedoch lassen diese Ergebnisse die Entstehung von chemo-induzierten Krebsstammzellen vermuten, die langfristig für einen Rückfall verantwortlich sein könnten. Daher ist von einer Ergänzung der Therapie mit diesen Substanzen abzusehen. Eine Vorbehandlung mit Tanespimycin hingegen konnte im Vergleich zur alleinigen Cisplatin-Behandlung wirksam den Anteil der Krebsstammzellen reduzieren. Interessanterweise war dies nicht auf einen verstärkten Zelltod der Krebsstammzellen, sondern vielmehr auf eine durch Tanespimycin bewirkte Differenzierung derselben zurückzuführen. Diese spiegelte sich auch in einer verminderten Expression von Pluripotenzmarkern auf mRNA-Ebene im Vergleich zur alleinigen Cisplatin-Behandlung wider.
Somit präsentierte sich Tanespimycin als potenter Inhibitor von Krebsstammzellen. Auch wenn weitere vorklinische und klinische Tests und Untersuchungen erfolgen müssen, stellt Tanespimycin bzw. die Substanzklasse der HSP90-Inhibitoren einen interessanten und vielversprechenden Kandidaten für eine Ergänzung der Standardtherapie vor allem bei behandlungsresistenten und rekurrenten High-Risk-Hepatoblastomen dar.
Test-Retest-Reliabilität der Präpulsinhibition (PPI) und PPI-Korrelation mit dem Arbeitsgedächtnis
(2023)
Sensomotorisches Gating – ein Mechanismus zur Filterung des sensorischen Inputs und zur Regulierung des motorischen Outputs – wird experimentell durch die Präpulsinhibition (PPI) der akustisch ausgelösten Schreckreaktion (ASR) operatio-nalisiert. Frühere Studien deuten auf eine hohe Test-Retest-Reliabilität der PPI und eine mögliche Korrelation mit dem Arbeitsgedächtnis (engl. Working Memory (WM)) hin. Ziel dieser Studie war es, die Test-Retest-Reliabilität der PPI bei ge-sunden Menschen und ihre Korrelation mit der Leistung des WM zu überprüfen. Hier wurde ein akustisches Schreckreiz-PPI-Paradigma mit vier verschiedenen Präpuls-Intensitäten (64, 68, 72 und 76 dB(A)) und zwei verschiedene WM-Aufgaben (n-back, Change-Detection-Task (CDT)) verwendet. Es konnte eine ho-he Retest-Reliabilität der PPI mit einer mittleren Intraklassenkorrelation (engl. In-traclass Correlation (ICC)) von >.80 und eine signifikante positive Korrelation der PPI mit der n-back-, aber nicht mit der CDT-Leistung bestätigt werden. Eine detail-lierte Analyse zeigte, dass die PPI über alle Präpulsintensitäten hinweg sowohl mit den 2-back- als auch mit den 0-back-Bedingungen signifikant korrelierte, was auf eine Regulation durch konditionsübergreifende Prozesse (z. B. Aufmerksamkeit) schließen lässt. Wird jedoch die 0-back-Komponente aus den 2-back-Daten aus-partialisiert, sind spezifische und signifikante Korrelationen mit der Arbeitsgedächt-nisleistung für die 76 dB(A) PPI-Bedingung zu finden. Mit der vorliegenden Studie konnte die hohe Test-Retest-Reliabilität der PPI beim Menschen bestätigt und die Korrelation mit der Arbeitsgedächtnisleistung validiert und erweitert werden.
Das radioaktive Edelgas Radon und seine ebenfalls radioaktiven Zerfallsprodukte machen den größten Teil der natürlichen Strahlenbelastung in Deutschland aus. Trotz der Einstufung als krebserregend für Lungenkrebs wird es zur Therapie entzündlicher Krankheiten eingesetzt. Der hauptsächliche Aufnahmemechanismus ist dabei die Inkorporation über die Atmung, wobei Radon auch über die Haut aufgenommen werden kann. Radon wird dabei über das Blut im gesamten Körper verteilt und kann in Gewebe mit hoher Radonlöslichkeit akkumulieren. Die Zerfallsprodukte verbleiben jedoch in der Lunge, zerfallen dort, bevor sie abtransportiert werden können und schädigen das dortige Gewebe.
Die Lungendosis wird laut Simulationen zum größten Teil durch die kleinsten Radon-Zerfallsprodukte (< 10 nm) bestimmt, die besonders effektiv im Respirationstrakt anheften. Die erzeugte Dosis ist dabei aufgrund der inhomogenen Anlagerung der Zerfallsprodukte lokal stark variabel. In Simulationen wurden Bifurkationen als Ort besonders hoher Deposition identifiziert, wobei die experimentelle Datenlage zur Deposition kleinster Radon-Zerfallsprodukte eingeschränkt ist. Aufgrund des Anstiegs der Komplexität von Simulationen oder Experimenten wird in den meisten Betrachtungen nicht der oszillatorische Atemzyklus berücksichtigt, sondern lediglich ein einseitig gerichteter Luftstrom betrachtet. Im Rahmen dieser Arbeit wurde ein experimentelles Modell entwickelt und etabliert, das die Messung der Deposition von Radon-Zerfallsprodukten ermöglicht und zwischen drei Größenfraktionen (Freie Zerfallsprodukte: < 10 nm, Cluster: 20-100 nm, Angelagerte Zerfallsprodukte: > 100 nm) unterscheiden kann. Der Luftfluss durch das Modell bildet sowohl die Inhalation als auch die Exhalation ab. Erste Experimente mit dem neu entwickelten Messaufbau konnten die aus Simulationen bekannte erhöhte Deposition der freien Zerfallsprodukte in einer Bifurkation abbilden. Die Vergrößerung des Bifurkationswinkels von 70° auf 180° zeigte lediglich einen minimalen Anstieg in der Größenordnung des Messfehlers. Der dominierende Prozess der Anlagerung der freien Zerfallsprodukte ist die Brown'sche Molekularbewegung, die unabhängig vom Bifurkationswinkel ist. Dennoch kann ein veränderter Winkel die Luftströmung und entstehende Turbulenzen verändern, wodurch die Deposition beeinflusst werden kann. Dies lässt sich jedoch mit dem hier benutzten Messaufbau nicht auflösen. Entgegen der Beobachtungen in der Literatur führte die Erhöhung der Atemfrequenz von 12 auf 30 Atemzüge pro Minute, in den im Rahmen dieser Arbeit durchgeführten Experimenten, zu keiner messbaren Veränderung der Deposition. Diese Beobachtung ist auf die Entstehung gegensätzlicher Effekte zurückzuführen. Einerseits führt eine schnellere Luftströmung zu kürzeren Aufenthaltszeiten der freien Zerfallsprodukte im Modell, wodurch die Deposition unwahrscheinlicher wird. Andererseits entstehen vermehrt sekundäre Strömungen und absolut betrachtet werden mehr Partikel durch das Modell gepumpt. Es ist davon auszugehen, dass sich diese Effekte im hier getesteten Bereich aufheben.
Als potentielle Schutzmaßnahme zur Reduktion der Lungendosis konnte im Rahmen dieser Arbeit die Filtereffzienz von Gesichtsmasken (OP-Masken, FFP2 Masken) gegenüber Radon und seinen Zerfallsprodukten bestimmt werden. Während Radon nicht gefiltert wird, wurden die freien Zerfallsprodukte fast vollständig (> 98%) und die Cluster zum größten Teil (≈ 80 %) zurückgehalten.
Radon selbst kann im gesamten Organismus verteilt werden und dort in Gewebe akkumulieren. Zur Bestimmung der Dosis wird dabei auf biokinetische Modelle zurückgegriffen. Diese sind von der Qualität ihrer Eingabeparameter abhängig, wobei beispielsweise die Werte zur Verteilung von Radon zwischen Blut und Gewebe auf experimentell gewonnenen Löslichkeitswerten aus Mäusen und Ratten beruhen. Unbekannte Werte werden von der Internationalen Strahlenschutzkommission basierend auf der Gewebezusammensetzung als gewichteter Mittelwert berechnet. In dieser Arbeit wurde die Löslichkeit in humanen Blutproben und wässrigen Lösungen verschiedener Konzentrationen der Blutproteine Hämoglobin und Albumin bestimmt. Es löste sich mehr Radon in Plasma als in Erythrozytenkonzentrat und Vollblut. Die Protein-Lösungen zeigten keine Konzentrationsabhängigkeit der Löslichkeit, sondern lediglich in hitzedenaturiertem Hämoglobin wurde eine niedrigere Löslichkeit gemessen. Basierend auf diesen Beobachtungen, sollte die These überprüft werden, ob sich die Löslichkeit einer Mischung als gewichteter Mittelwert der einzelnen Löslichkeiten berechnen lässt. Daher wurden diese in einer Mischung aus zwei Flüssigkeiten (1-Pentanol, Ölsäure) bestimmt. Die experimentell bestimmte Löslichkeit war dabei fast doppelt so groß wie der berechnete Wert. Dieser Unterschied kann dadurch zustande kommen, dass bei einer Berechnung basierend auf der Zusammensetzung die Wechselwirkungen zwischen den Lösungsmitteln vernachlässigt werden. Dies verdeutlicht die Notwendigkeit experimenteller Daten zur Verteilung und Lösung von Radon in verschiedenem Gewebe.
Das Harnblasenkarzinom ist einer der häufigsten Tumoren weltweit. Insbesondere die muskelinvasiven Tumoren haben eine schlechte Prognose und stellen sich morphologisch sehr unterschiedlich dar. Diese Heterogenität wird bislang bei Therapieentscheidungen nicht beachtet. Um Patienten zukünftig individuell auf den vorliegenden Subtyp des muskelinvasiven Harnblasenkarzinoms (MIBC, muscle invasive bladder cancer) behandeln zu können und dadurch unnötige Belastungen durch Chemotherapien vermeiden zu können, ist eine einfache und kostengünstige Diagnostik erforderlich. Das Ziel der vorliegenden Arbeit war es, den Einsatz bestimmter immunhistochemischer Färbungen als ein mögliches diagnostisches Routineverfahren zur Bestimmung der vorliegenden Subtypen auszutesten. Hierzu wurde die Expression von „luminalen“ und „basalen“ Proteinen mit histologischen Subtypen des MIBCs korreliert. In einem zweiten Schritt wurde der Einfluss auf das Überleben mit und ohne adjuvante Chemotherapie untersucht.
Es wurden insgesamt 181 Tissue-Microarray-Spots analysiert. Alle histologischen Patientenproben sowie klinischen Daten stammten aus dem Universitätsklinikum Frankfurt am Main. Aus den entsprechenden Gewebeblöcken wurden Stanzen zur Erstellung eines Tissue-Microarrays (TMAs) entnommen. Diese wurden konventionell angeschnitten und histologisch mit Hämatoxylin-Eosin (H/E) sowie immunhistochemisch mit Cytokeratin 5/6 (CK5/6), Cytokeratin 20 (CK20), Glutamyl Aminotransferase-Untereinheit A bindendem Protein 3 (GATA3), Tumorsuppressor- protein p53 und Synaptophysin (SYNAPT) gefärbt.
Anhand der H/E-Schnitte wurden die vorliegenden histologischen Subtypen lichtmikroskopisch bestimmt und es folgte eine statistische Auswertung der Färbeergebnisse. Die deskriptive statistische Analyse zeigte insbesondere für die beiden Färbungen CK5/6 und GATA3 signifikante Ergebnisse. Deshalb wurden in einem zweiten Schritt alle Fälle der Studienkohorte den bekannten vier Gruppen: CK5/6 positiv, GATA3 positiv, doppelt positiv und doppelt negativ zugeordnet und näher untersucht. Es folgte eine Überlebensanalyse nach Kaplan Meier Schätzer sowie uni- und multivariate Analysen.
Die Ergebnisse zeigten eine Assoziation der Expression von CK5/6 mit einer squamösen Differenzierung (96%) und eine Assoziation der Expression von GATA3 mit einer mikropapillären Differenzierung (100%). Die adjuvante Chemotherapie ging mit einem Überlebensvorteil (HR 0,15 95%KI 0,1-0,3; p<0,001) der Patienten mit MIBC einher. Immunhistochemisch doppelt negative Patienten mit MIBC wiesen ein verringertes Gesamtüberleben auf (HR 4,96; 95%KI 1,6-15,6; p=0,006); in der Gruppe der doppelt negativen MIBCs fanden sich fünf verschiedene histologische Subtypen. Zusammenfassend lässt sich sagen, dass die immunhistochemische Klassifizierung des MIBCs mit histologischen Subtypen assoziiert ist und dabei helfen kann, Fälle in der pathologischen Routine in „luminal“ und „basal“ zu unterteilen. Jedoch ist ein auf zwei Markern basierendes Klassifizierungssystem nicht ausreichend, um die Heterogenität des MIBCs abzubilden und die Basis für Therapieentscheidungen zu bilden.
Der Dialog ist für die einen das Versprechen gelingender Kommunikation, für die anderen ein überholtes Ideal. Marten Weise zeigt in einer interdisziplinär angelegten Studie, dass sich die Lücke zwischen Lobpreisungen und Abgesängen schließen lässt. Er setzt bei der Unmöglichkeit des Denkens "nach der Shoah" an und erkundet in exemplarischen Untersuchungen der europäischen Literatur-, Theater- und Theoriegeschichte die Spannungen und Widersprüche im Verhältnis zum "Anderen", ohne die der Dialog nicht zu greifen ist. So macht er zwischenmenschliche, soziale und politische Vorgänge als prinzipiell unabschließbares Sprachgeschehen fassbar und eröffnet einen Spielraum für die Aushandlung und das Aushalten von Dissens und Differenz.
Die vorliegende Arbeit behandelt den Vergleich zweier Geräte - „Endotrust MiFusion TLS 2“ und „Medtronic LigaSure Maryland System“ - zur endoskopischen Entnahme der Arteria radialis (RA) zur Verwendung als Bypass-Gefäß in der Herzchirurgie.
Grundsätzlich kommen in der Bypass-Chirurgie zur Herstellung eines Free-Grafts am Herzen neben der Verwendung der Thoraxarterien die Vena Saphena Magna (VSM) sowie die RA in Frage. In den aktuellen europäischen Leitlinien zur Behandlung von hochgradigen Stenosen wird die Verwendung der RA empfohlen („Class 1 Level B“-Empfehlung).
Die Frage, ob die RA für den Einsatz als Bypass-Gefäß offen oder endoskopisch entnommen werden sollte, ist in der Literatur weiterhin umstritten. In den aktuellen Leitlinien zur Behandlung von koronaren Herzkrankheiten wird aufgrund dieser insoweit uneindeutigen Studienlage keine Empfehlung ausgesprochen. Trotzdem ist die endoskopische Entnahme der RA im klinischen Alltag mittlerweile etabliert. Im Kontext dieser uneindeutigen Studienlage einerseits und der praktischen Bedeutung endoskopischer Entnahme andererseits ist es Zielsetzung der vorliegenden Arbeit, durch einen Gerätevergleich einen Beitrag zur Optimierung der endoskopischen Operationstechnik zu leisten. Es soll zudem aufgezeigt werden, inwieweit die endoskopische Entnahme der RA ein sicheres und effizientes Verfahren darstellt.
In der Literatur zum Vergleich von Operationstechniken zur Entnahme von Bypass-Gefäßen werden häufig histologische Untersuchungen angewendet. Diese ermöglichen eine zeitnahe Beurteilung der Qualität des entnommenen Grafts. Das ist auch in dieser Arbeit der wesentliche Grund dafür, dass die histologische Beurteilung der Qualität der RA als primärer Endpunkt angewendet wird. In Anlehnung an die Literatur wurde die strukturelle Integrität des Endothels und der Elastica interna beurteilt. Die histologische Beurteilung erfolgte nach Immunfluoreszenz-Bearbeitung der Proben.
Im Einklang mit der bestehenden Literatur zur Frage, ob die RA offen oder endoskopisch entnommen werden sollte, wurde in dieser Studie als sekundäre Endpunkte Kriterien bezüglich der Sicherheit und Effizienz der Entnahme verwendet. Dies betrifft das Auftreten von intra- und postoperativen Komplikationen, insbesondere im Hinblick auf neurologische Beeinträchtigungen am operierten Arm, sowie die Entnahmedauer und den operativen Aufwand zur Blutstillung.
Die in dieser Arbeit behandelte Studie wurde als prospektive, 1:1 randomisierte Studie mit zwei Gruppen mit jeweils 50 Patienten durchgeführt. Alle Operationen erfolgten im Zeitraum Januar 2017 bis Juli 2017 im Herzzentrum der Kerckhoff-Klinik Bad Nauheim.
Bezüglich der Resultate des Gerätevergleichs zeigte sich ein eindeutiges Ergebnis. Sämtliche Beurteilungskriterien, bei denen signifikante Unterschiede zwischen den beiden Gruppen aufgetreten sind, u.a. Integrität der Elastica interna, Entnahmedauer, Vorkommen von Residualblutungen, Auftreten von sensorischen Störungen fallen zugunsten des LigaSure-Systems aus.
Dabei ist unserer Meinung nach der wichtigste Einzelaspekt, dass die histologisch ermittelte Integrität der Elastica interna als Indikator für die Qualität des entnommen Grafts in der LigaSure-Gruppe signifikant besser war als in der MiFusion-Gruppe. Dagegen konnten aus der histologischen Untersuchung des Endothels keine klaren Rückschlüsse gezogen werden. Insofern besteht Unsicherheit, ob die Schädigung der Endothelschicht durch die Entnahme selbst oder durch die anschließende Präparierung der entnommenen Proben verursacht wurde.
Bezüglich der sekundären Endpunkte zeigten sich für die Mifusion-Patientengruppe im Vergleich zu anderen Studien zur endoskopischen Entnahme der RA zufriedenstellende bis gute und für die LigaSure Gruppe gute bis sehr gute Ergebnisse. Unabhängig vom verwendeten Gerät kann diese Studie deshalb als eine Bestätigung bisheriger Studien zur Vorteilhaftigkeit der endoskopischen RA-Entnahme angesehen werden. Letztlich fehlt jedoch weiterhin der Nachweis, dass eine endoskopische Entnahme unbedenklich im Hinblick auf den langfristigen kardiologischen Outcome ist. Dies bleibt zukünftiger Forschung vorbehalten.
Darüber hinaus trägt die Studie dazu bei, das klinische Erfahrungswissen über operationstechnische Details bei der Entnahme der Radialarterie zu erweitern und somit die Akzeptanz für die Verwendung der Radialarterie als Bypass-Gefäß in der koronaren Herzchirurgie zu verbessern.
Tobacco smoke-associated particulate matter emissions in a car cabin using the TAPaC platform
(2023)
Zigarettenrauch enthält bis zu 5000 Inhaltsstoffe, von denen mindestens 250 gesundheits-schädlich und 98 krebserregend sind. Der freigesetzte Feinstaub erreicht hohe Konzentrati-onen in Innenräumen und ist somit besonders schädlich für Passivraucher (z.B. Kinder).
Ziel war es eine Messplattform zu etablieren, mit dessen Hilfe die Feinstaubexposition durch Zigarettenrauch im Fahrzeuginnenraum unter unterschiedlichen ventilatorischen Szenarien untersucht werden konnte. Zudem sollte der Einfluss verschiedener Tabakprodukte auf die Feinstaubkonzentration getestet werden.
Im ersten Teil dieser Dissertation wird die neuartige TAPaC Messplattform (tobacco-associated particulate matter emissions inside a car cabin: establishment of a new measuring platform) vorgestellt. Sie erlaubt die Auswirkungen verschiedener ventilatorischer Sze-narien auf die Feinstaubemission von Zigarettenrauch im Auto besser beurteilen zu können. Da niemand gesundheitsschädlichem Tabakrauch ausgesetzt wird, kann sie ohne jegliche ethische Bedenken eingesetzt werden. Die Zigaretten werden hierbei einzeln auf der Beifahrerseite verraucht. Der beim Rauchen freigesetzte Feinstaub wird auf der Fahrerseite gemessen und in PM10 (Partikel mit einem aerodynamischen Durchmesser <10 µm), PM2,5 (Partikel mit einem aerodynamischen Durchmesser <2,5 µm), und PM1 (Partikel mit einem aerodynamischen Durchmesser <1 µm) unterteilt. Hierbei konnten unter der Verwendung von 3R4F Research Cigarettes extrem hohe Feinstaubmesswerte bei geschlossenen Fenstern und ausgeschalteter Lüftung nachgewiesen werden (PM10: 1608 µg/m3, PM2,5: 1583 µg/m3, PM1: 1133 µg/m3). Diese Daten stellen Durchschnittwerte nach 10-minütiger Messung dar. Auch konnte eine Reduktion der Feinstaubkonzentration (PM10: -70,8 bis -74,4%, PM2,5: -70,6 bis -74,3%, PM1: -64,0 bis -68,0%) durch den Einsatz der Lüftung nachgewiesen werden.
Der zweite Teil dieser Dissertation befasste sich maßgeblich mit dem Einfluss unterschiedlicher ventilatorischer Szenarien auf die Feinstaubkonzentrationen im Auto. Unter Verwen-dung von drei unterschiedlichen Zigarettenprodukten (3R4F Research Cigarettes, Marlboro Red, Marlboro Gold) wurden insgesamt 7 ventilatorische Szenarien (Condition C1b–C7b) getestet. Für alle Szenarien, mit Ausnahme von C1b, war die Autolüftung auf Stufe 2/4 ge-stellt und in Richtung der Windschutzscheibe gerichtet. Die Szenarien beinhalteten: Condition 1 (C1b) Fenster geschlossen, Autolüftung aus und externer Ventilator aus, Condition 2 (C2b) Fenster 10 cm geöffnet und externer Ventilator aus, Condition 3 (C3b) Fenster 10 cm geöffnet und externer Ventilator auf höchster Stufe (3/3) an, Condition 4 (C4b) Fenster halb geöffnet und externer Ventilator aus, Condition 5 (C5b) Fenster halb geöffnet und externer Ventilator auf höchster Stufe (3/3) an, Condition 6 (C6b) Fenster vollständig geöffnet und externer Ventilator aus und Condition 7 (C7b) Fenster vollständig geöffnet und externer Ventilator auf höchster Stufe (3/3) an.
Es zeigten sich besonders hohe Feinstaubkonzentrationen bei Zigaretten, welche ohne Ventilation bei geschlossenem Fenster verraucht wurden. Unabhängig von der verwendeten Marke war die Feinstaubbelastung nach 10 min unter C1b (PM10: 1272–1697 µg/m3, PM2,5: 1253–1659 µg/m3, PM1: 964–1263 µg/m3) deutlich höher als unter C2b (PM10: 67–84 µg/m3, PM2,5: 68–83 µg/m3, PM1: 66–79 µg/m3), C3b (PM10: 100–139 µg/m3, PM2,5: 99–138 µg/m3, PM1: 95–132 µg/m3), C4b (PM10: 84–94 µg/m3, PM2,5: 84–93 µg/m3, PM1: 81–89 µg/m3), C5b (PM10: 94–120 µg/m3, PM2,5: 93–119 µg/m3, PM1: 90–114 µg/m3), C6b (PM10: 155–196 µg/m3, PM2,5: 154–195 µg/m3, PM1: 148–184 µg/m3), und C7b (PM10: 74–99 µg/m3, PM2,5: 72–97 µg/m3, PM1: 69–93 µg/m3). Ebenfalls wurden Feinstaubspitzenwerte bei 4,5 min und 10 min ausgewertet. Bei 4,5 min konnte PM10 unter C2b–C7b um 81,6–93,3% im Vergleich zu C1b reduziert werden. Bei 10 min sogar um 92,9–99,3%. Die 3R4F Zigarette hatte die höchste Feinstaubemission gefolgt von Marlboro Rod und Marlboro Gold. Zudem zeigte sich, dass die Feinstaubemission auch von den Tabakinhaltsstoffen und dessen Konzentrationen abhängig ist.
Die Etablierung der neuen Messplattform ermöglicht die Erforschung von Feinstaubexpositionen durch Zigarettenrauch im Auto ohne potentiell gesundheitliche Folgen. In Zusammenschau der Daten ließ sich nach Öffnen des Fensters und unter Einflussnahme verschiedener ventilatorischer Einstellungen eine deutliche Reduktion der Feinstaubkonzentration im Auto feststellen. Nichtsdestotrotz bleibt die Feinstaubbelastung im Autoinnenraum zu hoch und übersteigt die Richtwerte der Air Quality Guidelines aus dem Jahre 2021 der WHO. Die experimentell untersuchten Belüftungsszenarien sind somit insuffizient, da sie nicht vor der toxischen Feinstaubexposition durch Passivrauch beim Autofahren schützen können.
Raumkonstruktionen, die über Handlung und Bedeutungszuschreibungen im Kontext sozialer Medien entstehen, sind ein Fallbeispiel dafür, wie vor dem Hintergrund von Digitalität Fachinhalte re-innoviert werden müssen. Mit dem Ziel eines Beitrags zur Konzeption professionellen Lehrkräftewissens im Kontext von Digitalität werden, ausgehend von der Fragestellung, welche professionellen Fähigkeiten Lehrkräfte benötigen, um Raumkonstruktionen im Unterricht zu thematisieren, in dieser kumulativen Dissertation Raumkonstruktionen aus normativer und empirischer Perspektive als exemplarischer geographischer Fachinhalt adressiert.
Als theoretischer Rahmen dient dabei das TPACK Modell von Mishra & Koehler (2006), das professionelles Lehrkräftewissen in die Bereiche fachliches, pädagogisches und technologisches Wissen sowie deren Überschneidungsbereiche einteilt. Zunächst erfolgt eine Anwendung des Modells als Reflexionsperspektive auf Fachinhalte zur Erzeugung normativer Fähigkeitsbeschreibungen. Diese Fähigkeitsbeschreibungen fließen in die Entwicklung eines TPACK-Selbsteinschätzungsfragebogens für Lehramtsstudierende der Geographie ein. Im Rahmen der damit durchgeführten Studie (n= 364) zeigen sich auf deskriptiver Ebene vergleichsweise niedrige Selbsteinschätzungen der Bereiche inhaltlichen und fachdidaktischen Wissens. Durch die Anwendung einer konfirmatorischen Faktorenanalyse kann das TPACK Modell als zufriedenstellend für die Beschreibung der Daten identifiziert werden. Auffällig ist allerdings die niedrige Korrelation des Konstrukts technologischen Wissens mit den angrenzenden Wissensbereichen. In Bezug auf die Selbsteinschätzungen im phasen- und kontextübergreifenden Vergleich lässt sich, ausgehend von linearen Regressionsanalysen, eine tendenzielle Zunahme der selbsteingeschätzten Fähigkeiten entlang der Fachsemesterzahl ermitteln. Mittels Zweistichproben-t-Tests können außerdem höhere Selbsteinschätzungen der pädagogischen Wissensbereiche durch Studierende, die als Vertretungslehrkräfte tätig sind, festgestellt werden.
In Bezug auf die zur Thematisierung von Raumkonstruktionen im Unterricht benötigten Fähigkeiten ist zunächst die Relevanz der Förderung der Integration fachlichen, pädagogischen und fachdidaktischen Wissens hervorzuheben. Die Studie gibt darüber hinaus Hinweise auf eine niedrigere Bedeutung technologischen Wissens im Hinblick auf soziale Medien als Beispiele alltäglicher Technologien. Vor dem Hintergrund des positiven Effekts von Selbstwirksamkeitsprozessen bieten die Ergebnisse Implikationen für eine Diskussion von praktischen Erfahrungen als Aspekt professionellen Lehrkräftewissens im Sinne der Förderung einer kritisch-reflexiven Auseinandersetzung mit der Tätigkeit als Vertretungslehrkraft aus fachdidaktischer Perspektive. Insgesamt leistet die kumulative Dissertation einen Beitrag zum Diskurs um fachliche geographische Bildung im Kontext von Digitalität und zur Konzeption des professionellen Lehrkräftewissens vor diesem Hintergrund.
Bei 166 Patienten wurde eine perkutane transluminale Angioplastie (PTA) der A. carotis interna bzw. communis durchgeführt. 37/166 Patienten hatten symptomatische Stenosen (22,3 %). Der Stenosegrad lag bei 76,0 ± 9,9 % (57- 97 %). Bei 165/166 Patienten (99,4 %) wurde die PTA erfolgreich durchgeführt und der Stenosegrad auf 5,8 ± 21,2 % ( -73- 79 %) gesenkt. Perioperativ traten bei 8/166 Patienten neurologische Komplikationen auf (4,8 %), darunter fünf cerebrale Infarkte (3,0 %). Perioperative verstarben vier Patienten (2,4 %), zwei an Folgen einer Apoplexie, zwei an Folgen eines Myokardinfarktes. 152/166 Patienten wurden durchschnittlich 16 ± 18 Monate (ein Tag nach PTA bis maximal 87 Monaten) nachuntersucht. Bei 17 Patienten kam es zu Rezidivstenosen (10,2 %), drei davon zeigten neurologische Symptome, drei weitere bedurften einer wiederholten PTA (Re-PTA).
Die perioperativen Ergebnisse der vorgelegten Arbeit deckten sich weitgehend mit denen anderer Studien zur PTA 5, sowie zu denen bedeutender Studien zur Thrombendarteriektomie (TEA) 6. Diese Ergebnisse wurden durch die randomisierte CAVATAS- Studie
bestätigt, in der keine signifikanten Unterschiede bezüglich der Inzidenz neurologischer Symptome und der Mortalität der PTA und TEA nachgewiesen wurden [18]. Größer angelegte Studien hierzu werden zur Zeit in Europa und Nordamerika durchgeführt (CREST, SPACE). Rezidivstenosen scheinen häufiger nach PTAs aufzutreten, wobei Verbesserungen durch neue Techniken für die PTA und auch die TEA zu erwarten sind. Die klinische Bedeutung der Rezidivstenosen erwies sich bei der PTA als relativ unbedeutend.
Bei der Ermittlung von Risikofaktoren (Patientenalter; Stenoselänge; Kalzifikationen, Ulcerationen und Thromben in der Läsion) wurde festgestellt, dass bei der PTA andere Faktoren bedeutsam sind als bei der TEA. Zukünftig könnten Komplikationen vermieden werden, wenn Patienten aufgrund ihres Risikoprofils zur jeweils vorteilhafteren Behandlung zugewiesen würden.
Bei 91/166 Patienten wurde ein Embolieprotektionssystem verwandt. Es wurden verschiedene Methoden angewendet: distale Occlusion (PercuSurge™ System, n = 46), Filtersysteme (4 verschiedene Typen, n = 43) und proximale Occlusion (Arteriasystem, n = 2). Die Erfolgsrate lag bei 95,6 % und unterschied sich nicht signifikant innerhalb der einzelnen Systeme (PercuSurge™ System: 95,7 %; Filter: 95,3 %). Bei 67/91 Patienten wurde thrombotisches Material in den Filtern, bzw. im Aspirat festgestellt (73,6 %), wobei die Filter häufiger Partikel zurückhielten als das PercuSurge™ System (81,4 % versus 69,6 %). Bei vier Patienten kam es während der Protektion zu neurologischen Komplikationen, wobei in keinem dieser Fälle ein kausaler Zusammenhang zu den Protektionssysteme nachgewiesen werden konnte. Bei allen vier Patienten wurde thrombotisches Material nachgewiesen und entfernt. Die perioperative Inzidenz neurologischer Komplikationen lag bei 2,7 % (2/75 Patienten) ohne und bei 6,6 % (6/91 Patienten) mit Protektion. Die Mortalität lag bei 1,3 % (1/75 Patienten) ohne und bei 3,3 % (3/91 Patienten) mit Protektion. Diese Ergebnisse waren nicht signifikant. Die Ergebnisse der Filter und des PercuSurge™ Systems unterschieden sich ebenfalls nicht signifikant voneinander (PercuSurge™ System, Inzidenz neurologischer Komplikationen und Mortalität: 4,3 %; Filtersysteme, Inzidenz neurologischer Komplikationen: 9,3 %, Mortalität: 2,3 %). Während der PTA traten periprocedurale neurologische Symptome (PNS) bei Benutzung von Filtersystemen bei 8/43 Patienten (18,6 %), beim PercuSurge™ System bei 17/46 Patienten (37,0 %) auf.
Alle Protektionssysteme erwiesen sich in der vorliegenden Arbeit als praktikabel und für die klinische Routine geeignet. Der häufige Nachweis von Partikeln bestätigte den Nutzen der Protektion. In dieser Arbeit zeigte sich jedoch eine höhere Inzidenz neurologischer Komplikationen und Mortalität. Aufgrund der durchweg positiven Erfahrungen in vielen anderen Studien ist jedoch der klinische Nutzen der Protektion unzweifelhaft [70, 90, 132]. Kein signifikanter Unterschied konnte zwischen dem PercuSurge™ System den Filtersystemen festgestellt werden. Das PercuSurge™ System zeichnete eine geringere Inzidenz neurologischer Komplikationen und eine höhere technische Erfolgsrate aus, die Filter eine geringere Inzidenz von PNS und eine größere Effektivität beim Zurückhalten von thromboembolischen Partikeln.
Gerade in der Medizin besteht die Diagnostik nicht nur aus Zahlen und Werten, die Gesamtheit einer Diagnostik setzt sich häufig auch aus Bildern zusammen. Die bildgebende Diagnostik lässt nur wenig Spielraum für eine platzsparende Arbeitsweise, zu wichtig ist der wissenschaftliche Aussagewert feinster Details, seien es nun radiologische Aufnahmen, klinische Bilder oder Histologien. Moderne Computernetzwerke bieten eine geeignete Infrastruktur zum Austausch relevanter Daten in akzeptabler Geschwindigkeit bei guter Datenqualität. So ist die EDV nicht nur Datenverwalter, sondern ein aktives Hilfsmittel im medizinischen Alltagsgebrauch.
Diese Arbeit soll zeigen, welche technischen Voraussetzungen erfüllt sein müssen, um durch Einsatz digitaler Bilderfassungsgeräte eine optimale Datengrundlage für Forschung, Lehre und Dokumentation zu schaffen.
Die gezeigten Systeme sind grundsätzlich in statische „solid-state“ Systeme und dynamische „remote“-Systeme zu unterteilen.
Statische Systeme sind der asynchronen Telemedizin zuzuordnen und arbeiten nach dem store and forward Prinzip. Die Aufnahme ist nicht erweiterbar, in der Ferne wird zeitlich unabhängig die Diagnose gestellt. Dieses System bietet sich in strukturschwachen Regionen an.
Remotesysteme sind technisch sehr viel aufwendiger. Die sogenannte synchrone Telemedizin ist auch räumlich getrennt, findet jedoch zeitgleich statt. Das heißt, über eine Kamera und Datenleitung sind die Experten direkt mit dem Präparat oder dem Patienten verbunden. Aufgrund des technischen Aufwandes sind solche Systeme in der Regel in strukturstarken Regionen zu finden.
Beide Varianten messen sich bezüglich ihrer Validität an dem sogenannten „GoldStandard“, dem direkten Kontakt von Facharzt oder Pathologen zu Patient oder Präparat. Abhängig von der technischen Qualität haben sich beide telemedizinischen Prinzipien als in hohem Maße valide dargestellt.
Die Wahl der Kamera als zentrales Übersetzungsmedium von Bild in Daten setzt ein exaktes Studium der technischen Grundlagen voraus, wenn man bezüglich Auflösung und Lichtempfindlichkeit keine Kompromisse eingehen möchte, aber auch, wenn die physikalischen Grenzen, wie etwa die optische Auflösung eines Systems, die Notwendigkeit eines hochauflösendsten Systems nicht sinnvoll erscheinen lässt. Die Archivierung der Daten erfordert zudem Speicherplatz. Die Kompression von Bildern kann verlustfrei, aber auch verlustbehaftet stattfinden. Je nach Anwendungszweck gilt es daher abzuwägen, ob objektive Verlustfreiheit bei höherem Speicherbedarf oder wenig Platzbedarf bei einem eventuellen Qualitätsverlust gewünscht ist. Im hier gestellten Vergleich zwischen einem hochauflösenden Single-Shot System und einem Multishotaufbau hat sich gezeigt, dass die Qualität des Bildes bei einem hochauflösenden Einzelbild homogener ist, während das gekachelte Bild durch das Merging-Verfahren Belichtungs- und Schärfeunterschiede aufweist und die Bereiche der Bildteilzusammenführung erkennen lassen kann. Als Vorteil eines solchen Aufbaus ist sicherlich die technisch nahezu unbegrenzte Bildfläche zu nennen, da das aufgenommene Areal nicht von einem Einzelbild, sondern der Zahl der Segmente abhängt. Insofern haben beide Konzepte abhängig vom Einsatzanspruch ihre Existenzberechtigung.
Multilevel-Untersuchung des nitrinergen Systems bei affektiven Störungen und schizophrenen Psychosen
(2023)
Das nitrinerge System und damit auch NOx als Neurotransmitter werden mit der Entstehung verschiedener psychischer Erkrankungen in Verbindung gebracht. Die genaue Rolle des Botenstoffs ist jedoch nicht ausreichend geklärt und auch die Frage, ob dieser als diagnostischer oder prädiktiver Biomarker nützlich sein könnte, ist unbeantwortet. In der vorliegenden Arbeit wurde folglich untersucht, ob es Unterschiede zwischen den Diagnosegruppen MDD, BIP, SCZ und der Kontrollgruppe bezüglich peripherer NOx- Konzentrationen gibt. Darüber hinaus wurden Unterschiede innerhalb der Diagnosegruppen im Krankheitsverlauf im Sinne von Phasenunterschieden mittels zweier Messzeitpunkte untersucht und analysiert, ob es Korrelationen mit genetischen Variationen in NOS-Genabschnitten gibt. Insgesamt wurden 185 Probanden in die Studie mitaufgenommen: 52 gesunde CTRL, 43 Patienten mit MDD, 41 Patienten mit BIP und 49 Patienten mit SCZ. Biochemische, genetische und klinische Daten wurden bei Aufnahme und Entlassung in der psychiatrischen Abteilung des Universitätsklinikums Frankfurt erhoben. Klinische Daten, die den Symptomverlauf 90 und die Erkrankungsschwere beurteilten, nutzten dazu standardisierte teilstrukturierte klinische Interviews. Biochemische Daten wurden mittels im Serum gemessener NOx- Spiegel quantifiziert. Bezüglich der Untersuchung der Risikogenvarianten wurden Probanden anhand des NOS1 ex1f-VNTR-Polymorphismus sowie SNPs in den Genen NOS1, NOS3 und NOS1AP genotypisiert. Bei Aufnahme wiesen SCZ-Patienten im Vergleich zu CTRL-, MDD- und BIP-Gruppen signifikant höhere NOx- Konzentrationen auf. Während NOx- Spiegel im Behandlungsverlauf bei MDD- und BIP-Patienten signifikant zunahmen, konnte dies bei SCZ-Patienten nicht beobachtet werden. Weiterhin konnte gezeigt werden, dass Patienten, deren depressive Beschwerden nicht relevant zurückgingen, bei Entlassung signifikant höhere NOx- Konzentrationen aufwiesen, was durch die Beobachtung einer signifikant positiven Korrelation zwischen NOx- Serumspiegeln und depressiven Symptomen bei Entlassung unterstützt wurde. Bei der genetischen Untersuchung der Daten fiel auf, dass homozygote Träger des kurzen VNTR-Allels signifikant erhöhte NOx- Konzentrationen besaßen. Diese Ergebnisse blieben bei jenen Trägern auch nach Entlassung signifikant. Insgesamt gibt es Hinweise darauf, dass erhöhte periphere NOx- Metabolitkonzentrationen mit einer Zunahme der Psychopathologie bzw. der Erkrankungsschwere einhergehen könnten, was möglicherweise auf den NOS1 ex1f-VNRT-Polymorphismus zurückzuführen ist. Außerdem zeigten zwei SNPs, welche beide im NOS1AP-Gen lokalisiert sind, bei BIP Patienten signifikant gesteigerte NOx- Werte. Die vorliegenden Ergebnisse deuten darauf hin, dass NO-Signalübertragung und NOS-Genotypen in der Pathogenese psychischer Erkrankungen eine Rolle spielen könnten. Ob diese Veränderungen allerdings kausal mit Krankheitsprozessen zu tun haben oder ob es eher Epiphänomene der Erkrankungen sind, kann mit dieser Studie nicht geklärt werden. Die Genvarianten könnten wiederum bei der Regulierung von peripheren NOx- Konzentrationen von Bedeutung sein. Die Arbeit liefert zudem Hinweise, die Verwendung von NOx als möglichen peripheren Biomarker weiter zu verfeinern und zu untersuchen. Zukünftige Studien, die die Wirksamkeit von NOx- modulierenden Pharmaka untersuchen, könnten davon profitieren, Diagnosegruppen nach Subgruppen einzuteilen, die sowohl NOS Risikogenvarianten als auch periphere NOx- Spiegel im Sinne eines Biomarker beachten.
Die klinische Pfade zielten in erster Linie darauf ab, die Aufenthaltsdauer zu verkürzen und unnötige Kosten zu sparen, während die Qualität der Pflege erhalten blieb oder verbessert wurde. Bei der laparoskopischen Cholezystektomie gibt es keine ausreichenden Beweise für einen Einfluss auf postoperative Komplikationen.
In dieser retrospektiven Studie wurde die logistische Regression verwendet, um einen Neigungswert zu berechnen, und nach dem Abgleich werden 296 Patienten in beiden Gruppen im Hinblick auf postoperative Komplikationen unter Verwendung des Clavien-Dindo-Klassifizierungssystems als primäres Ziel analysiert. Darüber hinaus wurden sekundäre Ziele wie Aufenthaltsdauer, Einhaltung und Abweichung vom klinischen Pfad in Bezug auf die Entlassung von Patienten analysiert. Das relative Risiko des primären Ergebnisses wurde berechnet und mit dem E-Wert als Ansatz für Sensitivitätstests verglichen.
Aufgrund des obligatorischen Teil der klinischen Pfad bei den Patienten betrug die Compliance 100 Prozent. In 16% der Fälle trat eine Abweichung vom Pfad in Bezug auf die geplante Entlassung des Patienten am zweiten Tag nach der Operation auf. Nach Anpassung um potenzielle Faktoren beträgt das relative Risiko beim Vergleich der Clavien-Dindo-Komplikationsbewertung 0 versus 1-4 ist 1,64 (95% CI 0,87; 3,11), was nicht signifikant unterschiedlich ist (p = 0,127).
Nach Matching beträgt die Verweildauer 3,69 Tage ohne bzw. 3,26 Tage mit dem klinischen Pfad.
Vergleich zu bereits implementierter strukturierter Standardoperationsverfahren kann ein klinischer Pfad postoperative Komplikationen nicht reduzieren.
Dennoch betrachten wir unseren klinischen Pfad als ein äußerst wertvolles Instrument für die interdisziplinäre Verwaltung des Krankenhausaufenthalts des Patienten unter der Aufsicht eines erfahrenen Chirurgen.
Komplexität und Zufälligkeit
(1978)
Die Verwendung von Photoschaltern zur gezielten Kontrolle von Systemen birgt ein hohes Potential hinsichtlich biologischer Fragestellungen, bis hin zu optoelektronischen Anwendungen. Infolge einer Photoanregung kommt es zu Geometrieänderungen, die einen erheblichen Einfluss auf ihr photophysikalisches Verhalten haben. Die Änderungen der photochemischen, wie photophysikalischen Eigenschaften, beruht entweder auf der Isomerisierung von Doppelbindungen oder auf perizyklischen Reaktionen. Durch sorgfältige Modifikationen, wie beispielsweise die Änderung der Konjugation durch unterschiedlich große π-Elektronensysteme, der Molekülgeometrie oder der Veränderung des Dipolmoments, lassen sich intrinsische Funktionen variieren.
Die Kombination dieser Eigenschaften stellt eine komplexe Herausforderung dar, da diese Änderungen einen direkten Einfluss auf wichtige Charakteristika wie die Adressierbarkeit, die Effizienz und die Stabilität der Moleküle haben. Darüber hinaus spielt die thermische Stabilität eine erhebliche Rolle im Hinblick auf die Speicherung von Energie oder Informationen für Anwendungsbereiche in der Energiegewinnung und Datenverarbeitung.
Für die Anwendung solcher photochromen Moleküle ist hinsichtlich der oben genannten Eigenschaften auch das Wissen über den photoinduzierten Reaktionsmechanismus unabdingbar.
Im Rahmen dieser Arbeit wurde der Einfluss auf die Isomerisierungsdynamik organischer Photoschalter durch unterschiedliche Modifikationen mittels stationärer und zeitaufgelöster Spektroskopie untersucht. Im Bereich der Merocyanine konnte ein Derivat vorgestellt werden, das ausschließlich zwischen zwei MC-Formen (trans/cis) isomerisiert. Die interne Methylierung am Phenolatsauerstoff der Chromeneinheit verhindert die Ringschlussreaktion zum SP und somit seinen zwitterionischen Charakter. Die stabilen Grundzustandsisomere TTT und CCT weisen durch den Methylsubstituenten eine hypsochrome Verschiebung ihrer Absorptionsmaxima auf, während TTT das thermodynamisch stabilste Isomer darstellt. Das MeMC wies eine erstaunlich hohe Effizienz seiner Schaltamplituden, insbesondere der TTT → CCT Photoisomerisierung auf, sowie eine überaus hohe Quantenausbeute.
Das MeMC wies zudem eine signifikante Lösungsmittelabhängigkeit auf, die sich insbesondere in der Photostabilität bemerkbar macht. Während das MeMC in MeCN und EtOH photodegradiert, konnte in EtOH/H2O eine konstante Reliabilität festgestellt werden. Diese Zuverlässigkeit impliziert nicht nur eine Stabilisierung durch das Wasser, sondern auch eine Resistenz gegenüber Hydrolysereaktionen. Darüber hinaus konnten kinetische Studien eine hohe thermische Rückkonversion von CCT zu TTT bei Raumtemperatur nachweisen, womit auf schädliche UV-Bestrahlung verzichtet werden könnte.
Die Untersuchung der Kurzzeitdynamiken beider Grundzustandsisomere gab Aufschluss über die Beteiligung anderer möglicher MC-Intermediate und den Einfluss der Methylgruppe auf das System. Mittels quantenchemischer Berechnungen konnte eine erste Initiierung um die zentrale Doppelbindung beider Isomere bestimmt werden, die jeweils zu einem heißen Grundzustandsintermediat führt, bis nach einer zweiten Isomerisierung der endgültige Grundzustand der Photoprodukte populiert wird. Dies bedeutet, dass die trans/cis-Isomerisierung über TTT-TCT-CCT und die Rückkonversion über CCT-CTT-TTT erfolgt.
Im Bereich der Hydrazon-Photoschalter konnten unterschiedlich substituierte Derivate mittels statischer und zeitaufgelösten UV/Vis-Studien untersucht werden. Da ESIPT Prozesse eine wichtige Funktion bei der Kontrolle von biologischen Systemen spielen, wurden verschiedene Hydrazonderivate hinsichtlich ihrer Reaktionsmechanismen untersucht. Als Rotoreinheit diente zum einen eine Benzothiazolkomponente, die die interne H-Bindung des angeregten Z-Hydrazons schwächen sollte und zum anderen wurde ein Chinolinsubstituent eingesetzt, der als Elektronenakzeptor diente und den H-Transfer begünstigt. Der Einsatz der Benzothiazolkomponente bewirkte die gewünschte Vergrößerung der bathochromen Verschiebung des E-Isomers, sowie eine deutliche Erhöhung der thermischen Stabilität des metastabilen
Zustands. Dies bestätigten die zeitaufgelösten Studien der Z zu E Isomerisierung, bei denen die Isomere im Vergleich zum Chinolinhydrazonderivat, in beiden ausgewählten Lösungsmitteln metastabile Z-Intermediate zeigten und eine Lebenszeit bis in den µs-Zeitbereich aufwiesen. Die Rückreaktion beider Derivate (HCN) und (HBN) hingegen zeigte eine barrierelose Umwandlung in die beteiligten Photoprodukte. Trotz der Verwendung des Chinolinsubstituenten zusammen mit Naphthalin als Rotoreinheit (HCN), konnte kein ESIPT Prozess beobachtet werden. HCB mit einer Kombination aus einem Chinolinrotor und eines Benzothiazolsubstituenten, wies eine Hydrazon-Azobenzol-Tautomerie auf, die ein prototropes Gleichgewicht zwischen dem E-Hydrazon und der E-Azobenzolform (E-AB) ausbildete. Die Reaktionsdynamiken des Z-Hydrazons zum E-AB wiesen eine ultraschnelle Bildung des Photoproduktes auf, während die Rückreaktion über einen ESIPT im sub-ps-Bereich erfolgte. Dieser H-Transfer hat die Bildung des angeregten E-Hydrazons zur Folge. Interessanterweise wurde kein Rückprotonentransfer nachgewiesen, sondern die mögliche Formation eines Z-AB gefunden. Damit unterscheidet sich dieser Reaktionsmechanismus erheblich von den typischen ESIPT Prozessen, die normalerweise zu ihrem Ausgangsmolekül zurückrelaxieren. Des Weiteren konnte ein Pyridinoxid und Benzoylpyridin-substituiertes Hydrazon charakterisiert werden, bei denen die stationären Studien kein Schaltverhalten, sondern Photodegradation aufwiesen. Die zeitaufgelösten Daten ergaben ebenfalls keine Photoproduktbildung, was die These der Photozersetzung unterstützt. Die Verwendung von zusätzlich substituierten Rotoreinheiten, wie beispielsweise Pyridinoxid und Benzoylpyridin, die aufgrund fehlender Protonenakzeptormöglichkeit keine interne H-Bindung ausbilden, erlaubt keine Bildung des Z-Hydrazon Isomers.
Die Ergebnisse der Studie und die Diversität der Datenbanken ist groß.
Für 12 Datenbanken wurde ein Punktesystem mit elf Items entworfen, um die Qualität der einzelnen Datenbanken zu objektivieren. Keine Datenbank konnte alle Bewertungskriterien erfüllen. Der insgesamt schlechte Punktedurchschnitt ist ein Indikator für die Mängel der aktuell verfügbaren Datenbanken. Außerdem konnten wir einen Qualitätsunterschied zwischen kostenpflichtigen und kostenfreien Datenbanken beweisen und mussten im Zuge dieser Ergebnisse die Frage stellen, ob kostenfreie Datenbanken überhaupt nützlich sind. Zwischen den kostenpflichtigen Datenbanken fallen die Qualitätsunterschiede weniger gravierend aus, wenngleich Stärken und Schwächen sich deutlich unterscheiden. Die häufigsten Wechselwirkungen wurden in allen Datenbanken mit großem Abstand zwischen rein psychiatrischen Interaktionspaaren erfasst. Dieses zeigt, wie wechselwirkungsreich Psychopharmaka sind und dass psychiatrische Patienten besonders vulnerabel sind. Die Nutzung digitaler Hilfsmittel scheint bei Betrachtung der hohen Anzahl ausgegebener Warnmeldungen unabdingbar zu sein, dennoch existiert große Uneinheitlichkeit bei der Bewertung der einzelnen Interaktionen. Die Vorstellung, dass zwei Kliniker bei Nutzung zweier unterschiedlicher Datenbanken zu völlig unterschiedlichen Empfehlungen kommen, fällt nicht schwer. Gleichzeitig könnte die Kooperation von Heilberuflern, die unterschiedliche Datenbanken verwenden, die Chance auf zusätzlichen Informationsgewinn und Austausch erhöhen, was im Umkehrschluss in einer erhöhten Arzneimitteltherapiesicherheit resultiert. In Studien konnte der positive Effekt interdisziplinärer Zusammenarbeit bereits bewiesen werden.
Zusammenfassend konnten umfangreiche Differenzen zwischen allen untersuchten Datenbanken aufgezeigt werden. Um den Anforderungen des klinischen Alltags zu genügen, müssen digitale Unterstützungssysteme weiterentwickelt werden.
Die „ideale Datenbank“ gibt es bisher nicht – das lässt sich durch unser Punktesystem beweisen. Um im klinischen Alltag Patientensicherheit zu gewährleisten ist die Nutzung einer einzelnen Datenbank bisher nicht ausreichend.
Die Gewährung der Patientensicherheit sollte unser oberstes Ziel sein und um dieses zu erreichen, bedarf es vieler Komponenten. Neben der Nutzung und vor allem Weiterentwicklung digitaler Unterstützungssysteme sollte auch der zwischenmenschliche Austausch weiter gefördert werden. Interdisziplinäre Zusammenarbeit im Sinne pharmazeutischer Dienstleistungen zur Medikationsanalyse könnten ein zusätzliches Instrument zur Vermeidung arzneimittelbezogener Probleme werden.
Zukünftig werden unsere Patienten am meisten von optimaler Nutzung weiterentwickelter Technologien, sowie wachsendem zwischenmenschlichem Austausch profitieren.
Das Heidelberger Ionenstrahl-Therapiezentrum (HIT) stellt Protonen-, Helium- und Kohlenstoff-Ionenstrahlen unterschiedlicher Energie und Intensität für die Krebsbehandlung und Sauerstoff-Ionenstrahlen für Experimente zur Verfügung. Der hierfür verwendete Beschleuniger ist darüber hinaus in der Lage auch Ionenstrahlintensitäten unterhalb der für Therapien verwendeten bereitzustellen. Allerdings ist das derzeit installierte Strahldiagnosesystems nicht in der Lage, das Strahlprofil bei solchen geringen Intensitäten (< 10^5 Ionen/s) zu messen. Dabei existieren mögliche medizinische Anwendung für diese niederintensiven Ionen-strahlen, wie beispielsweise eine neuartige und potentiell klinisch vorteilhafte Bildgebung: die Ionenradiographie. Eine essentielle Voraussetzung für diese und andere Anwendungen ist ein System zur Überwachung von Ionenstrahlen niedriger Intensität. Ein solches System wurde im Rahmen dieser Arbeit konzipiert, realisiert, getestet und optimiert.
Das Funktionsprinzip basiert auf szintillierenden Fasern, insbesondere solchen mit erhöhter Strahlungshärte für die Möglichkeit einer dauerhaften Platzierung im Therapiestrahl. Ein diese Fasern durchlaufendes Ion regt den darin enthaltenen Szintillator durch Stoßprozesse kurzzeitig an. Die dabei deponierte Energie wird anschließend in Form von Photonen wieder emittiert. Silizium-Photomultiplier sind an den Enden der Fasern montiert und wandeln die Photonensignale in verstärkte elektrische Impulse um. Diese Impulse werden von einer neuartigen und dedizierten Ausleseelektronik aufgezeichnet und verarbeitet. Ein Prototypaufbau, bestehend aus den genannten Teilen, wurde im Strahl getestet und kann das transversale Strahlprofil erfolgreich im Intensitätsbereich von 10^7 Ionen/s bis hinunter zu 10^2 Ionen/s aufzeichnen. Darüber hinaus konnte, durch die erfolgreiche Ankunftszeitmessung von einzelnen Ionen bis zu Intensitäten von 5*10^4 Ionen/s, ein Machbarkeitsnachweis für die Messung der Spur von einzelnen Teilchen erbracht werden.
Optimierung der Synthese eines neuen photolabil geschützten Nitroxid-Spin-Labels für RNA und DNA
(2023)
Im Rahmen dieser Arbeit konnte, ausgehend von den günstigen Ausgangsverbindungen Desoxyadenosin und Phthalsäureanhydrid, ein neues photolabil geschütztes Nukleotid 1 und sein Dummypartner 2 synthetisiert werden. Positiv zu bemerken ist, dass einige Schritte im Vergleich zu ähnlichen literaturbekannten Reaktionen in Einfachheit, Reinheit oder Ausbeute verbessert wurden. So konnte die Ausbeute der wichtigen Umwandlung des Amins 46 zum Iodid 47 durch den Ersatz des vorherigen DCM/DIM Gemisches durch reines DIM von 15 % auf akzeptable 50 % erhöht werden, was nicht nur Zeit, sondern auch zukünftige Chemikalienmengen einspart. Nicht nur hierbei, sondern auch bei der Nitrierung zu 61 oder auch der Oxidierung zu 63 war es von äußerster Wichtigkeit eine korrekte Temperaturkontrolle durchzuführen, da es sonst zu hohen Ausbeuteverlusten durch ungewollte Nebenreaktionen kommen konnte. Eine sehr interessante Beobachtung war die Kontrolle der Suzuki Miyaura-Kreuzkupplung durch die Anwendung verschieden starker Basen. Während schwache Basen wie KOAc nur zur Miyaura-Borilierung führten, begünstigten starke Basen wie K3PO4 die Suzuki Miyaura-Kreuzkupplung. Die Zusammenführung des Zucker Bausteins 36 und des Isoindolin-Bausteins 37 funktionierte sehr gut, sodass das Nukleotid 1 durch die Schützung der exozyklischen Amingruppe und Phosphorylierung des 3´-OH dargestellt werden konnte.
Die Synthese der 14mer DNA bzw. RNA Sequenzen mit den neuen Nukleotiden 1 und 2 funktionierten mit zufriedenstellenden Ausbeuten, nur die Abspaltung der Pac-Gruppe benötigte etwas harschere Bedingungen von 50 °C in 32 % Ammoniak über Nacht. Die photolabile Schutzgruppe in Strang (V) mDNA-Tetramethyl konnte nun abgespalten und das Nitroxid an Luft reoxidiert werden. Anhand von EPR-Spektren und einer HPLC Analyse ergab sich jedoch eine Abspalteffizienz von nur 70 %. Dies bedeutet, dass für künftige PELDOR Messungen eine Aufreinigung des Spaltgemisches zur Isolierung des Radikal-Strangs von Nöten ist.
Anhand des Schmelzpunkts der verschiedenen Duplexe wurde anschließend die mögliche Anwendung des Nukleotids weiter analysiert. Hierbei stellte sich heraus, dass der Benzolring sowohl in 2 als auch in 1 eine erhebliche Destabilisierung des Duplex erzeugte. Somit ist das neue photolabil geschützte Nukleotid als EPR Sonde in der Mitte von Sequenzen nur bedingt geeignet. Zukünftige Experimente könnten das neue Spin Label nicht in der Mitte, sondern an den Enden der Sequenzen ähnlich anderer Arbeiten[92,94,164] einbauen, wo die Destabilisierung eine geringere Auswirkung hat, oder die Sequenz für eine bessere Stabilisierung verlängern.[164] Bei ausreichenden Duplexstabilitäten könnten hiermit dann PELDOR Messungen durchgeführt werden. Ähnlich starre, sterisch anspruchsvolle Nukleotide zeigten auch ähnliche Schmelzpunkte für ihre Duplexe[120], dennoch wurden sie für weitere Markierungsexperimente verwendet. Hierbei handelte es sich jedoch nicht um EPR Sonden, sondern um Fluoreszenzmarker. Da auch das neue Spin-Label 1 ein großes π-System besitzt, könnte eine komplett neue Herangehensweise die Anwendung als Fluoreszenzmarker sein. Genaue Absorptionsmessungen müssten noch durchgeführt werden, jedoch zeigte das Spin Label sehr stark fluoreszierende Eigenschaften unter der UV-Lampe während der Säulenchromatographie. Hierbei würde die Synthese um einiges kürzer ausfallen, da das EPR-aktive Nitroxid nicht mehr benötigt wird und geschützt werden muss, was Zeit und Chemikalien spart.
Zusammenfassend wurde über eine 22-stufige Synthese ein neues photolabil geschütztes Spin-Label synthetisiert, in ein 14mer integriert, erfolgreich entschützt und mittels EPR-Spektroskopie vermessen. Schmelzpunktmessungen zeigten jedoch eine große Destabilisierung und deuten darauf hin, dass 1 und Nukleotide mit ähnlich Benzolringen nur eingeschränkt als EPR-aktive Nukleotide geeignet sind.
Diese Arbeit hatte das Ziel, die Größe einer DVT-Aufnahme (FOV) mit der Größe der durch die Indikationsstellung definierten Region (ROI) zu vergleichen. Durch eine speziell dafür entwickelte Software sollten Messungen in den Datensätzen ermöglicht werden. Die dazu verwendeten 332 Datensätze wurden zufallsverteilt aus den mit einem Orthophos SL-3D DVT-Gerät der Firma Dentsply Sirona in der Poliklinik für zahnärztliche Chirurgie und Implantologie des ZZMK (Carolinum) in Frankfurt angefertigten Röntgenaufnahmen selektiert.
Es wurde die Auswertungssoftware ExRoi entwickelt, mit der die Werte des axialen Durchmessers, die Höhe (vertikale Dimension) sowie die Distanz der Mittelpunkte von FOV und ROI direkt in den Datensätzen bestimmt werden konnten. Zusätzlich wurde festgehalten, welche rechtfertigenden Indikationen gestellt und welche Auflösungsmodi verwendet wurden.
Die Stichprobe bestand aus Aufnahmen mit einem axialen Durchmesser von 8 cm [VOL 1] (n= 76, entsprechend 46,39%), 5 cm Durchmesser [VOL 2] (n = 102, entsprechend 30,72%) und 11 cm Durchmesser [VOL 3] (n= 154, entsprechend 22,89%). 95,18% der Aufnahmen wurden im HD-Modus mit laut Herstellerangaben vier Mal so vielen Aufnahmen im Vergleich zum SD-Modus angefertigt. Hauptindikationen waren Implantat Planung (45,1%) und Planungen komplizierter Zahn-Extraktionen (25,5%).
Die Messungen zum Vergleich des axialen Durchmessers zeigten, dass bei Verwendung des VOL 2 die ROI im Mittel den größten Anteil der FOV nutzt (78,52 %), den kleinsten Anteil nutzt durchschnittlich VOL 1 (56,04 %). Dazwischen liegt VOL 3 (69,12 %). In der Vertikalen nutzt die ROI von VOL 3 mittelwertig den größten Anteil der FOV (81,87 %), den kleinsten Mittelwert hat VOL 1 (58,76 %). VOL 2 liegt zwischen diesen Werten (64,47 %).
In allen Fällen war das FOV größer als die ROI und die ROI lag im Bereich des gewählten FOV.
Die Mittelpunkte von FOV und ROI lagen im Mittel in der axialen Ebene in Abhängigkeit vom gewählten Volumen um rund 9-13 mm auseinander, in der coronalen und sagittalen Ebene um rund 5-6mm.
Aus diesen Ergebnissen kann für das verwendete Gerät eine gute Trefferquote für die ROI abgeleitet werden. Höhe und Durchmesser des FOV hätten in den meisten Fällen kleiner gewählt werden können, liegen aber angesichts der vorhandenen Auswahl-Optionen des Röntgengeräts zur Dimensionierung der Volumina in einem akzeptablen Bereich.
Das Ziel in der vorliegenden systematischen Literaturrecherche ist es, den aktuellen Stand des Wissens über die Erfolgsfaktoren von Einzelzahnimplantaten, bei denen eine Sofortbelastung auf den provisorischen Implantatkronen zum Antagonisten erfolgt, wiederzugeben. In diesem Rahmen wurden Zusammenhänge zwischen der Implantatüberlebensrate, der Primärstabilität, der Implantatregion, des Implantatdesigns und des Implantationszeitpunktes getrennt nach okklusalem Belastungsprotokoll (mit versus ohne antagonistische Okklusionskontakte auf den provisorischen Implantatkronen) und der postoperativen Verhaltensweisen der Patienten analysiert. Der Prozess der systematischen Literaturrecherche wurde nach den PRISMA-Guidelines für den Suchzeitraum von 2012 bis 2022 durchgeführt.
Um die Forschungsfrage zu beantworten, wurde eine qualitative Analyse in deskriptiver Form durchgeführt.
In den analysierten Studien, wurde am häufigsten ein Eindrehmoment von ≥ 35 Ncm als Kriterium für eine Sofortbelastung gewählt. Die meisten Implantate wurden in der Oberkieferregion 15 bis 25 inseriert. Bei den Implantatkronen mit antagonistischen Okklusionskontakten fielen die Überlebensraten insgesamt niedriger aus als in den Studien, in denen die Implantatkronen ohne antagonistische Okklusionskontakte eingegliedert wurden. Die Überlebensraten waren weitestgehend vergleichbar mit den Ergebnissen konventioneller Belastungsprotokolle. Die Datenlage anhand dieser Recherche spricht zurzeit für die Realisierung der Sofortbelastung von provisorischen Implantatkronen ohne antagonistische Okklusionskontakte in Verbindung mit postoperativen Verhaltensmaßnahmen.
Das Ziel der vorliegenden Studie war die vergleichende morphometrische Untersuchung der Molarenmorphologie rezenter Hominoidea. Im Mittelpunkt der Fragestellung stand die dreidimensionale Analyse des hominoiden Facettenmusters, neben dem quantitativen Vergleich der Relieftopographie und der konstruktiven Veränderung der Kauflächen mit zunehmender Abnutzung, im Hinblick auf die funktionellen Möglichkeiten zur effektiven Nahrungsaufschließung.
Die qualitative Analyse umfasst, neben der dentalmorphologischen Beschreibung, die digitale Fotodokumentation und die Klassifizierung der verschieden weit abgenutzten Molaren in vergleichende Abkauungsgrade.
Die quantitative Auswertung der virtuellen Zahnmodelle schließt die Vermessung der größten Länge, Breite und Höhe, die Berechnung des prozentualen Dentin- und Facettenflächenanteils, des Relief-Index sowie die Neigung und Orientierung der antagonistischen Facetten des Oberund Unterkiefers mit ein. Die Berechnung der korrespondierenden Facettenwinkel in einem einheitlichen Koordinatensystem erlaubt die Kalibrierung der okkludierenden Flächenareale und die Berechnung dreidimensionaler Richtungsvektoren, die die buccale und linguale Mandibelbewegung widerspiegeln. Je nach der Art der Verzahnung der in Okklusion tretenden Höckerflanken lassen sich aus dem räumlichen Zusammenspiel der Funktionselemente quetschende und scherende Komponenten differenzieren.
Die Ergebnisse, die am Rezentmaterial (244 Einzelzähne) gewonnen wurden, sind auf 16 ausgewählte Einzelzähne aus Sangiran und Punung (Java, Indonesien) der Sammlung VON KOENIGSWALD der Abteilung Paläoanthropologie und Quartärpaläontologie des Forschungsinstituts Senckenberg, übertragen worden.
Entsprechend der zu Anfang aufgeworfenen Fragestellung konnte ein für jede Gattung charakteristisches Reliefmuster der Okklusalfläche und dessen Veränderung im Laufe der Abkauung etabliert werden. Infolge des Abschleifens der konvexen Höckerspitzen kommt es zu einer unterschiedlich schnellen und intensiven Reliefverflachung. Die Reliefunterschiede zwischen den Gattungen bleiben im Laufe der Abnutzung erhalten. Gorilla besitzt das am stärksten ausgeprägte okklusale Relief und zeigt die intensivste Abnutzung der Kauflächen und grenzt sich von Pan und Hylobates und insbesondere von Pongo deutlich ab. Pongo besitzt das flachste okklusale Relief und zeigt eine geringere Abnutzung der Kauflächen.
Auf der Grundlage der rekonstruierten Facettenwinkel lässt sich das homologe Facettengrundmuster der Hominoidea weiter differenzieren. Alle Gattungen stimmen in der Position der Facettenareale weitgehend überein. Dieses homologe Facettenmuster resultiert aus der relativ zyklischen Kaubewegung. Die Relieftopographie und Profilierung der Kaufläche sind für die individuelle Bewegungsführung entscheident. Es konnte gezeigt werden, dass aus der unterschiedlichen Steilheit der Zahn-zu-Zahn-Kontakte, unter Berücksichtigung der auf der dreidimensionalen Orientierung der Facetten basierenden Bewegungsbahnen, verschiedene Funktionalitäten resultieren. Durch die Unterschiede in der räumlichen Facettenausdehnung prägt sich ein gattungsspezifisches Grundmusters aus, welches direkt mit der Funktion korreliert und die hohe Effizienz bei der unterschiedlichen Nahrungsaufbereitung bewirkt. Jene quantitativ erfassten Flächen und Bewegungen können funktionell interpretiert werden und stellen eine eindeutige Verbindung zu den in der Literatur aufgeführten Ernährungsweisen der Hominoidea her. Die Kauflächen der vier rezenten Gattungen können unter unterschiedlichen Nutzungsbedingungen im Hinblick auf eine spezifische Ernährungsweise verstanden werden.
Es wurde gezeigt, dass die dreidimensionale Ausrichtung homologer Facetten zu unterschiedlicher Funktionalität führen kann und demzufolge über die zweidimensionale Analyse hinausgeht.
Gorilla nutzt die Vielzahl steiler und kleiner Kontaktflächen zum Zerschneiden der überwiegenden faserigen Nahrungsbestandteile durch hohe Scherkräfte. Aufgrund der stark profilierten Kaufläche folgt die Bewegungsführung restriktiv dem Furchungsverlauf.
Pongo besitzt infolge der Konstruktion der Kaufläche große Kontaktareale, die in flachem Winkel aufeinandertreffen und so ein effizientes Quetschen oder Zermahlen der überwiegenden Früchtenahrung erlauben. Das flache Kauflächenprofil ermöglicht einen größeren Spielraum in der Bewegungsführung.
Pan und Hylobates besitzen ein Repertoire aus schneidenden und quetschenden Funktionselementen und somit einen geringeren Spezialisierungsgrad.
Die Beurteilung der Konstruktion und Funktion der pleistozänen Einzelmolaren im Vergleich mit den erarbeiteten Rezentmodellen ergibt eine Ähnlichkeit mit dem modernen Pongo. Die flache Relieftopographie, die geringe Steilheit der Winkel und die zusätzlichen Schmelzrunzelungen lassen auf ein Quetschen der Nahrung schließen. Eine phylogenetische Aussage zur Differenzierung zwischen Homo oder Pongo konnte aufgrund der kleinen und als exemplarisch anzusehenden Zahl fossilen Materials nicht eindeutig erfolgen.
Diese Versuchsreihe beschäftigte sich mit der Fragestellung, ob günstige Handelsmarken- Zigaretten mehr Feinstaub als teure Markenzigaretten emittieren. Dabei wurde der Passivrauch untersucht, welcher durch das Verrauchen verschiedener Zigarettenmarken entstand. Feinstaub stellt heutzutage den wichtigsten einzelnen gesundheitsschädlichen Faktor in Innenräumen dar. Das Augenmerk liegt dabei hauptsächlich auf den feinen Partikeln (PM2,5, PM1). Tumore, chronische Atemwegserkrankungen und eine erhöhte Mortalität stellen nur einen Teil der massiven gesundheitlichen Folgen durch Feinstaub dar. Vulnerable Bevölkerungsgruppen wie Kinder und alte Personen sind besonders durch Passivrauch gefährdet. Die Ergebnisse der Versuchsreihe dienen als Grundlage, um den gesundheitsschädlichen Einfluss des Passivrauchs zu interpretieren. Günstige Handelsmarken-Zigaretten weisen, unter anderem wegen des beständig ansteigenden Zigarettenpreises als auch der anhaltenden Inflation in Deutschland, einen wachsenden Marktanteil auf. Daher müssen sie auch weiterhin in wissenschaftlichen Untersuchungen mit einbezogen werden.
Drei teure sowie drei günstige Zigarettenmarken wurden miteinander und mit der Referenzzigarette 3R4F der Universität Kentucky verglichen. Zu den teuren Marken zählten Marlboro, Camel und Nil. Die günstigeren Handelsmarken-Zigaretten waren Giants, Goldfield und Jakordia. Die Rauchpumpe „Automatic environmental tobacco smoke emitter“ (AETSE) ermöglichte in einem definierten Raum der abgeschlossenen Rauchkammer, Passivrauch zu erzeugen, ohne die menschliche Gesundheit zu gefährden. Ein standardisiertes Rauchprotokoll garantierte dabei reproduzierbare und vergleichbare Ergebnisse. Das Laser Aerosolspektrometer (LAS) Modell 1.109 der Firma Grimm wies eine Messspanne von 0,25 μm bis 32 μm auf. So konnte der Feinstaub gemessen und gruppiert werden. Obwohl der Versuchsaufbau nicht vollkommen realitätsgetreu war, entstand ein adäquater Vergleich der Feinstaubemissionen von (Handels-)Markenzigaretten.
PM10 und PM2,5 wurden erhoben, weil sie die von der EU und WHO standardisierten Messwerte für die Luftverschmutzung durch Feinstaub sind. Die Messung von PM1 rechtfertigt sich durch die stärker gesundheitsschädigende Komponente von Partikeln dieser Größenordnung. Für diese drei Größenfraktionen wurden die mittlere Konzentration Cmean sowie die Area Under The Curve (AUC) ermittelt. Die AUC stellt dabei die Höhe der Gesamtexposition durch Feinstaub dar.
Die Ergebnisse dieser Versuchsreihe zeigen, dass PM1 den größten Anteil der Feinstaubemission der getesteten Zigaretten ausmachte. Alle Zigarettenmarken haben in einem abgeschlossenen Raum Feinstaubmengen in gesundheitsgefährdender Menge produziert. Die Handelsmarke Jakordia emittierte beim Verrauchen generell weniger Feinstaub als alle anderen Zigarettenmarken. Im Allgemeinen konnte kein Unterschied zwischen den günstigen Handels- und den teuren Markenzigaretten festgestellt werden. Es ist wissenschaftlich belegt, dass sich jede Feinstaubkonzentration negativ auf die Gesundheit auswirkt. Die Ergebnisse können dementsprechend in Gänze unter dem Gesichtspunkt der Gesundheitsschädlichkeit eingestuft werden.
Aufgrund veralteter und unspezifischer, beziehungsweise fehlender Angaben zu den Inhaltsstoffen der einzelnen Zigarettensorten, konnte die Ursache der Unterschiede zwischen Jakordia und den anderen Marken nicht geklärt werden. Die Zigarettenhersteller müssen verpflichtet werden, die detaillierten Zusammensetzungen der Tabakprodukte den Behörden wie dem BMEL oder dem Bundesgesundheitsministerium zugänglich zu machen. Dies wäre ein wichtiger Bestandteil für die zukünftige Forschung und Risikobewertung der verschiedenen Inhalts- und Zusatzstoffe.
Die Bande q23 auf Chromosom 11 ist in zahlreiche reziproke chromosomale Translokationen verwickelt. Diese sind dominant mit dem Krankheitsphänotyp einer AML, ALL und seltener mit malignen Lymphomen und myelodysplastischen Syndromen assoziiert. Mittlerweile sind fünfundachtzig cytogenetische Aberrationen der Bande 11q23 bekannt. Das auf 11q23 betroffene Gen wird als das Mixed Lineage Leukemia (MLL), Acute Lymphoblastic Leukemia (ALL-1), Human Homolog of trithorax (HRX) oder als Human Trithorax 1 (Htrx1) bezeichnet. Die häufigsten Partnergene des MLL sind AF4 (40 %), AF9 (27 %), sowie ENL, AF6, ELL und AF10 (4-7 %).
Die Bruchpunkte von t(11;V) Translokationen sind nicht gleichmäßig über das gesamte, 92 kb große humane MLL-Gen verteilt, sondern liegen alle in der 8,3 kb großen Bruchpunktsregion Bpr. Auch innerhalb der Bpr ist die Verteilung der Translokationsbruchpunkte nicht homogen. Die Bruchpunkte von Patienten mit de novo Leukämien und einem Alter über einem Jahr liegen mehrheitlich in der 5’-Hälfte der Bpr, dem Subcluster I. Dagegen liegen die Bruchpunkte von Patienten mit therapiebedingten Leukämien und einem Alter unter einem Jahr überwiegend in der 3’-Hälfte der Bpr, dem Subcluster II.
Neuere Forschungsergebnisse zeigten, daß DNA-Doppelstrangbrüche auf zwei verschiedenen Chromosomen eine hinreichende Voraussetzung für das Entstehen chromosomaler Translokationen sind. Aufgrund der inhomogenen Verteilung der Translokationsbruchpunkte im MLL-Gen stellte sich die Frage, ob bestimmte Regionen dieses Gens für DNA-Doppelstrangbrüche prädisponiert sind. Interessanterweise ist Subcluster II extrem sensitiv gegenüber DNA-Doppelstrangbrüchen, die durch cytotoxische Agenzien oder Apoptose-auslösende Ereignisse induziert werden können. In unserer Arbeitsgruppe konnte eine etwa 200 bp große Region lokalisiert werden, über die sich nahezu alle Etoposid-induzierten DNA-Doppelstrangbrüche verteilten.
In dieser Arbeit konnte gezeigt werden, daß die Bildung von DNA-Doppelstrangbrüchen in dieser Region durch die Gabe eines Caspase-Inhibitors gehemmt werden kann. Eine Etoposid-induzierte Protein-DNA-Wechselwirkung konnte allerdings nicht nachgewiesen werden. In der Literatur fanden sich Hinweise darauf, daß Subcluster II im Gegensatz zu Subcluster I eine verstärkte Histonacetylierung aufweist. Basierend auf diesen Hinweisen sollte die Arbeitshypothese untersucht werden, ob Subcluster II einen geninternen Promotor des MLL-Gens darstellt.
Die potentielle Promotorregion wurde zunächst durch Computeranalysen eingegrenzt. Mit RT-PCR Experimenten wurde anschließend der potentielle geninterne Promotor des murinen Mll-Gens in einer murinen Fibroblastenzellinie lokalisiert, die einen Transkriptionsstop und eine Polyadenylierungssequenz in Exon 4 des Mll-Gens trug. Um die am Mausmodell gewonnenen Erkenntnisse auch im humanen System zu überprüfen, wurde die geninterne Promotorregion des humanen MLL Gens vor ein Luciferasereportergen kloniert. Durch RTPCR konnte der geninterne Transkriptionsstart im Subcluster II des humanen MLL-Gens lokalisiert werden. Damit konnte zum ersten Mal gezeigt werden, daß Transkriptionsinitiation und genetische Instabilität im Subcluster II des humanen MLL-Gens kolokalisieren.
Durch Deletionsmutanten wurde die Bedeutung der einzelnen Module dieser Promotorregion ermittelt. Dabei zeigte sich, daß die Anwesenheit von zwei retromobilen Elementen eine Enhancer-Funktion haben. Demgegenüber zeigte die homologe murine Sequenz, die in unserer Arbeitsgruppe gleichzeitig von S. Scharf untersucht wurde und für die keine erhöhte Anfälligkeit für DNA-Doppelstrangbrüche bekannt ist, nur eine schwache Promotoraktivität. Dies weist auf einen Zusammenhang zwischen der genetischen Instabilität von Subcluster II und der Rate geninterner Transkriptionsinitiationsprozesse hin.
Das Protein, für das das Transkript des geninternen murinen Promotors kodiert, wurde mittels immunhistologischer und Western Blot Experimente nachgewiesen. Dabei konnte gezeigt werden, daß dieses Protein, wie auch das MLL-Protein, proteolytisch durch Taspase1 und daß sich ein Mini-MLL-Komplex bildet.
Ziel der vorliegenden In-vitro-Untersuchung war der Vergleich drei unterschiedlicher maschineller Nickel-Titan-Wurzelkanalinstrumente bezüglich ihres Vermögens, künstliche Wurzelkanäle mit einem standardisierten Krümmungsradius von 36° nach der Crown-downMethode aufzubereiten. Die verwendeten Systeme waren Profile .04- und Profile .06-Feilen, sowie Mity -Roto-Feilen; angetrieben wurden die Instrumente mit dem ATR Tecnika Motor, einem drehmomentbegrenztem, computergesteuerten Endodontiemotor. Insgesamt wurden vom selben Behandler 60 Kanäle aufbereitet, nachdem diese zuvor in drei Gruppen aufgeteilt wurden: Gruppe 1 wurde ausschließlich mit Profile .04-Instrumenten aufbereitet, Gruppe 2 mit Mity-Roto-Feilen und Gruppe 3 in der Kombination Profile .04-, sowie Profile .06-Feilen. Die einzelnen Kanäle wurden in Hinsicht der Parameter Aufbereitungszeit, Arbeitslängenverlust, Gewichtsverlust, Instrumentenfraktur, sowie Veränderungen der Kanalanatomie miteinander verglichen. Durch Übereinanderprojektion von DiapositivAufnahmen vor und nach Aufbereitung erfolgte die Auswertung der Veränderung der Kanalanatomie.
Hinsichtlich der Aufbereitungszeit gab es zwischen den Systemen Mity-Roto und Profile .04/06 keine statistisch signifikanten Unterschiede.
Die besten Ergebnisse bezüglich Verlust von Arbeitslänge wurden mit den Mity-Roto-Feilen erzielt. Bei allen 20 Kanälen wurde nach der Aufbereitung die volle Arbeitslänge wieder erreicht. Im Gegensatz dazu ergaben sich bei der Aufbereitung mit Profile .04-Instrumenten in allen 20 Kanälen Arbeitslängenverluste, diese betrugen im Mittel 2,8 mm. Mit nur 0,3 mm mittleren Verlusts an Arbeitslänge unterscheidet sich die Profile .04/06-Gruppen nicht statistisch signifikant von der Mity-Roto-Gruppe, es gilt aber hierbei zu berücksichtigen, dass die von einer Fraktur betroffenen Kanäle nicht in die statistischen Auswertungen einbezogen wurden. Insgesamt wurde bei der Kombination der Instrumente Profile .04 und .06, d.h. in Gruppe 3, bei ca. der Hälfte der Kanäle die ursprüngliche Arbeitslänge nicht erreicht.
Die Auswertung dieses Parameters weist darauf hin, dass eine Kombination der Profile .04-Instrumente mit den stärker konischen .06-Instrumenten für die oberen Kanalanteile zu einer Verbesserung der Ergebnisse führt. Demgegenüber sind die Mity-Roto-Instrumente mit ihrem 2-prozentigem Konus in der Lage, auch ohne den zusätzlichen Einsatz eines stärker konischen Instruments für den Kanaleingang bei allen Kanälen die Ursprungsarbeitslänge zu erreichen. Bei den Werten für den Gewichtsverlust nach Aufbereitung unterschieden sich die drei Aufbereitungsmethoden statistisch nicht voneinander.
Bei sechs von 60 aufbereiteten Kanälen ergaben sich Frakturen, dies entspricht einer Frakturrate von 10 %. Absolut gesehen traten nur bei den Profile 04-Instrumenten Frakturen auf, jeweils drei bei der Profile .04- Gruppe und ebenfalls drei bei der Profile .04/06-Gruppe. Häufigste Frakturstelle war das apikale Drittel des 16 mm langen Arbeitsteils der Feile. Betroffen waren vor allem die Feilen stärkeren Durchmessers, insbesondere kam es bei der Feile # 30 in vier Fällen zu einer Fraktur. Die Mity-Roto-Feilen verfügen über eine hohe Arbeitssicherheit, in keinem der 20 Wurzelkanäle kam es zum Auftreten einer Fraktur.
Bezüglich der Veränderung der Kanalanatomie lässt sich für die Mity-Roto-Feilen ein weitgehend zentriertes Aufbereitungsverhalten feststellen. Hingegen weisen die Profile .04-Gruppe, sowie die Profile .04/06-Gruppe lediglich im apikalen Kanalanteil ein zentriertes Aufbereitungsmuster auf, im mittleren Teil kommt es zu einem stärkeren Abtrag an der Außenkurvatur und koronal ist eine Verlagerung des stärksten Abtrags nach mesial festzustellen.
Bei der Bewertung der Veränderung der Kanalanatomie muss berücksichtigt werden, dass durch die Diapositivtechnik nur eine Betrachtung in zwei-dimensionaler Weise möglich war, die dritte Ebene ist ausgespart und entzieht sich somit der Möglichkeit der Bewertung. Der Großteil von Studien, der sich mit der Aufbereitung von Wurzelkanälen beschäftigt, bereitet diese häufig nicht in dem starken Maße auf, wie in der vorliegenden Untersuchung geschehen. Statt einer Masterfeile von # 40, wie in der vorliegenden Untersuchung, wird häufig lediglich bis # 30, beziehungsweise # 35 aufbereitet.
Unter den Bedingungen der vorliegenden Studie führte die maschinelle
Wurzelkanalpräparation mit Profile .04-Instrumenten zu unbefriedigenden Ergebnissen, die sich jedoch durch den zusätzlichen Einsatz der stärker konisch geformten .06-Instrumente deutlich verbessern lassen. Aufgrund der relativ hohen Frakturhäufigkeit kann der kombinierte Einsatz von Profile .04- und Profile .06-Instrumenten für die Aufbereitung von gekrümmten Kanälen eingeschränkt empfohlen werden.
In Bezug auf alle erhobenen Parameter erzielte die Aufbereitung mit den Mity-Roto-Feilen die besten Ergebnisse und kann für die maschinelle Aufbereitung gekrümmter Wurzelkanäle empfohlen werden.
Ziel dieser Arbeit war es, eine Methode zur akustischen Konditionierung speziell für cochleaimplantierte Katzen zu entwickeln. Die Methode sollte bei den Katzen Interesse an akustischen Reizen induzieren und mit einem geringen Aufwand Hör- und Unterschiedsschwellen bestimmbar machen.
Dabei konnte auf den Erfahrungen aus der Arbeit von Manos Pramateftakis aufgebaut werden.
Bei der Katze handelt es sich um ein gutgeeignetes Tiermodell, wodurch sich die gewonnenen Ergebnisse in gewissem Maße auf den Menschen übertragen lassen. Zusammen mit den Resultaten aus den neurophysiologischen und histologischen Untersuchungen sollen sie helfen, die Implantate und deren Codierungsstrategien zu verbessern.
Es wurden insgesamt sieben Katzen für die Konditionierungsexperimente verwendet, davon vier Tiere, zwei taub geborene und zwei künstlich vertäubte, mit einem Cochleaimplantat ausgestattet. Es wurde sichergestellt, daß die Tiere vor der Implantation taub waren und keinerlei Hörerfahrung hatten. Die Tiere wurden im Alter von 2,5 bis 6,5 Monaten implantiert. Drei weitere Katzen dienten als hörende Kontrollen. Die sieben Katzen wurden zwischen 12 und 102 Tage konditioniert.
Die verwendeten Cochleaimplantate wurden in unserem Institut speziell für den Einsatz bei Katzen entwickelt. Es handelt sich dabei um fünf kugelförmige Reizelektroden, die in die Scala tympani eines Ohres inseriert wurden, und eine indifferente Elektrode. Es wurde ein rein monopolares Reizmuster verwendet. Bei der entwickelten Methode handelte es sich um eine operante Konditionierung mit positiver Verstärkung und einem konstanten Verstärkungsmuster. Die Konditionierungssitzungen fanden einmal täglich, an sieben Tagen der Woche in einer schalldichten Kammer statt, mit 15 – 20 Trials (Tests) pro Sitzung. Die Tiere wurden nicht futterdepriviert, erhielten aber für mindestens sechs Stunden vor der Konditionierung keine Nahrung.
Ziel war es, daß die Katzen ein Verhalten zur Frequenzdiskrimination erlernten. Dazu mußten die Tiere bei zwei verschiedenen Reizfrequenzen unterschiedliche Futternäpfe aufsuchen, um eine Belohnung zu erhalten. Das Hinlaufen zu dem richtigen Futternapf wurde als Treffer (Hit) gewertet und in jedem Fall verstärkt. Bei den Versuchen wurde bewußt auf eine Automatisierung verzichtet. Damit es möglich war auf das individuelle Verhalten der Katzen zu reagieren, wurde einem Versuchsleiter der Vorzug gegeben. Es waren mit dieser Methode nur durchschnittlich sieben Sitzungen oder 122,2 Trials nötig, damit die Tiere zuverlässig den Zusammenhang zwischen Reiz und Verstärker erkannten. Die Methode kann aufgrund dieser Daten als sehr effektiv bezeichnet werden, die mit wenig Zeitaufwand durchzuführen ist. Es konnte kein Unterschied zwischen normal hörenden und implantierten Tieren bezüglich des Lernerfolges festgestellt werden. Einzig die Katze, die erst im Alter von über sechs Monaten implantiert wurde, zeigte einen deutlich schlechteren Lernfortschritt als alle anderen Tiere. Möglicherweise ein Zeichen, daß bei dem Tier zum Zeitpunkt der Implantation die kritische Periode der Gehirnentwicklung bereits abgeschlossen war.
Mit dieser Methode konnte allerdings keine der Katzen ein Verhalten zur Frequenzdiskrimination erlernen. Die Tiere vermochten nicht die unterschiedlichen Reize den verschiedenen Futterstellen zuzuordnen. Das Fehlen eines Manipulandums und damit einer eindeutigen, zu verstärkenden Verhaltensweise könnten hierfür der Grund sein. Es ist zu vermuten, daß die Anforderungen an die Tiere in letzter Konsequenz zu schwierig waren. Weiterführende Untersuchungen werden nötig sein, um die Methode zu optimieren.
Resilienz als Schutzfaktor vor der Entwicklung psychischer Erkrankungen ist angesichts der zunehmenden gesellschaftlichen Belastung durch chronischen Stress und stressassoziierte Folgeerkrankungen ein hochaktuelles Forschungsthema. Obwohl bereits zahlreiche Erhebungen zur Resilienz existieren, herrscht kein Konsens über die konkrete Operationalisierung des Konzepts. In der Folge differieren vorliegende Studienergebnisse stark voneinander, sind nur schwer miteinander vergleichbar und fraglich auf die Gesellschaft zu übertragen. Die vorliegende Arbeit untersucht daher, ob Haarcortisol einen geeigneten Biomarker in der Resilienzforschung darstellt und einen Beitrag zur Vereinheitlichung und Objektivierung dieses Forschungsgebietes leisten kann.
Zur Beantwortung dieser Frage wurde auf die Daten des aktuell laufenden Langzeitforschungsprojekts „Longitudinal Resilience Assessment“ der Universitätskliniken Frankfurt und Mainz aus den Jahren 2017 bis 2019 zurückgegriffen. Alle Proband*innen der psychisch gesunden Stichprobe (N= 192, 18-50 Jahre) füllten zu insgesamt drei Erhebungszeitpunkten nach Studieneinschluss und im Abstand von je drei Monaten Onlinefragebögen zur Ermittlung der aktuell vorherrschenden Stressexposition, der allgemeinen psychischen Gesundheit sowie des subjektiven Stresserlebens aus. Gleichzeitig fand die Entnahme von Haarproben für die Analyse der Haarcortisolkonzentration statt. Zum Studieneinschluss erfolgte ergänzend die Erhebung der Traumatisierung und negativen Erfahrungen im Kindesalter.
Mittels linearer multivariater Regression wurde ein Effekt möglicher anthropometrischer und soziodemographischer Einflussfaktoren auf die Cortisolkonzentration im Haar ausgeschlossen. Ferner wurde die Auswirkung der Lagerungszeit auf die Höhe der Cortisolwerte im Haar untersucht. Es zeigte sich, dass Haarproben mit einer kürzeren Lagerungszeit signifikant höhere Cortisolwerte aufwiesen als solche mit einer längeren Lagerungszeit. Die Stabilität der Cortisolkonzentrationen über die einzelnen Messzeitpunkte hinweg erwies sich dabei insgesamt nur als mäßig hoch. Zur Untersuchung des Zusammenhangs zwischen subjektivem und objektivem Stress, Traumatisierung und negativen kindlichen Erfahrungen, allgemeiner psychischer Gesundheit, Resilienz und HCC wurden Spearman-Rang-Korrelationen angewandt. Auch hier ließen sich keine statistisch signifikanten Zusammenhänge feststellen. Dennoch konnten bei Personen mit einer Veränderung des Stressniveaus während des Beobachtungszeitraumes eine insgesamt deskriptiv erhöhte Stressexposition sowie statistisch signifikant höhere Mengen an Haarcortisol beobachtet werden. Bei weiteren explorativen Datenanalysen innerhalb einer kleinen Subpopulation der Studienstichprobe konnten während des Einwirkens eines intensiven spezifischen Stressors erhöhte HCC-Werte in Verbindung mit schlechteren psychischen Gesundheitsergebnissen gebracht werden.
Auf Grundlage dieser Arbeit lässt sich kein relevanter Einfluss verschiedener Stressvariablen auf die Cortisolkonzentration im Haar ableiten. Auch die individuelle Resilienz steht in keinem Zusammenhang zum HCC. Die Ergebnisse der explorativen Untersuchungen deuten in Zusammenschau mit einer mäßig hohen Stabilität des HCC jedoch darauf hin, dass Haarcortisol ein veränderungssensitiver Biomarker sein kann. Bei intensiver spezifischer Stresseinwirkung steht es in Zusammenhang mit schlechteren Gesundheitsergebnissen und damit indirekt mit der individuellen Resilienz. In zukünftigen Arbeiten sollte untersucht werden, auf welche Weise die Höhe des Haarcortisols Hinweise auf die Auswirkungen einer spezifischen Stressexposition und damit auf den psychischen Gesundheitszustand eines Individuums liefern kann, um so Risikogruppen identifizieren und diese durch frühzeitige Interventionen vor der Entwicklung psychischer Erkrankungen schützen zu können.
Das CD-44-Molekül ist ein membranständiger Oberflächenrezeptor, der als Adhäsionselement von Tumorzellen im Rahmen der Metastasierung genutzt wird. Berichte verweisen auf eine direkte Korrelation zwischen CD-44-Expression eines Tumors und der klinischen Prognose. Darüber hinaus kann der CD-44-Rezeptor auch intrazelluläre Signalwege aktivieren, und als solches Signalelement in die Regulation des Zellzyklus eingreifen.
Im Rahmen der vorliegenden Arbeit wurde postuliert, dass der CD-44-Rezeptor zellzyklusabhängige Veränderungen erfährt und sich daraus Modifikationen des Adhäsionsverhaltens von Tumorzellen ergeben.
Repräsentativ wurde an der Magenkarzinom-Zell-Linie MKN-45 die CD-44-Expression bzw. dessen Splice-Varianten während des Zellzyklus fluorometrisch untersucht (FACS-Analyse, konfokale Laserscan-Mikroskopie). Parallel wurde das Adhäsionsverhalten an isolierten und kultivierten humanen Endothelzellen evaluiert. Die Tumorzellen wurden zuvor mittels Aphidicolin synchronisiert. Als Kontrolle dienten nicht-synchronisierte Zellen.
Die Untersuchungen verdeutlichten eine spezifische Expression der CD-44-Varianten CD44v4, CD44v5, CD44v7. Die Inkubation der Tumorzellen mit Aphidicolin bewirkte eine ausgeprägte Akkumulation von MKN-45-Zellen in der S-Phase. Nach Absetzen des Aphidicolins und Freisetzung in den Zellzyklus kam es zur signifikanten zyklusabhängigen Modulation der Rezeptorexpression. CD44v4, CD44v5 und CD44v7 waren in der G2/MPhase gegenüber der G0/G1- und S-Phase deutlich vermehrt auf der Membran detektierbar. In der G2/M-Phase erhöhte sich zudem signifikant die Adhäsionskapazität der MKN-45-Zellen. Blockadestudien mit gegen die CD-44-Varianten gerichteten monoklonalen Antikörpern belegten die CD-44-abhängige Tumorzell-Endothelzell-Interaktion.
Die Studien belegen zumindest am in vitro Zellkulturmodell die zellzyklus-gesteuerte CD-44-Expression und CD-44-abhängige Invasionseigenschaften von Tumorzellen. Es lässt sich daraus ableiten, dass eine anti-tumorale Therapie an zuvor synchronisierten Tumorzellen womöglich besonders effektiv sein kann. Auch die pharmakologische Blockade des CD-44-Rezeptors könnte einen anti-tumoralen Effekt besitzen.
Die vorliegende Arbeit beschreibt die Entwicklung eines interaktionalen Simulationsmodells zum späteren Einsatz in der VR-Simulation Clasivir 2.0 (Classroom Simulator in Virtual Reality), welche in der Lehrkräftebildung eingesetzt werden soll. Das Clasivir-Simulationsmodell wurde im Rahmen eines Prototyps implementiert und zwei anderen Simulationsmodellen in einem Fragebogen entgegengestellt. Ein Simulationsmodell beschreibt im Kontext einer digitalen Schulunterrichtssimulation, wie sich SuS in der Simulation verhalten.
Die drei Simulationsmodelle wurden über zwei unterschiedliche Typen von Video-Visualisierungen, genannt Mockup-Videos, dargestellt: Zum einen über eine 2D-Darstellung aus Vogelperspektive, zum anderen über eine 3D-Darstellung, in welcher 3D-Modelle von SuS animiert wurden. Bei dem realen Simulationsmodell handelt es sich um eine Übertragung einer authentischen Videoaufzeichnung von Unterricht einer hessischen Realschule in 2D/3D-Visualisierungen. Im randomisierten Simulationsmodell führen SuS ihre Verhalten zufällig aus. Alle Modelle basieren auf zweisekündigen Intervallen. Im Falle des realen Simulationsmodells wurde dies durch Analyse aller beobachtbaren einundzwanzig SuS gewonnen, im Falle des Clasivir-Simulationsmodells wurden die Vorhersagen des Simulationsmodells übertragen. Das Simulationsmodell von Clasivir basiert auf behavior trees, stellt eine Art von künstlicher Intelligenz dar und modelliert das SuS-Verhalten größtenteils in Abhängigkeit von Lehrkrafthandlungen. Die Entwicklung des interaktionalen Simulationsmodells von Clasivir ist eine Kernkomponente dieser Arbeit. Das Simulationsmodell basiert auf empirischen Ergebnissen aus den Bereichen der Psychometrie, der pädagogischen Psychologie, der Pädagogik und Ergebnissen der Simulations-/KI-Forschung. Ziel war die Entwicklung eines Modells, das nicht nur auf normativen Vorhersagen basiert, sondern empirisch und theoretisch valide ist. Nur wenige Simulationsmodelle in Unterrichtssimulationen werden mit dieser Art von Transparenz beschrieben, was eines der Alleinstellungsmerkmale dieser Arbeit ist. Es wurden Anstrengungen unternommen die vorliegenden empirischen Ergebnisse in einen kausalen Zusammenhang zu bringen, der mathematisch modelliert wurde. Im Zentrum steht die Konzentration von SuS, welche Ein uss auf Stör-, Melde- und Antwortverhalten hat. Diese Variable wird durch andere situative und personenbezogene Variablen (im Sinne von traits) ergänzt. Wo keine direkten empirischen Ergebnisse vorlagen wurde versucht plausibles Verhalten anhand der Übertragung von Konzeptionsmodellen zu gewinnen.
Da die bisherige Verwendung der angrenzenden Begriffe rund um die Simulationsentwicklung bislang sehr inkonsistent war, wurde es notwendig diese Termini zu definieren. Hervorzuheben ist die Entwicklung einer Taxonomie digitaler Unterrichtssimulationen, die so bislang nicht existierte. Anhand dieser Taxonomie und der erarbeiteten Fachtermini wurden Simulationen in der Lehrkräftebildung auf ihre Modellierung des Simulationsmodells hin untersucht. Die Untersuchung der Simulationen simSchool und VCS war, da sie einen verwandten Ansatz zu Clasvir verfolgen, besonders ergiebig.
Nach der Generierung der Mockup-Videos wurden N=105 Studierende, N=102 davon Lehramtsstudierende, aufgefordert, in einem Online-Fragebogen zwei der Simulationsmodelle miteinander zu vergleichen. Lehramtsstudierende wurden ausgewählt, da sie die Zielgruppe der Simulation sind. Welche Modelle die Partizipantinnen verglichen, war abhängig von der Gruppe der sie zugeteilt wurden. Hierbei wurde neben den Simulationsmodellen auch die visuelle Darstellung variiert. Insbesondere wurden die Partizipantinnen darum gebeten, den Fidelitätsgrad des Simulationsmodells, also den Maßstab, wie realistisch die Partizipantinnen das Verhalten der SuS in der Simulation fanden, zu bewerten. Inferenzstatistisch bestätigte sich, dass Partizipantinnen keinen Unterschied zwischen dem realen Simulationsmodell und dem Clasivir-Simulationsmodell erkennen konnten (t=1.463, df=178.9, p=.1452), aber das randomisierte Simulationsmodell mit einer moderaten Effektstärke von d=.634 als signifikant schlechter einschätzten (t=-2.5231, df=33.581, p=.008271). Die Art der Darbietung (2D oder 3D) hatte keinen statistisch signifikanten Einfluss auf die wahrgenommene Schwierigkeit der Bewertung (z=1.2426, p=.107). Damit kann festgestellt werden, dass eine komplexe und zeitintensive 3D-Visualisierung eines Simulationsmodells bei noch nicht vorliegender Simulation nicht erforderlich ist. Das Clasivir-Simulationsmodell wird als realistisch wahrgenommen. Es kann damit empfohlen werden, es in der VR-Simulation zu verwenden.
Im Ausblick werden bereits während des Schreibens der Arbeit gemachte Entwicklungen beschrieben und Konzepte zum weiteren Einsatz der Ergebnisse entwickelt. Es wird darauf verwiesen, dass eine erste Version eines VR-Simulators entwickelt wurde (Clasivir 1.0), der jedoch rein deterministisch funktioniert und noch nicht das in dieser Arbeit entwickelte Simulationsmodell inkludiert.
Im Rahmen dieser Doktorarbeit werden drei Schwerpunkte behandelt: 1) Die hocheffektive Beschleunigung von Elektronen und Protonen durch die Wechselwirkung von relativistischen Laserpulsen mit Schäumen. 2) Die Erzeugung und Messung hochintensiver Betatronstrahlung von direkt laserbeschleunigten (DLA-) Elektronen. 3) Die Anwendung von DLA-Elektronen für den biologischen FLASH-Effekt mit einer rekordbrechenden Dosisrate.
Die direkte Laserbeschleunigung von Elektronen wurde durch die Wechselwirkung eines sub-ps-Laserpulses mit einer Intensität von ~ 10^19 W/cm^2 mit einem Plasma nahe kritischer Elektronendichte (NCD) untersucht. Ein sub-mm langes NCD-Plasma wurde durch Erhitzen eines Schaums mit einer niedrigen Dichte mit einem ns-Puls von 10^13-10^14 W/cm^2 erzeugt. Die Experimente wurden an der PHELIX-Anlage (Petawatt Hoch- Energie Laser für Schwerionenexperimente) in den Jahren 2019 – 2023 durchgeführt. Während der Suche nach optimalen Bedingungen für die Beschleunigung von Elektronen und Protonen wurden die Parameter des ns-Pulses variiert und verschiedene Targets verwendet. Es wurde gezeigt, dass das Plasma im Schaum gute Voraussetzungen für die Erzeugung gerichteter, ultrarelativistischer DLA-Elektronen mit Energien von bis zu 100 MeV bietet. Die Elektronen weisen eine Boltzmann-ähnliche Energieverteilung mit einer Temperatur von 10-20 MeV auf.
Optimale Bedingungen für eine effektive Beschleunigung von DLA-Elektronen wurden bei der Kombination eines CHO-Schaums mit einer Dichte von 2 mg/cm3 und einer Dicke von 300-500 µm mit einer Metallfolie erreicht. Die Gesamtladung der detektierten Elektronen mit Energien über 1,5 MeV erreichte 0,5-1 µC mit der Umwandlungseffizienz der Laserenergie von ~ 20-30%.
Außerdem wird die Beschleunigung von Protonen durch DLA-Elektronen anders verursacht als bei typischer Target Normal Sheath Acceleration (TNSA). Für die Untersuchung der lokalen Protonenenergieverteilung wurden Magnetspektrometer unter verschiedenen Winkeln zur Laserachse verwendet. Dafür wurde eine Filtermethode entwickelt, welche es ermöglicht, Spektren von Protonen mit Energien von bis zu 100 MeV zu rekonstruieren. Es wurde gezeigt, dass am PHELIX durch die Kombination von einem ~ 300-400 µm dicken CHO-Schaum mit einer Dichte von 2 mg/cm^3 und einer 10 µm dicken Au-Folie bei einer Intensität des sub-ps-Pulses von ~ 10^19 W/cm^2 und unter Verwendung eines optimierten ns-Vorpulses eine optimale Protonenbeschleunigung erreicht wurde. Es wurde ein TNSA-ähnliches Regime mit einer maximalen Cut-off-Energie von 34±0,5 MeV beobachtet. Im Vergleich dazu wurde bei der typischen TNSA unter Verwendung einer 10 µm dicken Au-Folie als Target und derselben Laserintensität eine maximale Cut-off-Energie von 24±0,5 MeV gemessen. Darüber hinaus beobachteten wir einen sehr schwachen Abfall der Protonenanzahl in Abhängigkeit von der Protonenenergie (anders als bei der typischen TNSA) und eine sehr regelmäßige Protonenstrahlverteilung in einem breiten Winkelbereich bis zu hohen Energien. Dies könnte zur Verbesserung der Qualität der Protonenradiographie von Plasmafeldern genutzt werden.
Beim DLA-Prozess (im NCD-Plasma) entsteht Betatronstrahlung durch die Oszillationen von Elektronen in quasi-statischen elektrischen und magnetischen Feldern des Plasmakanals. Um diese Strahlung zu untersuchen, wurde ein neues modifiziertes Magnetspektrometer (X-MS) konstruiert. Das X-MS ermöglicht die 1D-Auflösung mehrerer Quellen. Dank dieser Spezifikation war es möglich, Betatronstrahlung von Bremsstrahlung der ponderomotorischen Elektronen im Metallhalter zu trennen und zu messen.
Im Experiment mit einem CHO-Schaum mit einer Dichte von 2 mg/cm^3 und einer Dicke von ~ 800 µm als Target wurde die von den optimierten DLA-Elektronen erzeugte Betatronstrahlung gemessen. Bei einer Peak-Intensität des dreieckigen ns-Pulses von ~ 3·10^13 W/cm^2 und des sub-ps-Pulses von ~ 10^19 W/cm^2, welcher 4±0,5 ns gegenüber dem ns-Puls verzögert war, betrug der Halbwinkel im FWHM-Bereich des Elektronenstrahls 17±2°. Unter diesen Bedingungen war die Betatronstrahlung mit einem Halbwinkel im FWHM-Bereich von 11±2° für die Photonen mit Energien über 10 keV ebenfalls gerichtet. Die Photonenanzahl mit Energien über 10 keV wurde auf etwa 3·10^10 / 3·10^11 (gerichtete Photonen / Photonen im Halbraum entlang der Laserstrahlrichtung) abgeschätzt. Die maximale Photonenanzahl pro Raumwinkel betrug ~2·10^11 photons/sr. Die Brillanz der registrierten Betatronstrahlung erreichte ~ 2·10^20 photons/s/mm^2/mrad^2/(0.1% BW) bei 10 keV.
Die Verwendung eines Hochstromstrahls aus DLA-Elektronen für die FLASH-Strahlentherapie ermöglicht das Erreichen einer Dosis von bis zu 50-70 Gy während eines sub-ps-Laserpulses. Im Jahr 2021, während der P213-Strahlzeit am PHELIX wurde der Sauerstoffkonzentrationsabfall bei der Bestrahlung von Medien (Wasser und andere biologische Medien) mit DLA-Elektronen in Abhängigkeit von der Dosis untersucht. Die Strahlendosis wurde hierbei indirekt gemessen. Hierfür wurde eine Rekonstruktionsmethode entwickelt, die es ermöglicht, die Dosis innerhalb des „Wasser-Containers“ auf Basis von Messungen außerhalb des Containers mit einem untersuchten Medium zu ermitteln. Es wurde eine gute Übereinstimmung zwischen dem Experiment und einer Monte-Carlo-Simulation für Wasser gezeigt. Die registrierte Dosisrate erreichte einen Rekordwert von ~ 70 TGy/s.
Im Rahmen der vorliegenden Arbeit werden zum ersten Mal die Ökologie, Morphologie und Systematik von Pilzen untersucht, die assoziiert mit Haut- und Nagelläsionen von ambulanten Patienten sowie von Patienten dermatologischer Praxen in der Provinz Chiriquí im Westen Panamas nachgewiesen wurden. Die Pilze werden klassifiziert nach dem klinischen D-H-SSystem von Rieth und entsprechend ihrer Position im phylogenetischen System der Pilze. Die Morphologie der verschiedenen Arten wird dokumentiert auf der Grundlage von Kulturen und lichtmikroskopischer Untersuchungen durch Beschreibungen sowie Zeichnungen und Fotographien charakteristischer Strukturen. Die Pathogenität der einzelnen Pilzstämme wurde nicht nachgewiesen, sondern auf der Grundlage von Angaben aus der Literatur diskutiert. Außerdem lieferte die Literatur Daten zum Vorkommen der Pilze an Pflanzen und anderen Substraten in der Natur.
In Panama wurden zahlreiche klinische Proben untersucht, von denen ca. 100 Pilzstämme nach Deutschland geschickt wurden. Dort konnten 80 Stämme weiter kultiviert und detailliert untersucht werden. Mehr als 22 verschiedene Arten wurden beobachtet, die 17 verschiedenen Gattungen angehören. Sie entsprechen drei verschiedenen Arten von Dermatophyten, mindestens drei Arten von Hefen und 16 verschiedenen Schimmel- oder sonstigen Pilzarten.
Mit Ausnahme von Hormographiella verticillata wurden ausschließlich imperfekte Stadien beobachtet, und zwar überwiegend von verschiedenen Vertretern der Ascomycota: Dothideales: Scytalidium dimidiatum (6 Stämme), Eurotiales: Aspergillus spp. (4), Paecilomyces lilacinus (2), Penicillium sp. (2), Hypocreales: Fusarium lichenicola (3), F. solani (4), F. subglutinans (1), Microascales: Scopulariopsis brevicaulis (2), Onygenales: Trichophyton mentagrophytes (2), T. rubrum (9), T. tonsurans (7), Ophiostomatales: Sporothrix schenckii (1), Pleosporales: Curvularia geniculata (1), Polystigmatales: Colletotrichum gloeosporioides (1), Sordariales: Nigrospora sphaerica (1), Saccharomycetales: Candida spp. (12), Geotrichum candidum (8), incerte sedis: Pestalotiopsis cf. tecomicola (1), Tritirachium oryzae (1). Vertreter der Basidiomycota sind: Agaricales: Hormographiella verticillata bzw. Coprinellus domesticus (3), Polyporales: Unbekannter Basidiomycet (1), Trichosporonales: Trichosporon cutaneum (6).
Im Rahmen dieser Studie waren Schimmelpilze die am häufigsten bei Haut- und Nagelläsionen angetroffenen Pilze. Unter diesen waren Fusarium-Arten und Scytalidium dimidiatum besonders häufig vertreten. Candida-Arten wurden ebenfalls oft isoliert. Die wichtigste Art unter den Dermatophyten war Trichophyton rubrum. Die prozentualen Anteile der verschiedenen Gruppen entsprechen gut den von anderen Autoren aus anderen Regionen publizierten Ergebnissen. Dies erklärt sich aufgrund der ökologischen Tatsache, dass die Sporen der Schimmelpilze fast überall in der Natur vorhanden sind und diese Pilze viele verschiedene Substrate nutzen können. Candida-Arten gehören zur normalen Flora des Menschen, können aber bei immunodefizienten Patienten, Diabetikern u.a. schwere Haut- und Schleimhautinfektionen, sowie Organerkrankungen verursachen. Dermatophyten sind als Krankheitserreger oberflächlicher Hautmykosen bekannt.
Zum ersten Mal wird das Vorkommen von Hormographiella verticillata in Amerika nachgewiesen. Dieses imperfekte Stadium eines Basidiomyceten hat in Kultur Fruchtkörper gebildet, die als Coprinellus domesticus bestimmt wurden. Damit wurde zum ersten Mal die Anamorph-Teleomorph-Verbindung zwischen diesen beiden Arten festgestellt, die durch eine molekular-phylogenetische Analyse von LSU rDNA (große Untereinheit der ribosomalen DNA) unterstützt wird. Für diese Analyse wurden andere Stämme und Genbank-Daten zum Vergleich herangezogen.
In den Kulturen von H. verticillata entstehen vor der Entwicklung der Fruchtkörper asexuelle sterile Hyphen, die als Ozonium-Stadium bezeichnet werden können. Zum Vergleich wurden Herbarbelege von verschiedenen Arten dieser Gattung bearbeitet. Die Arten sind morphologisch nicht unterscheidbar, weshalb vorgeschlagen wird, nur den Gattungsnamen zur Bezeichnung des entsprechenden Entwicklungsstadiums zu benutzen.
Es war nicht möglich, aufgrund morphologischer Merkmale den Stamm des Unbekannten Basidiomyceten zu bestimmen. Erst eine molekular-phylogenetischer Analyse von LSU rDNA mit Vergleichssequenzen aus der Genbank zeigte, dass der Pilz nahe verwandt ist mit Vertretern der Polyporales.
In der präoperativen Diagnostik fokaler maligner Leberläsionen nimmt die MRT mit Resovist® einen zunehmend höheren Stellenwert ein.
T2 gewichtete TSE- und FS-Sequenzen der Resovist® unterstützten MRT sind dabei sensitiver als die in der präoperativen Diagnostik etablierte CTAP mit Ultravist® 370, einem nichtionischen jodhaltigen Kontrastmittel.
Die visuelle Differenzierung und Charakterisierung fokaler maligner Leberläsionen und deren Abgrenzung vom Leberparenchym in der Resovist® unterstützten MRT kann durch die Analyse der Signalintensitätskurven optimiert werden. Eine effektivere Charakterisierung der fokalen Leberläsionen wirkt sich damit positiv auf die Sensitivität und Spezifität der SPIO verstärkten MRT aus.
Es bleibt daher offen, die Signalintensitäten der primären und sekundären Leberläsionen der hier nicht untersuchten Gewebearten in weiteren Studien zu analysieren.
Desweiteren könnten nachfolgende Untersuchungen das Ziel haben, die Sensitivität und Spezifität der Resovist® unterstützten MRT durch eine Verminderung der Schichtdicke zu verbessern, womit sich die Detektion von Läsionen < 1 cm effektiver gestalten würde.
Die künstliche elektrische Stimulation bietet oftmals die einzige Möglichkeit, nicht vorhandene bzw. verloren gegangene motorische sowie sensorische Aktivitäten in gewissem Umfang wieder herzustellen. Im Falle von tauben Patienten wird zur Erlangung von Hörempfindungen die elektrische Stimulation des peripheren auditorischen Systems mit Hilfe von Cochlea- oder Hirnstammimplantaten standardmäßig eingesetzt. Es ist dabei notwendig, natürliche neuronale Entladungsmuster durch die elektrisch evozierten Entladungsmuster nachzubilden. Bei einkanaligen Systemen kann nur die Zeitstruktur des Signals dargeboten werden. Mehrkanalige Systeme bieten hier noch zusätzlich die Möglichkeit auch örtlich selektiv bestimmte Nervenfasergruppen zu stimulieren und damit die Ortsstruktur in den Entladungsmustern zu repräsentieren. So hat es sich gezeigt, dass die Sprachverständlichkeit durch Verwendung von Mehrkanal-Elektroden verbessert werden kann. Grundvoraussetzung hierfür ist die Optimierung der Kanalseparation durch Kleinst-Vielkanalelektroden und der Wahl einer optimalen Codierstrategie des Signals.
Die Codierstrategie ist abhängig von dem jeweiligen spezifischen Einsatzbereich. So gaben z.B. schon Clopton und Spelman (1995) zu bedenken, dass die als selektiv berechnete tripolare (S3) Konfiguration nur für einen bestimmten Stimulationsstrombereich gültig ist. Hinzu kommt es bei simultaner Verwendung benachbarter Kanäle zu schmerzhaften Lautheitssummationen. Ursache hierfür sind einerseits die Überlagerung der durch die Elektroden stimulierten neuronalen Bereiche und andererseits die Wechselwirkungen von Strömen benachbarter Elektrodenkanäle. Diese Effekte führen nicht nur zu einer Verringerung der räumlichen Stimulationsauflösung, sondern auch zu einer Einschränkung der exakten Abbildung der Zeitstruktur innerhalb der einzelnen Stimulationskanäle.
Die Techniken und Grundlagen der elektrischen Stimulation von neuronalem Gewebe mit Kleinst-Vielkanalelektroden sind bisher kaum untersucht worden. Ziel dieser Arbeit war es, ein mathematisches Modell zu implementieren und Qualitätsparameter zu definieren, mit deren Hilfe die Verteilung des elektrischen Feldes und die daraus resultierende neuronale Erregung beschrieben und optimiert werden kann. Zur Verifizierung des Modells sollten Methoden und Techniken entwickelt werden, die eine hochauflösende Abtastung der elektrischen Felder und Messung der neuronalen Daten innerhalb eines Messsystems ermöglichen.
Bei der neuronalen Stimulation mit Kleinst-Vielkanalelektroden ergibt sich eine Reihe von Problemen grundsätzlicher Art. So werden bei elektrodenferner Stimulation größere Stimulationsströme benötigt als bei elektrodennaher Stimulation, wobei für den Strombedarf die Stimulationskonfiguration eine entscheidende Rolle spielt: Der S1 Stimulationsmodus benötigt weniger Strom zur Erreichung großer Stimulationstiefen als der S2 Stimulationsmodus. Der größte Strom wird mit zunehmendem Elektrodenabstand gleichermaßen von dem S3 und S7 Stimulationsmodus benötigt. Gleichzeitig verfügen Kleinst-Vielkanalelektroden bauartbedingt aber nur über kleine Elektrodenkontaktoberflächen und lassen daher auf Grund der kritischen Feldstärke nur geringe Stimulationsströme zu.
Ein weiteres Problem besteht bei diesen Kleinst-Elektrodendimensionen in der konkreten Lage der Neurone an denen eine neuronale Erregung evoziert wird. Die Dimension der Kleinst-Vielkanalelektroden liegt bei einem Elektrodenkanalkontaktdurchmesser von 70 µm bereits in der Größenordnung der zu stimulierenden Neurone mit einem Durchmesser von 10 bis 15 µm. Dies macht sich bei den Messungen besonders dann deutlich bemerkbar, wenn nicht der Stimulationsstrom die Größe des überschwelligen Bereichs modelliert, sondern wenn der Elektrodenkanalabstand durch die Wahl der entsprechenden Elektrodenkanäle verändert wird. Hier weisen zwar die meisten neuronalen Antworten noch in die sich aus dem Modell ergebende Richtung, jedoch kommt es zu einer höheren Streuung der Ergebnisse als bei Messungen mit der Folienelektrode, die eine Kontaktfläche von 170 µm besitzt.
Es gibt also eine Reihe von begrenzenden Faktoren bei der optimalen Dimensionierung der Stimulationselektrode, die sowohl abhängig von der physiologischen Topologie ist als auch von den eingesetzten Stimulationskonfigurationen. Es ist also zur Stimulation die Wahl der optimalen Codierstrategie und die richtige Dimensionierung der Stimulationselektrode sowie der Elektrodenkanalabstände von entscheidender Bedeutung.
Die neuronalen Messungen wurden erstmalig für diese Fragestellung am Hirnschnitt durchgeführt, da sie, im Gegensatz zu in-vivo Versuchen, eine exakte Positionierung der Elektroden auf dem Hirnschnitt unter Sichtkontrolle durch das Mikroskop erlauben. Es wurden aus den neuronalen Messungen die Amplituden und Latenzen der exzitatorischen postsynaptischen Potenziale (EPSP) sowie der Feldpotenziale ausgewertet.
Der Versuchsaufbau macht es möglich, die Potenzialfelder mit genau den Konfigurationen abzutasten, mit denen auch die neuronalen Messungen des Hirnschnittes durchgeführt wurden. Das implementierte Programm zur Berechnung der Feldverteilung besitzt zum Messprogramm ein Interface, so dass es möglich ist, die Einstellungen des Experimentes, wie Stimulationskonfigurationen, Abtastraster des Feldes und die Koordinaten des Messraums, in der Modellrechnung zu verwenden. Somit ist ein direktes Vergleichen zwischen Messung und Berechnung möglich. In nachfolgenden Arbeiten können die vorliegenden Ergebnisse als Grundlage für in-vivo Versuche eingesetzt werden.
Zur Durchführung der Messungen wurden sehr kleine Elektroden aus eigener Herstellung verwendet und es wurden uns freundlicherweise neu entwickelte Folienelektroden des Fraunhofer Instituts St. Ingbert zur Verfügung gestellt. Die Größe der verwendeten Kleinst-Vielkanalelektroden aus eigener Herstellung lag um ca. eine Zehnerpotenz unter den aktuell eingesetzten Elektrodentypen und ist speziell für den direkten Kontakt zwischen Elektrode und Gewebe konzipiert. Dies entspricht dem typischen Einsatzbereich von Hirnstammimplantaten. Dies ist auch notwendig, um eine maximale räumliche Separation der erzeugten Felder zu ermöglichen. Außerdem erlaubte das Elektrodendesign auf Grund der hohen Anzahl der Elektrodenkanäle und durch variieren der Konfigurationen die Feldrichtung zu bestimmen, ohne die Elektrode neu auf den Hirnschnitt aufsetzen zu müssen.
Der in dieser Arbeit implementierte Algorithmus zur Berechnung der Feldverteilungen und die eingeführten Qualitätsparameter erlauben, die unterschiedlichen Stimulationskonfigurationen miteinander zu vergleichen und zu optimieren. Die Ergebnisse aus diesen Modellrechnungen wurden sowohl mit den Messungen der elektrischen Felder als auch mit den Ergebnissen aus den neuronalen Antworten verglichen.
Der im Rahmen dieser Arbeit erstellte Versuchsaufbau bestand aus einer über mehrere Mikromanipulatoren getriebene mikrometergenaue Positioniereinrichtung. Es konnten sowohl die Stimulationselektrode als auch die Elektrode zur Aufzeichnung der neuronalen Daten gesteuert werden. Die Steuerung des gesamten Setup, d.h. die Positionierung, die Aufzeichnung der neuronalen Daten und die Generierung der Stimulationsmuster wurde über den zentralen Messrechner durch ein hierfür entwickeltes Computerprogramm gesteuert. Die Versuche wurden über ein inverses Mikroskop durch eine CCD-Kamera aufgezeichnet.
Der entscheidende Vorteil des in dieser Arbeit gewählten Modellansatzes besteht in der grundsätzlichen Beschreibung der Feldverteilung bei vielkanaliger Stimulation, so dass diese auch auf andere Elektrodenformen bzw. Konfigurationen und Dimensionen übertragbar ist. Es lassen sich so den verschiedenen Konfigurationen nach bestimmten Qualitätskriterien bewerten und an die jeweilige Zielrichtung der Stimulation anpassen. Die berechneten Felder konnten erfolgreich in der Messeinrichtung generiert und nachgemessen werden. Außerdem ist es gelungen, differenzierte neuronale Aktivitäten auszuwerten, welche die Aussagen des Modells abstützen.
Chemieunterricht in der Schule wird von Schülerinnen und Schülern in weiten Bereichen als schwer verstehbar, für das Alltagsleben als unnütz und wenig motivierend erlebt. Dies hat zur Folge, dass der Chemieunterricht von einer großen Zahl Lernender in der Oberstufe abgewählt wird. Dabei wird bewusst die Bedeutung der Chemie für die Industriegesellschaft ignoriert und die Konsequenz des Nachwuchsmangels nicht ernst genommen.
Bei der Suche nach Lösungsansätzen aus der Krise des schulischen Chemieunterrichts gibt es viele Ansätze, die sich seit einigen Jahrzehnten mit der Kontextorientierung und der Erschließung neuer Felder für den Chemieunterricht befasst haben und befassen. Ausgehend von Themen, deren Bedeutung für das Individuum und die Gesellschaft einen hohen Stellenwert haben, wird der Chemieunterricht mehr an die Lebenswelt der heranwachsenden Generation angepasst. Diese Vorgaben sind in der vorliegenden Arbeit einbezogen worden und haben das Thema HIV für den Chemieunterricht der gymnasialen Oberstufe als sinnvoll erscheinen lassen.
Vor dem Hintergrund der kognitionspsychologischen Erkenntnisse der vergangenen fünfzehn Jahre ist ein Weg der Unterrichtsgestaltung gewählt worden, mit dem die Selbständigkeit der Lernenden unterstützt, gefördert und weiterentwickelt werden kann. Kognitionspsychologische Untersuchungen der Eingangskanäle bei Lernvorgängen stellen die hohe Bedeutung mehrer Sinnesmodalitäten in den Vordergrund, durch die eine verbesserte Behaltensleistung erzielbar ist. Nach diesen Erkenntnissen kann Wissen nur dann als aktives Wissen in neuen Zusammenhängen eingesetzt werden, wenn Lernern die Möglichkeit geboten wird ihr individuelles Gedankengebäude zu konstruieren. Besonders effizient sind nach diesen Untersuchungen kombinierte Sinnesmodalitäten mit guter Behaltensleistung bei der Nutzung von Sprache, Text und Bewegtbildern. Hier gilt die alte Erkenntnis "ein Bild sagt mehr als tausend Worte" auch im übertragenem Sinne. Besonders die konstruktivistischen Überlegungen für den Vorgang des Wissensaufbaus wurden in dieser Arbeit berücksichtig.
Diese Forschungsergebnisse waren ein Grund für die multimediale Aufbereitung des Themas. Hoher Verbreitungsgrad, gesellschaftliche Bedeutung und Motivation durch Multimedia sind weitere Gründe für diese Entscheidung.
Sowohl curriculare als auch gesellschaftliche Entwicklungen fordern darüber hinaus das Denken in vernetzten Systemen, dies bedeutet ein über die Grenzen des Fachs Chemie hinausgehendes Planen und Realisieren von Unterricht. Mit der Themenwahl werden direkt die Fächer Chemie und Biologie angesprochen, Fächer wie Kunst, Religion, Ethik, Sozialkunde und Sprachen können einbezogen werden. Mit dem der Unterrichtseinheit, die von fünf Kursen mit insgesamt 60 Schülerinnen und Schülern erprobt wurde, zu Grunde liegenden Programm zum Thema HIV verknüpfen sich die Fragen:
* Ist der Einsatz von Computern als Medium bereits die Norm?
* Welche medialen Angebote werden schulisch/außerschulisch genutzt?
* Welche Informationsquellen werden verwendet?
* Welche Medien sind für die Testpersonen beim Lernprozess bedeutend?
* Wird die Lehrperson bei dem Einsatz der modernen Medien ersetzt?
* Fördert das Projekt die Selbstbestimmung beim Lernprozess?
* Welche Effekte hat das multimediale Projekt auf den Lernprozess?
* Welche Probleme treten beim Umgang mit dem verwendeten Programm auf?
Diese Punkte wurden mit einem Fragebogen vor und einem nach der Durchführung des Projektes bearbeitet...
Die bisher bekannten Cranialfragmente umfassen chronologisch den Zeithorizont der Eisenzeit (Hallstatt- und Latènezeit), die im nördlichen Mittelrheingebiet als stark regional geprägte Hunsrück – Eifel – Kultur bezeichnet wird. Absolutchronologisch datieren die perforierten Fragmente in die Zeit vom 8./ 7. Jh. v. Chr. bis in das 1 Jh. v. Chr.
Mit den Cranialfragmenten im Untersuchungsgebiet lässt sich ein eisenzeitlicher Schädelkult fassen, der bisher, durch die besondere Fundüberlieferung, nur auf die Region des nördlichen Mittelrheingebietes beschränkt scheint. Eine Häufung der Funde um das keltische Hengeheiligtum „Goloring“ im Landkreis Mayen – Koblenz als Zentrum der östlichen Hunsrück – Eifel – Kultur ist dabei klar erkennbar.
Sämtliche bisher bekannten Stücke stammen aus Siedlungsgruben eisenzeitlicher Gehöfte. Nach dem archäologischen Befund wurden die Stücke nach ihrer Verwendung im Sohlenbereich der Gruben deponiert.
Die bei den archäologischen Untersuchungen entdeckten Fragmente bestehen aus Einzelsegmenten oder größeren Teilen des menschlichen Schädels. Nach dem Befund wurden ausschließlich nur alte, schon skelettierte Schädel verwendet, die bereits längere Zeit im Sediment lagen und möglicherweise regulären Bestattungen entnommen wurden.
Sämtliche Stücke weisen als besondere Eigenart dieser Fundgruppe eine Lochung zur Aufhängung und Befestigung auf. Nach dem Befund konnte eine Aufhängung mit Riemen sowie eine Befestigung mit Eisendorn festgestellt werden. Weiterhin sind die Stücke sekundär modifiziert und manipuliert und lassen Schliff- und Schnittspuren, sowie Polituren erkennen. Die Schnittspuren wie auch die Lochungen wurden wahrscheinlich mit Steinwerkzeugen eingebracht. Die Schliffspuren finden sich besonders an den Rändern und Bruchkanten und lassen eine eindeutige sekundäre, postmortale Behandlung erkennen. Oft zeigen die Ränder zudem Schlagspuren einer groben Zurichtung.
Typologisch lässt sich eine Entwicklung fassen, die in der späten Urnenfelderzeit (Ha B) mit echten Trepanationsscheiben ihren Anfang hat. In der frühen Eisenzeit (Laufelder Gruppe im Mittelrheingebiet; Ha C) entstehen in Anlehnung an die Trepanationsscheiben gelochte und modifizierte Knochenscheiben bzw. Rondelle, die schon aus bereits skelettierten Schädeln entnommen wurden. In der älteren Hunsrück – Eifel – Kultur (Hallstattzeit; Ha D) wurden in der Regel größere Schädelteile und Segmente des Craniums perforiert und modifiziert. Während der darauf folgenden jüngeren Hunsrück – Eifel – Kultur (Latènezeit; Lt A/B) finden Schädelcalotten, halbe Schädel sowie größere Teile mit Os frontale oder Occipitale Verwendung. Aus der Mittellatènezeit (Lt C) liegt ein vollständiges Viscerocranium mit Lochung vor. In der späten Eisenzeit (Spätlatènezeit; Lt D) werden dann vollständige Schädel gelocht und modifiziert. Anhand der Typologie ist eine Entwicklung von medizinischen Schaustücken (Trepanationsscheiben) mit Amulettcharakter zu einem ausgeprägten Ahnen – bzw. Reliquienkult zu beobachten. Mit der frühen Hallstattzeit (Laufelder Gruppe; Ha C) wird ausschließlich schon skelettiertes Knochenmaterial verwendet.
Die anthropologische Untersuchung der auswertbaren Cranialfragmente ergab nach den Merkmalen am Schädel tendenziell mehr männliche Individuen. Das biologische Lebensalter lag nach den auswertbaren Charakteristika hauptsächlich in den Altersstufen adult bis matur und in Einzelfällen darüber. Es handelt sich um eine Altersgruppe, die in den regulären Nekropolen deutlich unterrepräsentiert ist, aber bei den Cranialfragmenten in den Siedlungen die Masse der Funde darstellt. Juvenile Individuen fehlen im Fundbestand bisher vollständig. Nach anthropologischen Kriterien handelt es sich bei fast allen Stücken um Langschädel mit dolichokranen Merkmalen.
Nach den Ergebnissen lässt sich der prähistorische Schädelkult an Mittelrhein und Mosel als ein ausgeprägter Ahnenkult charakterisieren. Die perforierten Cranialfragmente machen im Gegensatz zu anderen Regionen eine eigene Entwicklung bis zur Zeitenwende durch. Vereinzelte Parallelen zu den Funden im Mittelrheingebiet sind aus dem gesamten Verbreitungsgebiet der eisenzeitlich – keltischen Latènekultur bekannt. Zudem geben die antiken Autoren ebenfalls Hinweise auf eine solche Kultausprägung. Die Behandlung der Schädel in der Eisenzeit lässt auch rezente, ethnographische Parallelen zu den Inselkulturen Ozeaniens und Südostasiens erkennen.
Die verzierten Metallschalen des 1. Jts.v.Chr. stehen bereits seit der Mitte des 19. Jhs. im Interesse von Wissenschaft und Forschung. Ausgelöst wurde dieses Interesse durch die Auffindung der Nimrud-Schalen durch Layard 1849. In ihrem 1888 erschienenen zweibändigen Werk über griechische Kunst nahmen Dumon und Champlin einige der Schalen aus Nimrud auf. Sie unterteilten die Schalen mittels ikonographischer Merkmale in drei Gruppen (1. ägyptisch, 2. assyrisch und 3. einen Sonderstil).
Gegen Ende des 19. Jhs. verlagert sich das Interesse der Forscher immer mehr auf die zyprischen Schalen. 1893 erscheint eine Abhandlung von Brunn über die auf Zypern gefundenen Schalen, von denen er annimmt, daß sie von griechischen Handwerkern mit Sitz (Werkstatt) auf Zypern hergestellt worden sind. In den darauffolgenden Jahren werden weitere Arbeiten von Hogarth (1909), Poulsen (1912), Conteneau (1931), Gjerstad (1946) und vielen anderen mehr verfaßt, die jedoch alle davon ausgehen, daß die zyprischen Schalen sowohl in zyprischen als auch in phönizischen Werkstätten hergestellt worden sind.
1974 erscheinen die Untersuchungsergebnisse Barnett’s, der die im British Museum gelagerten Nimrud-Schalen katalogisierte und untersuchte. Barnett unterteilte die Schalen in fünf Gruppen, wobei diesmal nicht nur ikonographische Merkmale im Zentrum der Arbeit standen, sondern auch kompositorische Kriterien mit berücksichtigt wurden. Neben den bereits bekannten zyprischen und phönizischen Werkstätten nimmt er weitere Produktionsstätten für Metallschalen im Iran und den aramäisch geführten Staaten an. Neuere Monographien über die verzierten Metallschalen stammen von Imai (1977) und Markoe (1985). Imai hebt besonders die „internationale“ Beeinflussung der Schalendekore hervor, indem er auf die minoisch-mykenischen, ägyptischen, phönizischen u. a. Einflüsse hinweist. Markoe hingegen behandelt in seiner Arbeit hauptsächlich die Schalen aus Griechenland (sowie Kreta und Zypern) und Italien, wobei er die Parallelen zwischen den zyprischen und italischen sowie den griechischen und den iranischen Schalen betont.
Alles in Allem können wir festhalten, daß die bisherigen Untersuchungen, mit Ausnahme derer von Barnett, aus der Sicht von klassischen Archäologen abgefaßt worden sind, deren Interesse vor allem den Schalen aus Griechenland und Italien galt. Die Schalen aus Nimrud und dem Iran hingegen werden häufig vernachlässigt bzw. nur einzelne Stücke werden als Vergleiche herangezogen.
Gerade die ikonographische Betrachtung des Schalendekors läßt altorientalische (assyrische, syrische, phönizische, aramäische) und ägyptische Einflüsse erkennen, die eine Untersuchung des Materials von altorientalischer Seite her als notwendig erscheinen lassen. Ziel einer solchen Arbeit sollte zum einen sein, mögliche Herstellungszentren (-regionen) zu erkennen und zum anderen, kulturelle Kontakte zwischen den unterschiedlichen Regionen festzustellen.
Die Untersuchungen der vorliegenden Arbeit stützen sich auf 141 verzierte Metallschalen, die aus regulären Grabungen aus Italien, Griechenland, Zypern, Kreta, Nimrud und Iran, sowie aus dem Kunsthandel stammen. Um einen Überblick über das zu bearbeitende Material zu bekommen, soll der Katalog am Beginn der Publikation stehen. In dem Katalog wurden alle wichtigen Daten aufgenommen. Neben den technischen und gestalterischen Merkmalen werden auch alle bisher erschienenen Publikationen aufgeführt, die sich mit den jeweiligen Schalen befassen, so daß der Leser einen Eindruck von dem bisherigen Forschungsstand bekommt, der als Grundlage für den weiteren Verlauf der Arbeit angesehen werden muß. Der Katalog weist eine geographische Sortierung auf, die sich ausschließlich an den Auffindungsorten der Schalen orientiert und die ursprüngliche regionale Herkunft des Handwerkers bzw. der Werkstatt nicht berücksichtigt.
Im Anschluß an den Katalog findet sich dann eine wissenschaftsgeschichtliche Zusammenfassung der bisher erschienenen Monographien über die verzierten Metallschalen und im Anschluß erfolgt dann eine neue Sortierung des Materials anhand motivischer und stilistischer Merkmale, die Hinweise auf die Herstellungsregion bzw. die Herkunft des Handwerkers gibt.
Des weiteren war es möglich, innerhalb dieser Herstellungsregionen einzelne Werkstättenvoneinander zu isolieren.
Ferroelektrische Strontium-Wismut-Tantalat- (SBT) Filme werden in der Mikroelektronik als nicht-flüchtige Speichermedien verwendet und weiterentwickelt. Informationen werden durch Polarisation des Materials gespeichert und bleiben ohne weiteren Energieaufwand über einen Zeitraum von Jahren in solchen Speichern erhalten – sogenannten FeRAMs (Ferroelectric Random Access Memories). Darüber hinaus können gespeicherte Daten innerhalb von wenigen Nanosekunden wieder ausgelesen werden. Zusammengefasst ist eine Langzeitspeicherung kombiniert mit niedrigem Energieverbrauch und schneller Informationsverarbeitung durch den Einzug ferroelektrischer Materialien in die Computertechnologie möglich geworden.
Da die fortschreitende Miniaturisierung in der Mikroelektronik von zentraler Bedeutung ist, sind zur Charakterisierung der verwendeten Materialien Untersuchungsmethoden mit hoher Ortsauflösung unverzichtbar. Das Rasterkraftmikroskop – engl. Atomic Force Microscope (AFM) – ist eine solche Technik, mit der im Submikrometerbereich die Topographie sowie physikalische Eigenschaften von Materialien abgebildet werden können. Die vorliegende Arbeit widmet sich der Untersuchung von SBT-Filmen mit solchen AFM-Methoden.
Besonders die Rauhigkeit der einzelnen Filme in schichtartig aufgebauten Mikrochips ist bei der Herstellung von Halbleiterbauelementen von großer Bedeutung, wobei möglichst glatte Filme favorisiert werden. Deshalb wurden zunächst verschiedene SBT-Filme auf ihre topographischen Merkmale hin charakterisiert. Die Rauhigkeiten von SBT Filmen verschiedener Herstellungsverfahren wie der Metal Organic Decomposition (MOD) und der Metal Organic Chemical Vapour Deposition (MOCVD) wurden gegenübergestellt. Außerdem ist der Einfluss der SBT-Schichtdicke sowie der des Ferro-Anneals untersucht worden – Ferro-Anneal ist ein Temperungs-Schritt während der Filmherstellung, der zur Bildung der ferroelektrischen Aurivillius-Phase durchgeführt werden muss. Zudem wurde das unterschiedliche Kurzschlussverhalten zweier SBT-Filme in Zusammenhang mit ihren verschiedenen RMS-Rauhigkeitsdaten gebracht.
Der größte Teil der Arbeit setzt sich mit einer Methode auseinander, mit der die Polarisationseigenschaften von ferroelektrischen SBT-Filmen charakterisiert werden sollen – dem AFM/EFM-Polarisationsexperiment – engl. Electrostatic Force Microscope (EFM). Die SBT-Filme werden dabei mit einer AFM-Spitze polarisiert und in einem zweiten Schritt die daraus resultierenden elektrostatischen Felder mit einem EFM über der Probe abgebildet. Es wurde dabei kritisch hinterfragt, in wieweit diese Methode als Beurteilungskriterium der Materialeigenschaften herangezogen werden kann. Zudem wurden Aufladungsphänomene bei dieser Versuchsführung dokumentiert.
Außerdem wurde das Leckstromverhalten von SBT-Filmen auf der Submikrometerskala mit einer relativ neuen Messmethode, dem conducting-AFM (C-AFM), untersucht.
Die Ergebnisse aller Untersuchungen sind im folgenden stichpunktartig dargestellt.
Topographieuntersuchungen:
• Die RMS-Rauhigkeit von MOD/SBT-Filmen ist größer als die der MOCVD/SBTFilme. Mit steigender Prozesstemperatur des Ferro-Anneals wird die Oberflächenrauhigkeit von SBT-Filmen erhöht.
• SBT-Filme, die mit niedrigen Prozesstemperaturen hergestellt wurden, hier als Niedrigtemperatur-Filme bezeichnet, erfahren mit zunehmender Schichtdicke eine Glättung. Sie ist auf die Einbettung der Kristallite in die verhältnismäßig glatte FluoritPhase zurückzuführen, die wegen der geringen Temperaturen während des FerroAnneal-Prozesses noch nicht vollständig in die rauere ferroelektrische AurivilliusPhase umgesetzt wurde.
• Die unterschiedliche Zusammensetzung der Filme SrxBi2.2Ta2O8,3+x mit X1 = 0.9 und X2 = 1,0, im Text als Sr0,9-Film und Sr1,0-Film bezeichnet, führte zu höheren Kurzschlussraten des Sr0,9-Films in fertiggestellten FeRAM-Kondensatoren. Die Ursache kann auf die höhere Oberflächenrauhigkeit des Sr0,9-Films zurückgeführt werden. EFM-Untersuchungen:
• Bei der Polarisation ferroelektrischer SBT-Filme mit einer elektrisch gepolten AFMSpitze werden Ladungen in undefinierbarer Anzahl auf die Oberflächen gebracht. Diese Ladungen sind mehr oder weniger auf den Oberflächen beweglich. Mit zunehmender Polarisierbarkeit des ferroelektrischen Films wird die Ladung stärker am Polarisationsort durch elektrostatische Anziehung zwischen den orientierten Dipolen und der Oberflächenladung fixiert.
In dieser Arbeit konnte gezeigt werden, daß die Proteinkinase Akt das
Zellzyklusprotein p21 in Endothelzellen an der Aminosäure Threonin 145
phosphoryliert und auf diese Weise p21 posttranskriptionell reguliert. So führt die Aktabhängige Phosphorylierung zur Aufhebung der PCNA-Bindungsfähigkeit und zu einer Abnahme der Komplexbildung von p21 mit Cdk2 und Cdk4. Dementsprechend reduziert die Akt-Phosphorylierung von p21 an Threonin 145 die Hemmung der Cdk2-Aktivierung durch p21, begünstigt damit die Phosphorylierung von Retinoblastoma-Protein und die Freisetzung des Transkriptionsfaktors E2F. Diese Daten weisen auf einen neuen Signaltransduktionsweg hin, über den Akt die Endothelzellproliferation reguliert.
Außerdem führt die Akt-vermittelte Phosphorylierung von p21 an T145 zur Stabilisierung von p21 gegenüber Caspase-abhängiger Degradation während der pro-apoptotischen Stimulation der Endothelzellen und schützt die Zellen gegenüber der Apoptose-Induktion durch TNFα. Die p21-Phosphorylierung durch Akt stellt dabei einen essentiellen Mechanismus der endothelzellprotektiven Wirkung von Akt dar, denn in Abwesenheit von p21 infolge Antisense-Transfektion vermag die Überexpression von Akt nicht mehr zu einer Senkung der endothelialen Apoptoserate nach TNFα -Stimulation führen.