Refine
Year of publication
Document Type
- Doctoral Thesis (5734) (remove)
Language
- German (3639)
- English (2066)
- French (9)
- Latin (5)
- Spanish (5)
- Portuguese (4)
- Italian (3)
- Multiple languages (2)
- mis (1)
Is part of the Bibliography
- no (5734)
Keywords
- Deutschland (15)
- Gentherapie (14)
- HIV (13)
- Apoptosis (12)
- Membranproteine (12)
- NMR-Spektroskopie (11)
- RNA (11)
- RNS (10)
- Schmerz (10)
- ALICE (9)
Institute
- Medizin (1528)
- Biowissenschaften (833)
- Biochemie und Chemie (729)
- Physik (597)
- Pharmazie (329)
- Biochemie, Chemie und Pharmazie (311)
- Geowissenschaften (139)
- Neuere Philologien (115)
- Gesellschaftswissenschaften (111)
- Psychologie (97)
Ziel dieser Arbeit war es, eine Methode zur akustischen Konditionierung speziell für cochleaimplantierte Katzen zu entwickeln. Die Methode sollte bei den Katzen Interesse an akustischen Reizen induzieren und mit einem geringen Aufwand Hör- und Unterschiedsschwellen bestimmbar machen.
Dabei konnte auf den Erfahrungen aus der Arbeit von Manos Pramateftakis aufgebaut werden.
Bei der Katze handelt es sich um ein gutgeeignetes Tiermodell, wodurch sich die gewonnenen Ergebnisse in gewissem Maße auf den Menschen übertragen lassen. Zusammen mit den Resultaten aus den neurophysiologischen und histologischen Untersuchungen sollen sie helfen, die Implantate und deren Codierungsstrategien zu verbessern.
Es wurden insgesamt sieben Katzen für die Konditionierungsexperimente verwendet, davon vier Tiere, zwei taub geborene und zwei künstlich vertäubte, mit einem Cochleaimplantat ausgestattet. Es wurde sichergestellt, daß die Tiere vor der Implantation taub waren und keinerlei Hörerfahrung hatten. Die Tiere wurden im Alter von 2,5 bis 6,5 Monaten implantiert. Drei weitere Katzen dienten als hörende Kontrollen. Die sieben Katzen wurden zwischen 12 und 102 Tage konditioniert.
Die verwendeten Cochleaimplantate wurden in unserem Institut speziell für den Einsatz bei Katzen entwickelt. Es handelt sich dabei um fünf kugelförmige Reizelektroden, die in die Scala tympani eines Ohres inseriert wurden, und eine indifferente Elektrode. Es wurde ein rein monopolares Reizmuster verwendet. Bei der entwickelten Methode handelte es sich um eine operante Konditionierung mit positiver Verstärkung und einem konstanten Verstärkungsmuster. Die Konditionierungssitzungen fanden einmal täglich, an sieben Tagen der Woche in einer schalldichten Kammer statt, mit 15 – 20 Trials (Tests) pro Sitzung. Die Tiere wurden nicht futterdepriviert, erhielten aber für mindestens sechs Stunden vor der Konditionierung keine Nahrung.
Ziel war es, daß die Katzen ein Verhalten zur Frequenzdiskrimination erlernten. Dazu mußten die Tiere bei zwei verschiedenen Reizfrequenzen unterschiedliche Futternäpfe aufsuchen, um eine Belohnung zu erhalten. Das Hinlaufen zu dem richtigen Futternapf wurde als Treffer (Hit) gewertet und in jedem Fall verstärkt. Bei den Versuchen wurde bewußt auf eine Automatisierung verzichtet. Damit es möglich war auf das individuelle Verhalten der Katzen zu reagieren, wurde einem Versuchsleiter der Vorzug gegeben. Es waren mit dieser Methode nur durchschnittlich sieben Sitzungen oder 122,2 Trials nötig, damit die Tiere zuverlässig den Zusammenhang zwischen Reiz und Verstärker erkannten. Die Methode kann aufgrund dieser Daten als sehr effektiv bezeichnet werden, die mit wenig Zeitaufwand durchzuführen ist. Es konnte kein Unterschied zwischen normal hörenden und implantierten Tieren bezüglich des Lernerfolges festgestellt werden. Einzig die Katze, die erst im Alter von über sechs Monaten implantiert wurde, zeigte einen deutlich schlechteren Lernfortschritt als alle anderen Tiere. Möglicherweise ein Zeichen, daß bei dem Tier zum Zeitpunkt der Implantation die kritische Periode der Gehirnentwicklung bereits abgeschlossen war.
Mit dieser Methode konnte allerdings keine der Katzen ein Verhalten zur Frequenzdiskrimination erlernen. Die Tiere vermochten nicht die unterschiedlichen Reize den verschiedenen Futterstellen zuzuordnen. Das Fehlen eines Manipulandums und damit einer eindeutigen, zu verstärkenden Verhaltensweise könnten hierfür der Grund sein. Es ist zu vermuten, daß die Anforderungen an die Tiere in letzter Konsequenz zu schwierig waren. Weiterführende Untersuchungen werden nötig sein, um die Methode zu optimieren.
Rafts: Rafts sind spezialisierte Domänen biologischer Membranen, die sich durch ihre spezifische Lipid- und Proteinzusammensetzung auszeichnen (zur Übersicht siehe Simons und Toomre, 2000). Die am besten beschriebenen Rafts sind die Caveolae, doch es gibt noch weitere weniger gut charakterisierte Rafttypen. Rafts werden verschiedene zelluläre Funktionen zugeschrieben wie z.B. gerichteter Transport von Membranproteinen, Endozytose und Signaltransduktion. Diese Funktionen erfüllen sie vornehmlich, indem sie verschiedene Proteine und Lipide bedingt durch ihre biophysikalischen Eigenschaften selektiv aufnehmen oder ausschließen. Viele Raftproteine sind über gesättigte Acylketten, wie Myristat oder Palmitat, oder einen GPIAnker mit der Membran assoziiert. Transmembranproteine, wie z.B. der EGFRezeptor, können jedoch auch in Rafts angereichert sein. Besonders an der Plasmamembran dienen Rafts als Signaltransduktionszentren, indem sie beteiligte Rezeptoren und Signalmoleküle konzentrieren.
Reggie-Proteine: Bei der Suche nach Proteinen, die bei der Regeneration von verletzten Sehnerven von Fischen hochreguliert werden, wurden Reggie-1 und Reggie-2 entdeckt (Schulte et al., 1997). Gleichzeitig wurden diese Proteine bei der Suche nach neuen Raftproteinen gefunden und als Flotillin-1 (=Reggie-2) und Flotillin-2 (=Reggie-1) bezeichnet (Bickel et al., 1997). Reggie-1 und -2 haben ein Molekulargewicht von 47 kDa und sind auf Aminosäuren-Basis zu 44% identisch. Homologe zu Reggie-1 wurden bislang in Mensch, Maus, Ratte und Fisch, wie auch in D. melanogaster gefunden. Die evolutionäre Konservierung der Reggies ist, mit beispielsweise 80% zwischen Ratte und Goldfisch, sehr hoch und weist auf eine wichtige Funktion hin, die Sequenzkonservierung verlangt. Reggie-1 wird ubiquitär exprimiert, wogegen Reggie-2 ein weniger verbreitetes Expressionsmuster aufweist. Reggie-1 ist vornehmlich an der Plasmamembran und an Endosomen lokalisiert. Die subzelluläre Lokalisation von Reggie-2 hängt vom Zelltyp ab...
Bioactive small molecules are used in many research areas as important tools to uncover biological pathways, interpret phenotypic changes, deconvolute protein functions and explore new therapeutic strategies in disease relevant cellular model systems. To unlock the full potential of these small molecules and to ensure reliability of results obtained in cellular assays, it is crucial to understand the properties of these small molecules. These properties encompass their activity and potency on their designated target(s), their selectivity towards unintended off-targets and their phenotypic effects in a cellular system. Approved drugs often engage with multiple targets, which can be beneficial for some applications such as treatment of cancer where several pathways need to be inhibited for treatment efficacy. However, targeting multiple key proteins in diverse pathways also increases the possibility for unspecific or unwanted side effects. For many drugs the entire target space that they modulate is not known. This makes it difficult to use these drugs for target deconvolution or functional assays with the aim to understand the underlying biological processes. In contrast to drugs, for mechanistic studies, a good alternative are chemical tool compounds so called chemical probes that are usually exclusively selective as well as chemogenomic compounds, that inhibit several targets but have narrow selectivity profiles. Because they are mechanistic tools, chemical tool compounds must meet stringent quality criteria and they are therefore well characterized in terms of their potency, selectivity and cellular on-target activity. To ensure that an observed phenotypic effect caused by a compound can be attributed to the described target(s), it is essential to study also properties of chemical tools leading to unspecific cellular effects. There are a variety of unspecific effects that can be caused by physiochemical compound properties that can interfere with phenotypic assays as well as functional compound evaluations. One of these effects is low solubility causing toxicity or intrinsic fluorescence potentially interfering with assay readouts. But unanticipated cellular responses can also arise from unspecific binding, accumulation in cellular compartments or damage caused to organelles such as mitochondria or the cytoskeleton that can result in the induction of diverse forms of cell death.
In this study, we investigated the influence of a variety of small molecules on distinct cell states, by establishing and validating high-content imaging assays, which we called Multiplex assay. This assay portfolio enabled us to detect different cellular responses using diverse fluorescent reporters, such as the influence of a compound on cell viability, induction of cell death programs and modulation of the cell cycle. Additionally, general compound properties such as precipitation and intrinsic fluorescence were simultaneously detected. The assay is adaptable to assess other cellular properties of interest, such as mitochondrial health, changes in cytoskeletal morphology or phospholipidosis. A significant advantage of the assay is that we are using live cells, so we can capture dynamic cellular changes and fluctuations that can be crucial for the understanding of cellular responses.
Der Hirntumor Glioblastom (GBM) ist aufgrund seines infiltrativen Wachstums, der hohen intra- und intertumoralen Heterogenität, der hohen Therapieresistenz als auch aufgrund der sogenannten gliomartigen Stammzellen sehr schwer zu behandeln und führt fast immer zu Rezidiven. Da es in den letzten Jahrzehnten kaum Fortschritte in der Behandlung des GBMs gab, bis auf die Therapie mit Tumortherapiefeldern, wird weiterhin nach alternativen Zelltodtherapien geforscht, wie zum Beispiel dem Autophagie-abhängigen Zelltod. Der Autophagie-abhängige Zelltod ist durch einen erhöhten autophagischen Flux gekennzeichnet und obwohl die Autophagie, als auch selektive Formen wie die Lysophagie und Mitophagie, normalerweise als überlebensfördernde Mechanismen gelten, konnten viele Studien eine duale Rolle in der Tumorentstehung, -progression und -behandlung aufzeigen, die vor allem vom Tumortyp und stadium abhängt. Um die zugrunde liegenden Mechanismen des durch Medikamente induzierten Autophagie-abhängigen Zelltods im GBM weiter zu entschlüsseln, habe ich in meiner Dissertation verschiedene Substanzen untersucht, die einen Autophagie-abhängigen Zelltod induzieren.
In einer zuvor in unserem Labor durchgeführten Studie konnte gezeigt werden, dass das Antipsychotikum Pimozid (PIMO) und der Opioidrezeptor-Antagonist Loperamid (LOP) einen Autophagie-abhängigen Zelltod in GBM Zellen induzieren können. Darauf aufbauend habe ich die Fähigkeit zur Induktion des Autophagie-abhängigen Zelltods in weiteren Zellmodellen validiert. Dies bestätigte einen erhöhten autophagischen Flux nach PIMO und LOP Behandlung, während der Zelltod als auch der autophagische Flux in Autophagie-defizienten Zellen reduziert war. In weiteren Versuchen konnte ich die Involvierung der LC3-assoziierten Phagozytose (LAP), ein Signalweg der auf die Funktion einiger autophagischer Proteine angewiesen ist, ausschließen. Weiterhin konnte ich eine massive Störung des Cholesterin- und Lipidstoffwechsels beobachten. Unter anderem akkumulierte Cholesterin in den Lysosomen gefolgt von massiven Schäden des lysosomalen Kompartiments und der Permeabiliserung der lysosomalen Membran. Dies trug einerseits zur Aktivierung überlebensfördernder Lysophagie als auch der Zell-schädigenden „Bulk“-Autophagie bei. Letztendlich konnte aber die erhöhte Lysophagie die Zellen nicht vor dem Zelltod retten und die Zellen starben einen Autophagie-abhängigen lysosomalen Zelltod. Da die Eignung von LOP als Therapie für das GBM aufgrund der fehlenden Blut-Hirn-Schranken Permeabilität und von dem Antipsychotikum PIMO aufgrund teils schwerer Nebenwirkungen eingeschränkt ist, habe ich mich im weiteren Verlauf meiner Dissertation mit einer Substanz mit einem anderen Wirkmechanismus beschäftigt.
Der Eisenchelator und oxidative Phosphorylierungs (OXPHOS) Inhibitor VLX600 wurde zuvor berichtet mitochondriale Dysfunktion und Zelltod in Kolonkarzinomzellen zu induzieren. Allerdings hat meines Wissens nach bisher noch keine Studie die therapeutische Eignung von VLX600 für das GBM untersucht. Hier zeige ich eine neuartige Autophagie-abhängige Zelltod-induzierende Fähigkeit von VLX600 für GBM Zellen, da der Zelltod signifikant in Autophagie-defizienten Zellen aber nicht durch Caspase-Inhibitoren gehemmt wurde und der autophagische Flux erhöht war. Darüber hinaus konnte ich die Hemmung der OXPHOS und die Induktion von mitochondrialem Stress in GBM Zellen bestätigen und weiterhin aufzeigen, dass VLX600 nicht nur die mitochondriale Homöostase stört, sondern auch zu einer BNIP3-BNIP3L-abhängigen Mitophagie führt, die wahrscheinlich durch HIF1A reguliert wird aber keinen erkennbaren Nettoeffekt auf den von VLX600 induzierten Zelltod hat. Demnach induziert VLX600 letale „Bulk“-Autophagie in den hier verwendeten Zellmodellen. Darüber hinaus konnte ich zeigen, dass die Eisenchelatierung durch VLX600 eine große Rolle für den von VLX600-induzierten Zelltod spielt aber auch für die Mitophagie Induktion, Histon Lysin Methylierung und den ribosomalen Stress. Letztendlich ist es wahrscheinlich ein Zusammenspiel all dieser Faktoren, die zur Zelltodinduktion durch VLX600 führen und interessanterweise werden Eisenchelatoren bereits in präklinischen und klinischen Studien für Krebstherapien untersucht. Dabei könnten gewisse metabolische Eigenschaften verschiedener Tumorzellen die Sensitivität von Wirkstoffen, die auf den Metabolismus wirken wie VLX600, beeinflussen was in zukünftigen Studien beachtet werden sollte um den bestmöglichsten Therapieerfolg zu erzielen. Zusammenfassend unterstützt meine Dissertation die duale Rolle der Autophagie, die stark vom jeweiligen Kontext abhängt und befürwortet die weitere Forschung von Substanzen, die einen Autophagie-abhängigen Zelltod induzieren, für das GBM.
Resilienz als Schutzfaktor vor der Entwicklung psychischer Erkrankungen ist angesichts der zunehmenden gesellschaftlichen Belastung durch chronischen Stress und stressassoziierte Folgeerkrankungen ein hochaktuelles Forschungsthema. Obwohl bereits zahlreiche Erhebungen zur Resilienz existieren, herrscht kein Konsens über die konkrete Operationalisierung des Konzepts. In der Folge differieren vorliegende Studienergebnisse stark voneinander, sind nur schwer miteinander vergleichbar und fraglich auf die Gesellschaft zu übertragen. Die vorliegende Arbeit untersucht daher, ob Haarcortisol einen geeigneten Biomarker in der Resilienzforschung darstellt und einen Beitrag zur Vereinheitlichung und Objektivierung dieses Forschungsgebietes leisten kann.
Zur Beantwortung dieser Frage wurde auf die Daten des aktuell laufenden Langzeitforschungsprojekts „Longitudinal Resilience Assessment“ der Universitätskliniken Frankfurt und Mainz aus den Jahren 2017 bis 2019 zurückgegriffen. Alle Proband*innen der psychisch gesunden Stichprobe (N= 192, 18-50 Jahre) füllten zu insgesamt drei Erhebungszeitpunkten nach Studieneinschluss und im Abstand von je drei Monaten Onlinefragebögen zur Ermittlung der aktuell vorherrschenden Stressexposition, der allgemeinen psychischen Gesundheit sowie des subjektiven Stresserlebens aus. Gleichzeitig fand die Entnahme von Haarproben für die Analyse der Haarcortisolkonzentration statt. Zum Studieneinschluss erfolgte ergänzend die Erhebung der Traumatisierung und negativen Erfahrungen im Kindesalter.
Mittels linearer multivariater Regression wurde ein Effekt möglicher anthropometrischer und soziodemographischer Einflussfaktoren auf die Cortisolkonzentration im Haar ausgeschlossen. Ferner wurde die Auswirkung der Lagerungszeit auf die Höhe der Cortisolwerte im Haar untersucht. Es zeigte sich, dass Haarproben mit einer kürzeren Lagerungszeit signifikant höhere Cortisolwerte aufwiesen als solche mit einer längeren Lagerungszeit. Die Stabilität der Cortisolkonzentrationen über die einzelnen Messzeitpunkte hinweg erwies sich dabei insgesamt nur als mäßig hoch. Zur Untersuchung des Zusammenhangs zwischen subjektivem und objektivem Stress, Traumatisierung und negativen kindlichen Erfahrungen, allgemeiner psychischer Gesundheit, Resilienz und HCC wurden Spearman-Rang-Korrelationen angewandt. Auch hier ließen sich keine statistisch signifikanten Zusammenhänge feststellen. Dennoch konnten bei Personen mit einer Veränderung des Stressniveaus während des Beobachtungszeitraumes eine insgesamt deskriptiv erhöhte Stressexposition sowie statistisch signifikant höhere Mengen an Haarcortisol beobachtet werden. Bei weiteren explorativen Datenanalysen innerhalb einer kleinen Subpopulation der Studienstichprobe konnten während des Einwirkens eines intensiven spezifischen Stressors erhöhte HCC-Werte in Verbindung mit schlechteren psychischen Gesundheitsergebnissen gebracht werden.
Auf Grundlage dieser Arbeit lässt sich kein relevanter Einfluss verschiedener Stressvariablen auf die Cortisolkonzentration im Haar ableiten. Auch die individuelle Resilienz steht in keinem Zusammenhang zum HCC. Die Ergebnisse der explorativen Untersuchungen deuten in Zusammenschau mit einer mäßig hohen Stabilität des HCC jedoch darauf hin, dass Haarcortisol ein veränderungssensitiver Biomarker sein kann. Bei intensiver spezifischer Stresseinwirkung steht es in Zusammenhang mit schlechteren Gesundheitsergebnissen und damit indirekt mit der individuellen Resilienz. In zukünftigen Arbeiten sollte untersucht werden, auf welche Weise die Höhe des Haarcortisols Hinweise auf die Auswirkungen einer spezifischen Stressexposition und damit auf den psychischen Gesundheitszustand eines Individuums liefern kann, um so Risikogruppen identifizieren und diese durch frühzeitige Interventionen vor der Entwicklung psychischer Erkrankungen schützen zu können.
Das CD-44-Molekül ist ein membranständiger Oberflächenrezeptor, der als Adhäsionselement von Tumorzellen im Rahmen der Metastasierung genutzt wird. Berichte verweisen auf eine direkte Korrelation zwischen CD-44-Expression eines Tumors und der klinischen Prognose. Darüber hinaus kann der CD-44-Rezeptor auch intrazelluläre Signalwege aktivieren, und als solches Signalelement in die Regulation des Zellzyklus eingreifen.
Im Rahmen der vorliegenden Arbeit wurde postuliert, dass der CD-44-Rezeptor zellzyklusabhängige Veränderungen erfährt und sich daraus Modifikationen des Adhäsionsverhaltens von Tumorzellen ergeben.
Repräsentativ wurde an der Magenkarzinom-Zell-Linie MKN-45 die CD-44-Expression bzw. dessen Splice-Varianten während des Zellzyklus fluorometrisch untersucht (FACS-Analyse, konfokale Laserscan-Mikroskopie). Parallel wurde das Adhäsionsverhalten an isolierten und kultivierten humanen Endothelzellen evaluiert. Die Tumorzellen wurden zuvor mittels Aphidicolin synchronisiert. Als Kontrolle dienten nicht-synchronisierte Zellen.
Die Untersuchungen verdeutlichten eine spezifische Expression der CD-44-Varianten CD44v4, CD44v5, CD44v7. Die Inkubation der Tumorzellen mit Aphidicolin bewirkte eine ausgeprägte Akkumulation von MKN-45-Zellen in der S-Phase. Nach Absetzen des Aphidicolins und Freisetzung in den Zellzyklus kam es zur signifikanten zyklusabhängigen Modulation der Rezeptorexpression. CD44v4, CD44v5 und CD44v7 waren in der G2/MPhase gegenüber der G0/G1- und S-Phase deutlich vermehrt auf der Membran detektierbar. In der G2/M-Phase erhöhte sich zudem signifikant die Adhäsionskapazität der MKN-45-Zellen. Blockadestudien mit gegen die CD-44-Varianten gerichteten monoklonalen Antikörpern belegten die CD-44-abhängige Tumorzell-Endothelzell-Interaktion.
Die Studien belegen zumindest am in vitro Zellkulturmodell die zellzyklus-gesteuerte CD-44-Expression und CD-44-abhängige Invasionseigenschaften von Tumorzellen. Es lässt sich daraus ableiten, dass eine anti-tumorale Therapie an zuvor synchronisierten Tumorzellen womöglich besonders effektiv sein kann. Auch die pharmakologische Blockade des CD-44-Rezeptors könnte einen anti-tumoralen Effekt besitzen.
Die vorliegende Arbeit beschreibt die Entwicklung eines interaktionalen Simulationsmodells zum späteren Einsatz in der VR-Simulation Clasivir 2.0 (Classroom Simulator in Virtual Reality), welche in der Lehrkräftebildung eingesetzt werden soll. Das Clasivir-Simulationsmodell wurde im Rahmen eines Prototyps implementiert und zwei anderen Simulationsmodellen in einem Fragebogen entgegengestellt. Ein Simulationsmodell beschreibt im Kontext einer digitalen Schulunterrichtssimulation, wie sich SuS in der Simulation verhalten.
Die drei Simulationsmodelle wurden über zwei unterschiedliche Typen von Video-Visualisierungen, genannt Mockup-Videos, dargestellt: Zum einen über eine 2D-Darstellung aus Vogelperspektive, zum anderen über eine 3D-Darstellung, in welcher 3D-Modelle von SuS animiert wurden. Bei dem realen Simulationsmodell handelt es sich um eine Übertragung einer authentischen Videoaufzeichnung von Unterricht einer hessischen Realschule in 2D/3D-Visualisierungen. Im randomisierten Simulationsmodell führen SuS ihre Verhalten zufällig aus. Alle Modelle basieren auf zweisekündigen Intervallen. Im Falle des realen Simulationsmodells wurde dies durch Analyse aller beobachtbaren einundzwanzig SuS gewonnen, im Falle des Clasivir-Simulationsmodells wurden die Vorhersagen des Simulationsmodells übertragen. Das Simulationsmodell von Clasivir basiert auf behavior trees, stellt eine Art von künstlicher Intelligenz dar und modelliert das SuS-Verhalten größtenteils in Abhängigkeit von Lehrkrafthandlungen. Die Entwicklung des interaktionalen Simulationsmodells von Clasivir ist eine Kernkomponente dieser Arbeit. Das Simulationsmodell basiert auf empirischen Ergebnissen aus den Bereichen der Psychometrie, der pädagogischen Psychologie, der Pädagogik und Ergebnissen der Simulations-/KI-Forschung. Ziel war die Entwicklung eines Modells, das nicht nur auf normativen Vorhersagen basiert, sondern empirisch und theoretisch valide ist. Nur wenige Simulationsmodelle in Unterrichtssimulationen werden mit dieser Art von Transparenz beschrieben, was eines der Alleinstellungsmerkmale dieser Arbeit ist. Es wurden Anstrengungen unternommen die vorliegenden empirischen Ergebnisse in einen kausalen Zusammenhang zu bringen, der mathematisch modelliert wurde. Im Zentrum steht die Konzentration von SuS, welche Ein uss auf Stör-, Melde- und Antwortverhalten hat. Diese Variable wird durch andere situative und personenbezogene Variablen (im Sinne von traits) ergänzt. Wo keine direkten empirischen Ergebnisse vorlagen wurde versucht plausibles Verhalten anhand der Übertragung von Konzeptionsmodellen zu gewinnen.
Da die bisherige Verwendung der angrenzenden Begriffe rund um die Simulationsentwicklung bislang sehr inkonsistent war, wurde es notwendig diese Termini zu definieren. Hervorzuheben ist die Entwicklung einer Taxonomie digitaler Unterrichtssimulationen, die so bislang nicht existierte. Anhand dieser Taxonomie und der erarbeiteten Fachtermini wurden Simulationen in der Lehrkräftebildung auf ihre Modellierung des Simulationsmodells hin untersucht. Die Untersuchung der Simulationen simSchool und VCS war, da sie einen verwandten Ansatz zu Clasvir verfolgen, besonders ergiebig.
Nach der Generierung der Mockup-Videos wurden N=105 Studierende, N=102 davon Lehramtsstudierende, aufgefordert, in einem Online-Fragebogen zwei der Simulationsmodelle miteinander zu vergleichen. Lehramtsstudierende wurden ausgewählt, da sie die Zielgruppe der Simulation sind. Welche Modelle die Partizipantinnen verglichen, war abhängig von der Gruppe der sie zugeteilt wurden. Hierbei wurde neben den Simulationsmodellen auch die visuelle Darstellung variiert. Insbesondere wurden die Partizipantinnen darum gebeten, den Fidelitätsgrad des Simulationsmodells, also den Maßstab, wie realistisch die Partizipantinnen das Verhalten der SuS in der Simulation fanden, zu bewerten. Inferenzstatistisch bestätigte sich, dass Partizipantinnen keinen Unterschied zwischen dem realen Simulationsmodell und dem Clasivir-Simulationsmodell erkennen konnten (t=1.463, df=178.9, p=.1452), aber das randomisierte Simulationsmodell mit einer moderaten Effektstärke von d=.634 als signifikant schlechter einschätzten (t=-2.5231, df=33.581, p=.008271). Die Art der Darbietung (2D oder 3D) hatte keinen statistisch signifikanten Einfluss auf die wahrgenommene Schwierigkeit der Bewertung (z=1.2426, p=.107). Damit kann festgestellt werden, dass eine komplexe und zeitintensive 3D-Visualisierung eines Simulationsmodells bei noch nicht vorliegender Simulation nicht erforderlich ist. Das Clasivir-Simulationsmodell wird als realistisch wahrgenommen. Es kann damit empfohlen werden, es in der VR-Simulation zu verwenden.
Im Ausblick werden bereits während des Schreibens der Arbeit gemachte Entwicklungen beschrieben und Konzepte zum weiteren Einsatz der Ergebnisse entwickelt. Es wird darauf verwiesen, dass eine erste Version eines VR-Simulators entwickelt wurde (Clasivir 1.0), der jedoch rein deterministisch funktioniert und noch nicht das in dieser Arbeit entwickelte Simulationsmodell inkludiert.
Anthropogenic activities have a major impact on our planet and rapidly drive biodiversity loss in ecosystems at a global scale. Particularly over the last century, rising CO2 emissions significantly raised global temperatures and increased the intensity and frequency of droughts and heatwaves. Additionally, agricultural land use and fossil fuel combustion contribute to the continuous release of nitrogen (N) and phosphorus (P) into ecosystems worldwide through extensive fertilization and deposition from the atmosphere. It is important to understand how these rapid changes affect the evolution of plant populations and their adaptive potential. Adaptation by natural selection (i.e., adaptive evolution) within a few generations is an essential process as a response to rapid environmental changes. Rapid evolution of plant populations can be detected by using the so-called resurrection approach. Here, diaspores (i.e., seeds) from a population are collected before (ancestors) and after (descendants) a potential selection pressure (e.g., consecutive years of drought or changes in nutrient supply). Comparing phenotypes of ancestors and descendants in a common environment such as an outside garden, greenhouse, or climate chamber, may then reveal evolutionary changes. Ideally, plants are first grown in a common environment for an intermediate refresher generation to reduce parental and storage effects.
The aim of this thesis was to investigate the occurrence of adaptive evolution in natural plant populations in response to rapidly changing environments over the past three decades. I conducted three experiments using the resurrection approach to generate comprehensive data on the adaptive processes that acted on three plant populations from three different species over the last three decades. Furthermore, I filled knowledge gaps in plant evolutionary ecology and conceptually developed the resurrection approach further.
In Chapter I, I performed a novel approach by testing for adaptive evolution in natural plant populations using the resurrection approach in combination with in-situ transplantations. I cultivated seedlings from ancestors (23 – 26 years old) and contemporary descendants of three perennial species (Melica ciliata, Leontodon hispidus and Clinopodium vulgare) from calcareous grasslands in the greenhouse and In Chapter III, I assessed the reproducibility of phenotypic differences between genotypes among three different growth facilities (climate chamber, greenhouse, and outdoor garden). I also evaluated differences in phenotypic expression between plants grown after one vs. two intermediate generations (i.e., refresher generations). I performed this experiment within the framework of the resurrection approach and compared ancestors and descendants of the same population of Leontodon hispidus.
I observed very strong differences among plants growing in the different growth facilities. I found a significant interaction between the growth facility and the temporal origin (ancestors vs. descendants): descendants had significantly larger rosettes than ancestors only in the greenhouse and they flowered significantly later than ancestors exclusively in the climate chamber. I did not find significant differences between intermediate generations within the growth facilities. Overall, Chapter III shows that the use of a particular experimental system can dictate the presence and magnitude of phenotypic differences. This implies that absence of evidence is not evidence of absence when it comes to investigating genetically based trait differentiation among plant origins (in space or time). Experimental systems should be carefully designed to provide meaningful conditions, ideally mimicking the environmental conditions of the population’s origins. Finally, growing a second intermediate generation did not impact the genetic differences of ancestors and descendants within the environments, supporting the idea that only one intermediate generation may be sufficient to reduce detectable parental and storage effects.
The resurrection approach allows a better understanding of rapid plant adaptation, but some limitations deserve to be highlighted. I only studied one population per species, and Chapters II and III only focus on one population of L. hispidus, which is also hampering generalizations, as adaptive potential can vary greatly among populations of the same species. I only compared the ancestral genotypes to one descendant sample with a long time span in between (26 – 28 years), which makes it hard to pinpoint the selection agents that caused the genetic differentiation among the sampling years. Hence, closely monitoring biotic and abiotic factors of the studied populations between the ancestral and descendant sampling in future studies, would make identifying the responsible selection pressures more precise. I also recommend sampling multiple populations over consecutive years to improve the robustness of results and make generalizations more approachable.Furthermore, combining the resurrection approach with other methods such as in-situ transplantations will be valuable to offset the limitation that adaptations cannot be proven under artificial conditions (e.g., in the greenhouse).
The strong force is one of the four fundamental interactions, and the theory of it is called Quantum Chromodynamics (QCD). A many-body system of strongly interacting particles (QCD matter) can exist in different phases depending on temperature (T) and baryonic chemical potential (µB). The phases and transitions between them can be visualized as µB−T phase diagram. Extraction of the properties of the QCD matter, such as compressibility, viscosity and various susceptibilities, and its Equation of State (EoS) is an important aspect of the QCD matter study. In the region of near-zero baryonic chemical potential and low temperatures the QCD matter degrees of freedom are hadrons, in which quarks and gluons are confined, while at higher temperatures partonic (quarks and gluons) degrees of freedom dominate. This partonic (deconfined) state is called quark-gluon plasma (QGP) and is intensively studied at CERN and BNL. According to lattice QCD calculations at µB=0 the transition to QGP is smooth (cross-over) and takes place at T≈156 MeV. The region of the QCD phase diagram, where matter is compressed to densities of a few times normal nuclear density (µB of several hundreds MeV), is not accessible for the current lattice QCD calculations, and is a subject of intensive research. Some phenomenological models predict a first order phase transition between hadronic and partonic phases in the region of T≲100 MeV and µB≳500 MeV. Search for signs of a possible phase transition and a critical point or clarifying whether the smooth cross-over is continuing in this region are the main goals of the near future explorations of the QCD phase diagram.
In the laboratory a scan of the QCD phase diagram can be performed via heavy-ion collisions. The region of the QCD phase diagram at T≳150 MeV and µB≈0 is accessible in collisions at LHC energies (√sNN of several TeV), while the region of T≲100 MeV and µB≳500 MeV can be studied with collisions at √sNN of a few GeV. The QCD matter created in the overlap region of colliding nuclei (fireball) is rapidly expanding during the collision evolution. In the fireball there are strong temperature and pressure gradients, extreme electromagnetic fields and an exchange of angular momentum and spin between the system constituents. These effects result in various collective phenomena. Pressure gradients and the scattering of particles, together with the initial spatial anisotropy of the density distribution in the fireball, form an anisotropic flow - a momentum (azimuthal) anisotropy in the emission of produced particles. The correlation of particle spin with the angular momentum of colliding nuclei leads to a global polarization of particles. A strong initial magnetic field in the fireball results in a charge dependence and particle-antiparticle difference of flow and polarization.
Anisotropic flow is quantified by the coefficients vₙ from a Fourier decomposition of the azimuthal angle distribution of emitted particles relative to the reaction plane spanned by beam axis and impact parameter direction. The first harmonic coefficient v₁ quantifies the directed flow - preferential particle emission either along or opposite to the impact parameter direction. The v₁ is driven by pressure gradients in the fireball and thus probes the compressibility of the QCD matter. The change of the sign of v₁ at √sNN of several GeV is attributed to a softening of the EoS during the expansion, and thus can be an evidence of the first order phase transition. The global polarization coefficient PH is an average value of the hyperon’s spin projection on the direction of the angular momentum of the colliding system. It probes the dynamics of the QCD matter, such as vorticity, and can shed light on the mechanism of orbital momentum transfer into the spin of produced particles.
In collisions at √sNN of several GeV, which probe the region of the QCD phase diagram at T≲100 MeV and µB≳500 MeV, hadron production is dominated by u and d quarks. Hadrons with strange quarks are produced near the threshold, what makes their yields and dynamics sensitive to the density of the fireball. Thus measurement of flow and polarization, in particular of (multi-)strange particles, provides experimental constraints on the EoS, that allows to extract transport coefficients of the QCD matter from comparison of data with theoretical model calculations of heavy-ion collisions.
For continuation of the annotation see the PDF of thesis
Im Rahmen dieser Doktorarbeit werden drei Schwerpunkte behandelt: 1) Die hocheffektive Beschleunigung von Elektronen und Protonen durch die Wechselwirkung von relativistischen Laserpulsen mit Schäumen. 2) Die Erzeugung und Messung hochintensiver Betatronstrahlung von direkt laserbeschleunigten (DLA-) Elektronen. 3) Die Anwendung von DLA-Elektronen für den biologischen FLASH-Effekt mit einer rekordbrechenden Dosisrate.
Die direkte Laserbeschleunigung von Elektronen wurde durch die Wechselwirkung eines sub-ps-Laserpulses mit einer Intensität von ~ 10^19 W/cm^2 mit einem Plasma nahe kritischer Elektronendichte (NCD) untersucht. Ein sub-mm langes NCD-Plasma wurde durch Erhitzen eines Schaums mit einer niedrigen Dichte mit einem ns-Puls von 10^13-10^14 W/cm^2 erzeugt. Die Experimente wurden an der PHELIX-Anlage (Petawatt Hoch- Energie Laser für Schwerionenexperimente) in den Jahren 2019 – 2023 durchgeführt. Während der Suche nach optimalen Bedingungen für die Beschleunigung von Elektronen und Protonen wurden die Parameter des ns-Pulses variiert und verschiedene Targets verwendet. Es wurde gezeigt, dass das Plasma im Schaum gute Voraussetzungen für die Erzeugung gerichteter, ultrarelativistischer DLA-Elektronen mit Energien von bis zu 100 MeV bietet. Die Elektronen weisen eine Boltzmann-ähnliche Energieverteilung mit einer Temperatur von 10-20 MeV auf.
Optimale Bedingungen für eine effektive Beschleunigung von DLA-Elektronen wurden bei der Kombination eines CHO-Schaums mit einer Dichte von 2 mg/cm3 und einer Dicke von 300-500 µm mit einer Metallfolie erreicht. Die Gesamtladung der detektierten Elektronen mit Energien über 1,5 MeV erreichte 0,5-1 µC mit der Umwandlungseffizienz der Laserenergie von ~ 20-30%.
Außerdem wird die Beschleunigung von Protonen durch DLA-Elektronen anders verursacht als bei typischer Target Normal Sheath Acceleration (TNSA). Für die Untersuchung der lokalen Protonenenergieverteilung wurden Magnetspektrometer unter verschiedenen Winkeln zur Laserachse verwendet. Dafür wurde eine Filtermethode entwickelt, welche es ermöglicht, Spektren von Protonen mit Energien von bis zu 100 MeV zu rekonstruieren. Es wurde gezeigt, dass am PHELIX durch die Kombination von einem ~ 300-400 µm dicken CHO-Schaum mit einer Dichte von 2 mg/cm^3 und einer 10 µm dicken Au-Folie bei einer Intensität des sub-ps-Pulses von ~ 10^19 W/cm^2 und unter Verwendung eines optimierten ns-Vorpulses eine optimale Protonenbeschleunigung erreicht wurde. Es wurde ein TNSA-ähnliches Regime mit einer maximalen Cut-off-Energie von 34±0,5 MeV beobachtet. Im Vergleich dazu wurde bei der typischen TNSA unter Verwendung einer 10 µm dicken Au-Folie als Target und derselben Laserintensität eine maximale Cut-off-Energie von 24±0,5 MeV gemessen. Darüber hinaus beobachteten wir einen sehr schwachen Abfall der Protonenanzahl in Abhängigkeit von der Protonenenergie (anders als bei der typischen TNSA) und eine sehr regelmäßige Protonenstrahlverteilung in einem breiten Winkelbereich bis zu hohen Energien. Dies könnte zur Verbesserung der Qualität der Protonenradiographie von Plasmafeldern genutzt werden.
Beim DLA-Prozess (im NCD-Plasma) entsteht Betatronstrahlung durch die Oszillationen von Elektronen in quasi-statischen elektrischen und magnetischen Feldern des Plasmakanals. Um diese Strahlung zu untersuchen, wurde ein neues modifiziertes Magnetspektrometer (X-MS) konstruiert. Das X-MS ermöglicht die 1D-Auflösung mehrerer Quellen. Dank dieser Spezifikation war es möglich, Betatronstrahlung von Bremsstrahlung der ponderomotorischen Elektronen im Metallhalter zu trennen und zu messen.
Im Experiment mit einem CHO-Schaum mit einer Dichte von 2 mg/cm^3 und einer Dicke von ~ 800 µm als Target wurde die von den optimierten DLA-Elektronen erzeugte Betatronstrahlung gemessen. Bei einer Peak-Intensität des dreieckigen ns-Pulses von ~ 3·10^13 W/cm^2 und des sub-ps-Pulses von ~ 10^19 W/cm^2, welcher 4±0,5 ns gegenüber dem ns-Puls verzögert war, betrug der Halbwinkel im FWHM-Bereich des Elektronenstrahls 17±2°. Unter diesen Bedingungen war die Betatronstrahlung mit einem Halbwinkel im FWHM-Bereich von 11±2° für die Photonen mit Energien über 10 keV ebenfalls gerichtet. Die Photonenanzahl mit Energien über 10 keV wurde auf etwa 3·10^10 / 3·10^11 (gerichtete Photonen / Photonen im Halbraum entlang der Laserstrahlrichtung) abgeschätzt. Die maximale Photonenanzahl pro Raumwinkel betrug ~2·10^11 photons/sr. Die Brillanz der registrierten Betatronstrahlung erreichte ~ 2·10^20 photons/s/mm^2/mrad^2/(0.1% BW) bei 10 keV.
Die Verwendung eines Hochstromstrahls aus DLA-Elektronen für die FLASH-Strahlentherapie ermöglicht das Erreichen einer Dosis von bis zu 50-70 Gy während eines sub-ps-Laserpulses. Im Jahr 2021, während der P213-Strahlzeit am PHELIX wurde der Sauerstoffkonzentrationsabfall bei der Bestrahlung von Medien (Wasser und andere biologische Medien) mit DLA-Elektronen in Abhängigkeit von der Dosis untersucht. Die Strahlendosis wurde hierbei indirekt gemessen. Hierfür wurde eine Rekonstruktionsmethode entwickelt, die es ermöglicht, die Dosis innerhalb des „Wasser-Containers“ auf Basis von Messungen außerhalb des Containers mit einem untersuchten Medium zu ermitteln. Es wurde eine gute Übereinstimmung zwischen dem Experiment und einer Monte-Carlo-Simulation für Wasser gezeigt. Die registrierte Dosisrate erreichte einen Rekordwert von ~ 70 TGy/s.
This thesis aims to investigate the properties of hadronic matter by analyzing fluctuations of conserved charges. A transport model (SMASH) is used for these studies to achieve this. The first part of this thesis focuses on examining transport coefficients, specifically the diffusion coefficients of conserved charges and the shear viscosity. The second part investigates equal-time correlations of particle numbers in the form of cumulants. The last chapter studies different aspects of the isobar collision systems Ru and Zr.
As a first step, the hadronic medium and interactions between its constituents are introduced, and simultaneously, their impact on transport coefficients is investigated. The methodology is verified by comparing the results of SMASH with Chapman-Enskog calculations, followed by examining 3-to-1 multi-particle reactions, revealing their influence on shear viscosity and electrical diffusion. The analysis of the full hadron gas considers angle-dependent cross-sections and additional elastic cross-sections via the AQM description, showing significant impacts on transport coefficients. The dependency on the number of degrees of freedom is explored, with noticeable effects on diffusion coefficients but a smaller influence on the shear viscosity. At non-zero baryon chemical potential, the diffusion coefficients are strongly influenced, while the shear viscosity remains unaffected. Overall, the study underscores the importance of individual cross-sections and the modeling of interactions on transport coefficients.
The following chapter explores fluctuations of conserved charges, crucial for understanding phase transitions in heavy-ion collision from the quark-gluon plasma to the hadronic phase. Using SMASH, the impact of global charge conservation on particle number cumulants in subvolumes of boxes simulating infinite matter is studied. Comparisons with simpler systems highlights the influence of hadronic interactions on cumulants, especially via charge annihilation processes and the results from SMASH shows agreement with analytical calculations. Calculations at finite baryon chemical potential reveals a transition from a Poisson to Skellam distribution within the net proton cumulants. It is shown that an unfolding procedure to obtain the net baryon fluctuations from the net proton ones deviates from the actual net baryon result, particularly in larger volumes. Finally, net proton correlations at vanishing baryon chemical potential align with ALICE measurements and the net proton cumulants are unaffected by deuteron formation.
In the next step, the goal is to investigate critical fluctuations in the hadronic medium. Therefore, the hadronic system is initialized with critical equilibrium fluctuations by coupling the hadron resonance gas with the 3D Ising model. The single-particle probability distributions are derived from the principle of maximum entropy. Evolving these distributions in SMASH, their development in an expanding sphere adjusted to experimental conditions can be analyzed. It reveals resonance decay and formations as the primary source that affects the particle cumulants. Because of isospin randomization processes, critical fluctuations are better preserved in net nucleon numbers. However, for the strongest coupling investigated in this work, correlations of the critical field are still present in the final state of the evolution in the net proton fluctuations. Examining cumulant dependence on rapidity windows shows a non-monotonic trend.
In the third part, collisions involving the isobars Ru and Zr are studied at a center-of-mass energy of 200 GeV. Initially, SMASH is used to study the initial conditions to hydrodynamical simulations, emphasizing the importance of the nuclear structure of isobars on the geometry of the collision area. It is found that the deformation parameters notably influence the initial state. Correlations between nucleon-nucleon pairs on eccentricity fluctuations yield no significant effect. Subsequently, the hydrodynamic model vHLLE evolves the previously explored initial conditions and for the transition between the hydrodynamic and kinetic descriptions, the Cooper-Frye formula is used. Usage of the canonical ensemble ensures the exact conservation of the conserved charges B, Q, and S. The neutron skin effect, which changes the charge distribution within Ru nuclei, is additionally considered. Fluctuations are assessed, revealing suppression in large rapidity windows due to global charge conservation. The hadronic phase modifies fluctuations of net pions, net kaons, and net protons via annihilation processes, yet fluctuations remain unaffected by the neutron skin effect.
Im Rahmen der vorliegenden Arbeit werden zum ersten Mal die Ökologie, Morphologie und Systematik von Pilzen untersucht, die assoziiert mit Haut- und Nagelläsionen von ambulanten Patienten sowie von Patienten dermatologischer Praxen in der Provinz Chiriquí im Westen Panamas nachgewiesen wurden. Die Pilze werden klassifiziert nach dem klinischen D-H-SSystem von Rieth und entsprechend ihrer Position im phylogenetischen System der Pilze. Die Morphologie der verschiedenen Arten wird dokumentiert auf der Grundlage von Kulturen und lichtmikroskopischer Untersuchungen durch Beschreibungen sowie Zeichnungen und Fotographien charakteristischer Strukturen. Die Pathogenität der einzelnen Pilzstämme wurde nicht nachgewiesen, sondern auf der Grundlage von Angaben aus der Literatur diskutiert. Außerdem lieferte die Literatur Daten zum Vorkommen der Pilze an Pflanzen und anderen Substraten in der Natur.
In Panama wurden zahlreiche klinische Proben untersucht, von denen ca. 100 Pilzstämme nach Deutschland geschickt wurden. Dort konnten 80 Stämme weiter kultiviert und detailliert untersucht werden. Mehr als 22 verschiedene Arten wurden beobachtet, die 17 verschiedenen Gattungen angehören. Sie entsprechen drei verschiedenen Arten von Dermatophyten, mindestens drei Arten von Hefen und 16 verschiedenen Schimmel- oder sonstigen Pilzarten.
Mit Ausnahme von Hormographiella verticillata wurden ausschließlich imperfekte Stadien beobachtet, und zwar überwiegend von verschiedenen Vertretern der Ascomycota: Dothideales: Scytalidium dimidiatum (6 Stämme), Eurotiales: Aspergillus spp. (4), Paecilomyces lilacinus (2), Penicillium sp. (2), Hypocreales: Fusarium lichenicola (3), F. solani (4), F. subglutinans (1), Microascales: Scopulariopsis brevicaulis (2), Onygenales: Trichophyton mentagrophytes (2), T. rubrum (9), T. tonsurans (7), Ophiostomatales: Sporothrix schenckii (1), Pleosporales: Curvularia geniculata (1), Polystigmatales: Colletotrichum gloeosporioides (1), Sordariales: Nigrospora sphaerica (1), Saccharomycetales: Candida spp. (12), Geotrichum candidum (8), incerte sedis: Pestalotiopsis cf. tecomicola (1), Tritirachium oryzae (1). Vertreter der Basidiomycota sind: Agaricales: Hormographiella verticillata bzw. Coprinellus domesticus (3), Polyporales: Unbekannter Basidiomycet (1), Trichosporonales: Trichosporon cutaneum (6).
Im Rahmen dieser Studie waren Schimmelpilze die am häufigsten bei Haut- und Nagelläsionen angetroffenen Pilze. Unter diesen waren Fusarium-Arten und Scytalidium dimidiatum besonders häufig vertreten. Candida-Arten wurden ebenfalls oft isoliert. Die wichtigste Art unter den Dermatophyten war Trichophyton rubrum. Die prozentualen Anteile der verschiedenen Gruppen entsprechen gut den von anderen Autoren aus anderen Regionen publizierten Ergebnissen. Dies erklärt sich aufgrund der ökologischen Tatsache, dass die Sporen der Schimmelpilze fast überall in der Natur vorhanden sind und diese Pilze viele verschiedene Substrate nutzen können. Candida-Arten gehören zur normalen Flora des Menschen, können aber bei immunodefizienten Patienten, Diabetikern u.a. schwere Haut- und Schleimhautinfektionen, sowie Organerkrankungen verursachen. Dermatophyten sind als Krankheitserreger oberflächlicher Hautmykosen bekannt.
Zum ersten Mal wird das Vorkommen von Hormographiella verticillata in Amerika nachgewiesen. Dieses imperfekte Stadium eines Basidiomyceten hat in Kultur Fruchtkörper gebildet, die als Coprinellus domesticus bestimmt wurden. Damit wurde zum ersten Mal die Anamorph-Teleomorph-Verbindung zwischen diesen beiden Arten festgestellt, die durch eine molekular-phylogenetische Analyse von LSU rDNA (große Untereinheit der ribosomalen DNA) unterstützt wird. Für diese Analyse wurden andere Stämme und Genbank-Daten zum Vergleich herangezogen.
In den Kulturen von H. verticillata entstehen vor der Entwicklung der Fruchtkörper asexuelle sterile Hyphen, die als Ozonium-Stadium bezeichnet werden können. Zum Vergleich wurden Herbarbelege von verschiedenen Arten dieser Gattung bearbeitet. Die Arten sind morphologisch nicht unterscheidbar, weshalb vorgeschlagen wird, nur den Gattungsnamen zur Bezeichnung des entsprechenden Entwicklungsstadiums zu benutzen.
Es war nicht möglich, aufgrund morphologischer Merkmale den Stamm des Unbekannten Basidiomyceten zu bestimmen. Erst eine molekular-phylogenetischer Analyse von LSU rDNA mit Vergleichssequenzen aus der Genbank zeigte, dass der Pilz nahe verwandt ist mit Vertretern der Polyporales.
In der präoperativen Diagnostik fokaler maligner Leberläsionen nimmt die MRT mit Resovist® einen zunehmend höheren Stellenwert ein.
T2 gewichtete TSE- und FS-Sequenzen der Resovist® unterstützten MRT sind dabei sensitiver als die in der präoperativen Diagnostik etablierte CTAP mit Ultravist® 370, einem nichtionischen jodhaltigen Kontrastmittel.
Die visuelle Differenzierung und Charakterisierung fokaler maligner Leberläsionen und deren Abgrenzung vom Leberparenchym in der Resovist® unterstützten MRT kann durch die Analyse der Signalintensitätskurven optimiert werden. Eine effektivere Charakterisierung der fokalen Leberläsionen wirkt sich damit positiv auf die Sensitivität und Spezifität der SPIO verstärkten MRT aus.
Es bleibt daher offen, die Signalintensitäten der primären und sekundären Leberläsionen der hier nicht untersuchten Gewebearten in weiteren Studien zu analysieren.
Desweiteren könnten nachfolgende Untersuchungen das Ziel haben, die Sensitivität und Spezifität der Resovist® unterstützten MRT durch eine Verminderung der Schichtdicke zu verbessern, womit sich die Detektion von Läsionen < 1 cm effektiver gestalten würde.
Partial melting of crustal and mantle rocks under pressure from impedance spectroscopy measurements
(2004)
The purpose of this work is to achieve a better understanding of the physical properties of rocks during partial melting processes. The electrical conductivity of some crustal and upper mantle rocks was measured prior and above the melting under pressure. The variations of the electrical conductivity were compared with the distribution of melt in partially molten rock samples. The electrical conductivity was estimated from the impedance spectroscopy at temperatures between 800 and 1450˚C and at pressures between 0.3 and 2 GPa. These measurements were performed in a piston cylinder apparatus. At temperatures above the melting, samples were equilibrated during a long time and subsequently quenched. Thin sections were prepared and topology, volume fraction and chemical composition of melt was analyzed by using a microprobe. Above the solidus temperature, the electrical conductivity increases for about 1 to 2 orders of magnitude in comparison with non-melted rocks. The "melt effect" seems to reflect the formation of an interconnected network of melt. When a complete melt connectivity is established, the charge transport follows the network of the formed melt films at grain boundaries. Usually, it takes a long time in order to reach a steady state of the electrical resistance in partially molten rocks. Only when a steady state of the electrical resistance is achieved, the bulk conductivity of a sample can be measured properly. The time-independent electrical conductivity were found only after 200 h of annealing time at a desired temperature.
Usually, the measurements of a dihedral angle on grain-liquid interfaces in rocks show that the wetting of grain faces start to develop at temperatures slightly above the solidus temperature. The development of these faces should lead to a continuous melt network even at small melt fractions of few wt.%. This result is not confirmed by our electrical conductivity measurements. The complete interconnection of the melt phase, which was mark by an increase of the electrical conductivity, corresponds to a temperature significantly above the solidus temperature, for at least 30-50˚C. The development of these faces stimulate a significant increase of the electrical conductivity, and corresponds to the occurence of at least 5 wt.% of a melt fraction. This result could be explained by deviations from the textural equilibrium of a melt phase topology in partially molten samples due to heterogeneous grain size distribution, misorientation of grains and anisotropy of the superficial energy of adjacent grain boundaries.
Some mixing models that allow to calculate the electrical conductivity of a composite as a function of a melt fraction were examined and the results of these calculations are discussed.
The experimental results were compared to the conductivity data obtained from magnetotelluric and electromagnetic measurements in the Northern part of mid-Atlantic ridge where a series of magma chambers are presumably located. There is a good agreement between our conductivity values for a melt fraction of 10-13 the conductivity estimated in the Reykjanes ridge zone.
Die künstliche elektrische Stimulation bietet oftmals die einzige Möglichkeit, nicht vorhandene bzw. verloren gegangene motorische sowie sensorische Aktivitäten in gewissem Umfang wieder herzustellen. Im Falle von tauben Patienten wird zur Erlangung von Hörempfindungen die elektrische Stimulation des peripheren auditorischen Systems mit Hilfe von Cochlea- oder Hirnstammimplantaten standardmäßig eingesetzt. Es ist dabei notwendig, natürliche neuronale Entladungsmuster durch die elektrisch evozierten Entladungsmuster nachzubilden. Bei einkanaligen Systemen kann nur die Zeitstruktur des Signals dargeboten werden. Mehrkanalige Systeme bieten hier noch zusätzlich die Möglichkeit auch örtlich selektiv bestimmte Nervenfasergruppen zu stimulieren und damit die Ortsstruktur in den Entladungsmustern zu repräsentieren. So hat es sich gezeigt, dass die Sprachverständlichkeit durch Verwendung von Mehrkanal-Elektroden verbessert werden kann. Grundvoraussetzung hierfür ist die Optimierung der Kanalseparation durch Kleinst-Vielkanalelektroden und der Wahl einer optimalen Codierstrategie des Signals.
Die Codierstrategie ist abhängig von dem jeweiligen spezifischen Einsatzbereich. So gaben z.B. schon Clopton und Spelman (1995) zu bedenken, dass die als selektiv berechnete tripolare (S3) Konfiguration nur für einen bestimmten Stimulationsstrombereich gültig ist. Hinzu kommt es bei simultaner Verwendung benachbarter Kanäle zu schmerzhaften Lautheitssummationen. Ursache hierfür sind einerseits die Überlagerung der durch die Elektroden stimulierten neuronalen Bereiche und andererseits die Wechselwirkungen von Strömen benachbarter Elektrodenkanäle. Diese Effekte führen nicht nur zu einer Verringerung der räumlichen Stimulationsauflösung, sondern auch zu einer Einschränkung der exakten Abbildung der Zeitstruktur innerhalb der einzelnen Stimulationskanäle.
Die Techniken und Grundlagen der elektrischen Stimulation von neuronalem Gewebe mit Kleinst-Vielkanalelektroden sind bisher kaum untersucht worden. Ziel dieser Arbeit war es, ein mathematisches Modell zu implementieren und Qualitätsparameter zu definieren, mit deren Hilfe die Verteilung des elektrischen Feldes und die daraus resultierende neuronale Erregung beschrieben und optimiert werden kann. Zur Verifizierung des Modells sollten Methoden und Techniken entwickelt werden, die eine hochauflösende Abtastung der elektrischen Felder und Messung der neuronalen Daten innerhalb eines Messsystems ermöglichen.
Bei der neuronalen Stimulation mit Kleinst-Vielkanalelektroden ergibt sich eine Reihe von Problemen grundsätzlicher Art. So werden bei elektrodenferner Stimulation größere Stimulationsströme benötigt als bei elektrodennaher Stimulation, wobei für den Strombedarf die Stimulationskonfiguration eine entscheidende Rolle spielt: Der S1 Stimulationsmodus benötigt weniger Strom zur Erreichung großer Stimulationstiefen als der S2 Stimulationsmodus. Der größte Strom wird mit zunehmendem Elektrodenabstand gleichermaßen von dem S3 und S7 Stimulationsmodus benötigt. Gleichzeitig verfügen Kleinst-Vielkanalelektroden bauartbedingt aber nur über kleine Elektrodenkontaktoberflächen und lassen daher auf Grund der kritischen Feldstärke nur geringe Stimulationsströme zu.
Ein weiteres Problem besteht bei diesen Kleinst-Elektrodendimensionen in der konkreten Lage der Neurone an denen eine neuronale Erregung evoziert wird. Die Dimension der Kleinst-Vielkanalelektroden liegt bei einem Elektrodenkanalkontaktdurchmesser von 70 µm bereits in der Größenordnung der zu stimulierenden Neurone mit einem Durchmesser von 10 bis 15 µm. Dies macht sich bei den Messungen besonders dann deutlich bemerkbar, wenn nicht der Stimulationsstrom die Größe des überschwelligen Bereichs modelliert, sondern wenn der Elektrodenkanalabstand durch die Wahl der entsprechenden Elektrodenkanäle verändert wird. Hier weisen zwar die meisten neuronalen Antworten noch in die sich aus dem Modell ergebende Richtung, jedoch kommt es zu einer höheren Streuung der Ergebnisse als bei Messungen mit der Folienelektrode, die eine Kontaktfläche von 170 µm besitzt.
Es gibt also eine Reihe von begrenzenden Faktoren bei der optimalen Dimensionierung der Stimulationselektrode, die sowohl abhängig von der physiologischen Topologie ist als auch von den eingesetzten Stimulationskonfigurationen. Es ist also zur Stimulation die Wahl der optimalen Codierstrategie und die richtige Dimensionierung der Stimulationselektrode sowie der Elektrodenkanalabstände von entscheidender Bedeutung.
Die neuronalen Messungen wurden erstmalig für diese Fragestellung am Hirnschnitt durchgeführt, da sie, im Gegensatz zu in-vivo Versuchen, eine exakte Positionierung der Elektroden auf dem Hirnschnitt unter Sichtkontrolle durch das Mikroskop erlauben. Es wurden aus den neuronalen Messungen die Amplituden und Latenzen der exzitatorischen postsynaptischen Potenziale (EPSP) sowie der Feldpotenziale ausgewertet.
Der Versuchsaufbau macht es möglich, die Potenzialfelder mit genau den Konfigurationen abzutasten, mit denen auch die neuronalen Messungen des Hirnschnittes durchgeführt wurden. Das implementierte Programm zur Berechnung der Feldverteilung besitzt zum Messprogramm ein Interface, so dass es möglich ist, die Einstellungen des Experimentes, wie Stimulationskonfigurationen, Abtastraster des Feldes und die Koordinaten des Messraums, in der Modellrechnung zu verwenden. Somit ist ein direktes Vergleichen zwischen Messung und Berechnung möglich. In nachfolgenden Arbeiten können die vorliegenden Ergebnisse als Grundlage für in-vivo Versuche eingesetzt werden.
Zur Durchführung der Messungen wurden sehr kleine Elektroden aus eigener Herstellung verwendet und es wurden uns freundlicherweise neu entwickelte Folienelektroden des Fraunhofer Instituts St. Ingbert zur Verfügung gestellt. Die Größe der verwendeten Kleinst-Vielkanalelektroden aus eigener Herstellung lag um ca. eine Zehnerpotenz unter den aktuell eingesetzten Elektrodentypen und ist speziell für den direkten Kontakt zwischen Elektrode und Gewebe konzipiert. Dies entspricht dem typischen Einsatzbereich von Hirnstammimplantaten. Dies ist auch notwendig, um eine maximale räumliche Separation der erzeugten Felder zu ermöglichen. Außerdem erlaubte das Elektrodendesign auf Grund der hohen Anzahl der Elektrodenkanäle und durch variieren der Konfigurationen die Feldrichtung zu bestimmen, ohne die Elektrode neu auf den Hirnschnitt aufsetzen zu müssen.
Der in dieser Arbeit implementierte Algorithmus zur Berechnung der Feldverteilungen und die eingeführten Qualitätsparameter erlauben, die unterschiedlichen Stimulationskonfigurationen miteinander zu vergleichen und zu optimieren. Die Ergebnisse aus diesen Modellrechnungen wurden sowohl mit den Messungen der elektrischen Felder als auch mit den Ergebnissen aus den neuronalen Antworten verglichen.
Der im Rahmen dieser Arbeit erstellte Versuchsaufbau bestand aus einer über mehrere Mikromanipulatoren getriebene mikrometergenaue Positioniereinrichtung. Es konnten sowohl die Stimulationselektrode als auch die Elektrode zur Aufzeichnung der neuronalen Daten gesteuert werden. Die Steuerung des gesamten Setup, d.h. die Positionierung, die Aufzeichnung der neuronalen Daten und die Generierung der Stimulationsmuster wurde über den zentralen Messrechner durch ein hierfür entwickeltes Computerprogramm gesteuert. Die Versuche wurden über ein inverses Mikroskop durch eine CCD-Kamera aufgezeichnet.
Der entscheidende Vorteil des in dieser Arbeit gewählten Modellansatzes besteht in der grundsätzlichen Beschreibung der Feldverteilung bei vielkanaliger Stimulation, so dass diese auch auf andere Elektrodenformen bzw. Konfigurationen und Dimensionen übertragbar ist. Es lassen sich so den verschiedenen Konfigurationen nach bestimmten Qualitätskriterien bewerten und an die jeweilige Zielrichtung der Stimulation anpassen. Die berechneten Felder konnten erfolgreich in der Messeinrichtung generiert und nachgemessen werden. Außerdem ist es gelungen, differenzierte neuronale Aktivitäten auszuwerten, welche die Aussagen des Modells abstützen.
Chemieunterricht in der Schule wird von Schülerinnen und Schülern in weiten Bereichen als schwer verstehbar, für das Alltagsleben als unnütz und wenig motivierend erlebt. Dies hat zur Folge, dass der Chemieunterricht von einer großen Zahl Lernender in der Oberstufe abgewählt wird. Dabei wird bewusst die Bedeutung der Chemie für die Industriegesellschaft ignoriert und die Konsequenz des Nachwuchsmangels nicht ernst genommen.
Bei der Suche nach Lösungsansätzen aus der Krise des schulischen Chemieunterrichts gibt es viele Ansätze, die sich seit einigen Jahrzehnten mit der Kontextorientierung und der Erschließung neuer Felder für den Chemieunterricht befasst haben und befassen. Ausgehend von Themen, deren Bedeutung für das Individuum und die Gesellschaft einen hohen Stellenwert haben, wird der Chemieunterricht mehr an die Lebenswelt der heranwachsenden Generation angepasst. Diese Vorgaben sind in der vorliegenden Arbeit einbezogen worden und haben das Thema HIV für den Chemieunterricht der gymnasialen Oberstufe als sinnvoll erscheinen lassen.
Vor dem Hintergrund der kognitionspsychologischen Erkenntnisse der vergangenen fünfzehn Jahre ist ein Weg der Unterrichtsgestaltung gewählt worden, mit dem die Selbständigkeit der Lernenden unterstützt, gefördert und weiterentwickelt werden kann. Kognitionspsychologische Untersuchungen der Eingangskanäle bei Lernvorgängen stellen die hohe Bedeutung mehrer Sinnesmodalitäten in den Vordergrund, durch die eine verbesserte Behaltensleistung erzielbar ist. Nach diesen Erkenntnissen kann Wissen nur dann als aktives Wissen in neuen Zusammenhängen eingesetzt werden, wenn Lernern die Möglichkeit geboten wird ihr individuelles Gedankengebäude zu konstruieren. Besonders effizient sind nach diesen Untersuchungen kombinierte Sinnesmodalitäten mit guter Behaltensleistung bei der Nutzung von Sprache, Text und Bewegtbildern. Hier gilt die alte Erkenntnis "ein Bild sagt mehr als tausend Worte" auch im übertragenem Sinne. Besonders die konstruktivistischen Überlegungen für den Vorgang des Wissensaufbaus wurden in dieser Arbeit berücksichtig.
Diese Forschungsergebnisse waren ein Grund für die multimediale Aufbereitung des Themas. Hoher Verbreitungsgrad, gesellschaftliche Bedeutung und Motivation durch Multimedia sind weitere Gründe für diese Entscheidung.
Sowohl curriculare als auch gesellschaftliche Entwicklungen fordern darüber hinaus das Denken in vernetzten Systemen, dies bedeutet ein über die Grenzen des Fachs Chemie hinausgehendes Planen und Realisieren von Unterricht. Mit der Themenwahl werden direkt die Fächer Chemie und Biologie angesprochen, Fächer wie Kunst, Religion, Ethik, Sozialkunde und Sprachen können einbezogen werden. Mit dem der Unterrichtseinheit, die von fünf Kursen mit insgesamt 60 Schülerinnen und Schülern erprobt wurde, zu Grunde liegenden Programm zum Thema HIV verknüpfen sich die Fragen:
* Ist der Einsatz von Computern als Medium bereits die Norm?
* Welche medialen Angebote werden schulisch/außerschulisch genutzt?
* Welche Informationsquellen werden verwendet?
* Welche Medien sind für die Testpersonen beim Lernprozess bedeutend?
* Wird die Lehrperson bei dem Einsatz der modernen Medien ersetzt?
* Fördert das Projekt die Selbstbestimmung beim Lernprozess?
* Welche Effekte hat das multimediale Projekt auf den Lernprozess?
* Welche Probleme treten beim Umgang mit dem verwendeten Programm auf?
Diese Punkte wurden mit einem Fragebogen vor und einem nach der Durchführung des Projektes bearbeitet...
The equation of state (EoS) of matter at extremely high temperatures and densities is currently not fully understood, and remains a major challenge in the field of nuclear physics. Neutron stars harbor such extreme conditions and therefore serve as celestial laboratories for constraining the dense matter EoS. In this thesis, we present a novel algorithm that utilizes the idea of Bayesian analysis and the computational efficiency of neural networks to reconstruct the dense matter equation of state from mass-radius observations of neutron stars. We show that the results are compatible with those from earlier works based on conventional methods, and are in agreement with the limits on tidal deformabilities obtained from the gravitational wave event, GW170817. We also observe that the resulting squared speed of sound from the reconstructed EoS features a peak, indicating a likely convergence to the conformal limit at asymptotic densities, as expected from quantum chromodynamics. The novel algorithm can also be applied across various fields faced with computational challenges in solving inverse problems. We further examine the efficiency of deep learning methods for analyzing gravitational waves from compact binary coalescences in this thesis. In particular, we develop a deep learning classifier to segregate simulated gravitational wave data into three classes: signals from binary black hole mergers, signals from binary neutron star mergers, or white noise without any signals. A second deep learning algorithm allows for the regression of chirp mass and combined tidal deformability from simulated binary neutron star mergers. An accurate estimation of these parameters is crucial to constrain the underlying EoS. Lastly, we explore the effects of finite temperatures on the binary neutron star merger remnant from GW170817. Isentropic EoSs are used to infer the frequencies of the rigidly rotating remnant and are noted to be significantly lower compared to previous estimates from zero temperature EoSs. Overall, this thesis presents novel deep learning methods to constrain the neutron star EoS, which will prove useful in future, as more observational data is expected in the upcoming years.
Die bisher bekannten Cranialfragmente umfassen chronologisch den Zeithorizont der Eisenzeit (Hallstatt- und Latènezeit), die im nördlichen Mittelrheingebiet als stark regional geprägte Hunsrück – Eifel – Kultur bezeichnet wird. Absolutchronologisch datieren die perforierten Fragmente in die Zeit vom 8./ 7. Jh. v. Chr. bis in das 1 Jh. v. Chr.
Mit den Cranialfragmenten im Untersuchungsgebiet lässt sich ein eisenzeitlicher Schädelkult fassen, der bisher, durch die besondere Fundüberlieferung, nur auf die Region des nördlichen Mittelrheingebietes beschränkt scheint. Eine Häufung der Funde um das keltische Hengeheiligtum „Goloring“ im Landkreis Mayen – Koblenz als Zentrum der östlichen Hunsrück – Eifel – Kultur ist dabei klar erkennbar.
Sämtliche bisher bekannten Stücke stammen aus Siedlungsgruben eisenzeitlicher Gehöfte. Nach dem archäologischen Befund wurden die Stücke nach ihrer Verwendung im Sohlenbereich der Gruben deponiert.
Die bei den archäologischen Untersuchungen entdeckten Fragmente bestehen aus Einzelsegmenten oder größeren Teilen des menschlichen Schädels. Nach dem Befund wurden ausschließlich nur alte, schon skelettierte Schädel verwendet, die bereits längere Zeit im Sediment lagen und möglicherweise regulären Bestattungen entnommen wurden.
Sämtliche Stücke weisen als besondere Eigenart dieser Fundgruppe eine Lochung zur Aufhängung und Befestigung auf. Nach dem Befund konnte eine Aufhängung mit Riemen sowie eine Befestigung mit Eisendorn festgestellt werden. Weiterhin sind die Stücke sekundär modifiziert und manipuliert und lassen Schliff- und Schnittspuren, sowie Polituren erkennen. Die Schnittspuren wie auch die Lochungen wurden wahrscheinlich mit Steinwerkzeugen eingebracht. Die Schliffspuren finden sich besonders an den Rändern und Bruchkanten und lassen eine eindeutige sekundäre, postmortale Behandlung erkennen. Oft zeigen die Ränder zudem Schlagspuren einer groben Zurichtung.
Typologisch lässt sich eine Entwicklung fassen, die in der späten Urnenfelderzeit (Ha B) mit echten Trepanationsscheiben ihren Anfang hat. In der frühen Eisenzeit (Laufelder Gruppe im Mittelrheingebiet; Ha C) entstehen in Anlehnung an die Trepanationsscheiben gelochte und modifizierte Knochenscheiben bzw. Rondelle, die schon aus bereits skelettierten Schädeln entnommen wurden. In der älteren Hunsrück – Eifel – Kultur (Hallstattzeit; Ha D) wurden in der Regel größere Schädelteile und Segmente des Craniums perforiert und modifiziert. Während der darauf folgenden jüngeren Hunsrück – Eifel – Kultur (Latènezeit; Lt A/B) finden Schädelcalotten, halbe Schädel sowie größere Teile mit Os frontale oder Occipitale Verwendung. Aus der Mittellatènezeit (Lt C) liegt ein vollständiges Viscerocranium mit Lochung vor. In der späten Eisenzeit (Spätlatènezeit; Lt D) werden dann vollständige Schädel gelocht und modifiziert. Anhand der Typologie ist eine Entwicklung von medizinischen Schaustücken (Trepanationsscheiben) mit Amulettcharakter zu einem ausgeprägten Ahnen – bzw. Reliquienkult zu beobachten. Mit der frühen Hallstattzeit (Laufelder Gruppe; Ha C) wird ausschließlich schon skelettiertes Knochenmaterial verwendet.
Die anthropologische Untersuchung der auswertbaren Cranialfragmente ergab nach den Merkmalen am Schädel tendenziell mehr männliche Individuen. Das biologische Lebensalter lag nach den auswertbaren Charakteristika hauptsächlich in den Altersstufen adult bis matur und in Einzelfällen darüber. Es handelt sich um eine Altersgruppe, die in den regulären Nekropolen deutlich unterrepräsentiert ist, aber bei den Cranialfragmenten in den Siedlungen die Masse der Funde darstellt. Juvenile Individuen fehlen im Fundbestand bisher vollständig. Nach anthropologischen Kriterien handelt es sich bei fast allen Stücken um Langschädel mit dolichokranen Merkmalen.
Nach den Ergebnissen lässt sich der prähistorische Schädelkult an Mittelrhein und Mosel als ein ausgeprägter Ahnenkult charakterisieren. Die perforierten Cranialfragmente machen im Gegensatz zu anderen Regionen eine eigene Entwicklung bis zur Zeitenwende durch. Vereinzelte Parallelen zu den Funden im Mittelrheingebiet sind aus dem gesamten Verbreitungsgebiet der eisenzeitlich – keltischen Latènekultur bekannt. Zudem geben die antiken Autoren ebenfalls Hinweise auf eine solche Kultausprägung. Die Behandlung der Schädel in der Eisenzeit lässt auch rezente, ethnographische Parallelen zu den Inselkulturen Ozeaniens und Südostasiens erkennen.