Universitätspublikationen
Refine
Year of publication
Document Type
- Part of Periodical (2877)
- Article (2282)
- Contribution to a Periodical (2161)
- Book (2027)
- Doctoral Thesis (1741)
- Review (927)
- Report (608)
- Working Paper (440)
- Part of a Book (196)
- Conference Proceeding (182)
Language
- German (14018) (remove)
Keywords
- Deutschland (99)
- Financial Institutions (44)
- Forschung (40)
- Ausstellung (39)
- Islamischer Staat (39)
- Digitalisierung (38)
- Frankfurt am Main (36)
- Terrorismus (36)
- Frankfurt <Main> / Universität (35)
- USA (34)
Institute
- Präsidium (5057)
- Medizin (1514)
- Gesellschaftswissenschaften (1066)
- Rechtswissenschaft (742)
- Neuere Philologien (653)
- Wirtschaftswissenschaften (644)
- Geschichtswissenschaften (630)
- Biochemie und Chemie (542)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (523)
- Kulturwissenschaften (465)
- Physik (429)
- Universitätsbibliothek (376)
- Institut für Wirtschaft, Arbeit, und Kultur (IWAK) (363)
- Biowissenschaften (353)
- Sustainable Architecture for Finance in Europe (SAFE) (334)
- Erziehungswissenschaften (319)
- Sprach- und Kulturwissenschaften (219)
- Evangelische Theologie (206)
- Geographie (184)
- Institut für sozial-ökologische Forschung (ISOE) (160)
- Biochemie, Chemie und Pharmazie (153)
- Psychologie (148)
- Sprachwissenschaften (146)
- Pharmazie (137)
- Informatik (131)
- Philosophie (127)
- Center for Financial Studies (CFS) (125)
- Sportwissenschaften (112)
- Geowissenschaften (107)
- House of Finance (HoF) (101)
- E-Finance Lab e.V. (89)
- Mathematik (71)
- Katholische Theologie (58)
- Psychologie und Sportwissenschaften (58)
- Geowissenschaften / Geographie (55)
- Philosophie und Geschichtswissenschaften (55)
- MPI für Biophysik (46)
- Cornelia Goethe Centrum für Frauenstudien und die Erforschung der Geschlechterverhältnisse (CGC) (45)
- Institut für Sozialforschung (IFS) (42)
- Informatik und Mathematik (41)
- Institute for Law and Finance (ILF) (40)
- Hessische Stiftung für Friedens- und Konfliktforschung (HSFK) (38)
- Institute for Monetary and Financial Stability (IMFS) (35)
- Fachübergreifend (33)
- Gleichstellungsbüro (33)
- Europäische Akademie der Arbeit in der Universität Frankfurt am Main (31)
- Zentrum für Weiterbildung (25)
- studiumdigitale (24)
- Hochschulrechenzentrum (23)
- Sonderforschungsbereiche / Forschungskollegs (22)
- Georg-Speyer-Haus (20)
- Frobenius Institut (19)
- Interdisziplinäres Zentrum für Ostasienstudien (IZO) (18)
- Akademie für Bildungsforschung und Lehrerbildung (bisher: Zentrum für Lehrerbildung und Schul- und Unterrichtsforschung) (17)
- Institut für Ökologie, Evolution und Diversität (17)
- Museum Giersch der Goethe Universität (17)
- Sigmund-Freud Institut – Forschungsinstitut fur Psychoanalyse und ihre Anwendungen (17)
- Forschungskolleg Humanwissenschaften (16)
- Starker Start ins Studium: Qualitätspakt Lehre (16)
- Universität des 3. Lebensalters e.V. (16)
- Centre for Drug Research (15)
- LOEWE-Schwerpunkt Außergerichtliche und gerichtliche Konfliktlösung (14)
- Zentrum für Interdisziplinäre Afrikaforschung (ZIAF) (14)
- Biodiversität und Klima Forschungszentrum (BiK-F) (11)
- Extern (11)
- Zentrum für Nordamerika-Forschung (ZENAF) (11)
- Senckenbergische Naturforschende Gesellschaft (8)
- Exzellenzcluster Makromolekulare Komplexe (7)
- Forschungszentrum Historische Geisteswissenschaften (FHG) (7)
- Fritz Bauer Institut (7)
- keine Angabe Institut (7)
- Deutsches Institut für Internationale Pädagogische Forschung (DIPF) (6)
- Zentrum für Hochschulsport (ZfH) (6)
- Frankfurt Institute for Advanced Studies (FIAS) (5)
- MPI für Hirnforschung (5)
- Buchmann Institut für Molekulare Lebenswissenschaften (BMLS) (3)
- Center for Scientific Computing (CSC) (3)
- Institut für Religionsphilosophische Forschung (3)
- Internationales Studienzentrum (3)
- Schreibzentrum (3)
- Zentrale Einrichtung (3)
- Akademie für Bildungsforschung und Lehrkräftebildung (2)
- Exzellenzcluster Herz-Lungen-System (2)
- Zentrum für Arzneimittelforschung, Entwicklung und Sicherheit (ZAFES) (2)
- Zentrum für Biomolekulare Magnetische Resonanz (BMRZ) (2)
- (1)
- GRADE - Goethe Research Academy for Early Career Researchers (1)
- Institut für Bienenkunde (1)
- Katholische Hochschulgemeinde (KHG) (1)
- SFB 268 (1)
- Wilhelm-Merton-Zentrum (1)
- Zentrum zur Erforschung der Frühen Neuzeit (Renaissance-Institut) (1)
Finanzielle Armut prägt Mobilitätspraktiken und kann dabei zum Prozess von mobilitätsbezogener sozialer Exklusion beitragen. Zu den Personen, deren Armutsrisiko besonders hoch ist, zählen in Deutschland Haushalte mit Kindern, insbesondere Alleinerziehende. Ältere Menschen haben nicht die höchste Armutsgefährdung, jedoch besteht bei ihnen das Risiko von Verharrung in Armut, da die Möglichkeiten, die finanzielle Situation aus eigener Kraft zu ändern mit zunehmendem Alter sinken.
Um ein tieferes Verständnis davon zu erhalten, wie finanzielle Armut die Mobilitätspraktiken und soziale Teilhabe von Haushalten mit Kindern sowie älteren Menschen prägt, wurden mit diesen beiden Personengruppen problemzentrierte Interviews in Ronnenberg (Region Hannover) geführt und analysiert. Die Ergebnisse belegen, dass, wenngleich alle Befragten mit ähnlich geringen finanziellen Ressourcen haushalten und Verzicht sowie Abwägungsprozesse notwendig sind, sich ihre Mobilitätspraktiken und Alltagsbewältigungsstrategien unterscheiden, was sich in zwei Typologien widerspiegelt. Erstens, eine Typologie der Mobilitätspraktiken von Haushalten mit Kindern: (i) autozentriert, (ii) autoreduziert, (iii) ÖPNV-orientiert und (iv) nichtmotorisiert. Zweitens, eine Typologie älterer Menschen anhand ihrer Mobilitätspraktiken: (i) aktive ältere Menschen mit vielseitigen sozialen Interaktionen, (ii) nachbarschaftsorientierte ältere Menschen mit lokalen Kontakten und (iii) ältere Menschen, die überwiegend zu Hause sind und wenig soziale Kontakte haben.
Um herauszufinden, inwiefern mobilitätsbezogene Barrieren der sozialen Teilhabe reduziert werden können, wurden fünf Maßnahmen bezüglich ihrer Wirkung auf die Mobilitätspraktiken einkommensarmer Haushalte mit Kindern untersucht: einerseits die Wirkung des 9-Euro-Tickets anhand von problemzentrierten Interviews mit einkommensarmen Haushalten mit Kindern, andererseits anhand von Expert:inneninterviews die Wirkung von Radlernkursen für Frauen mit Migrationshintergrund, eines Mietertickets, eines Quartierstickets und der Verbesserung der Nahraum- und Aufenthaltsqualität am Beispiel von Tempo 30. Die Ergebnisse zum 9-Euro-Ticket belegen, dass ein erschwingliches ÖPNV-Ticket erheblich zur Reduzierung mobilitätsbezogener Barrieren der sozialen Teilhabe im Armutskontext beiträgt. Die Expert:inneninterviews zeigen auf, dass eine Förderung des Umweltverbunds zielführend ist, um zu einer sozial-ökologischen Verkehrswende beizutragen und insbesondere Maßnahmenbündel Wirkung auf die Reduzierung von mobilitätsbezogenen Barrieren der sozialen Teilhabe entfalten.
Die Erkenntnisse dieser Dissertation ergänzen den wissenschaftlichen Forschungstand um ein tiefergehendes Verständnis der Wirkung von finanzieller Armut auf die Mobilitätspraktiken und soziale Teilhabe von Haushalten mit Kindern und älteren Menschen und helfen dabei, Maßnahmen zur Reduzierung mobilitätsbezogener Barrieren der sozialen Teilhabe zu konzipieren und umzusetzen.
Die vorliegende Arbeit beschreibt die Entwicklung eines interaktionalen Simulationsmodells zum späteren Einsatz in der VR-Simulation Clasivir 2.0 (Classroom Simulator in Virtual Reality), welche in der Lehrkräftebildung eingesetzt werden soll. Das Clasivir-Simulationsmodell wurde im Rahmen eines Prototyps implementiert und zwei anderen Simulationsmodellen in einem Fragebogen entgegengestellt. Ein Simulationsmodell beschreibt im Kontext einer digitalen Schulunterrichtssimulation, wie sich SuS in der Simulation verhalten.
Die drei Simulationsmodelle wurden über zwei unterschiedliche Typen von Video-Visualisierungen, genannt Mockup-Videos, dargestellt: Zum einen über eine 2D-Darstellung aus Vogelperspektive, zum anderen über eine 3D-Darstellung, in welcher 3D-Modelle von SuS animiert wurden. Bei dem realen Simulationsmodell handelt es sich um eine Übertragung einer authentischen Videoaufzeichnung von Unterricht einer hessischen Realschule in 2D/3D-Visualisierungen. Im randomisierten Simulationsmodell führen SuS ihre Verhalten zufällig aus. Alle Modelle basieren auf zweisekündigen Intervallen. Im Falle des realen Simulationsmodells wurde dies durch Analyse aller beobachtbaren einundzwanzig SuS gewonnen, im Falle des Clasivir-Simulationsmodells wurden die Vorhersagen des Simulationsmodells übertragen. Das Simulationsmodell von Clasivir basiert auf behavior trees, stellt eine Art von künstlicher Intelligenz dar und modelliert das SuS-Verhalten größtenteils in Abhängigkeit von Lehrkrafthandlungen. Die Entwicklung des interaktionalen Simulationsmodells von Clasivir ist eine Kernkomponente dieser Arbeit. Das Simulationsmodell basiert auf empirischen Ergebnissen aus den Bereichen der Psychometrie, der pädagogischen Psychologie, der Pädagogik und Ergebnissen der Simulations-/KI-Forschung. Ziel war die Entwicklung eines Modells, das nicht nur auf normativen Vorhersagen basiert, sondern empirisch und theoretisch valide ist. Nur wenige Simulationsmodelle in Unterrichtssimulationen werden mit dieser Art von Transparenz beschrieben, was eines der Alleinstellungsmerkmale dieser Arbeit ist. Es wurden Anstrengungen unternommen die vorliegenden empirischen Ergebnisse in einen kausalen Zusammenhang zu bringen, der mathematisch modelliert wurde. Im Zentrum steht die Konzentration von SuS, welche Ein uss auf Stör-, Melde- und Antwortverhalten hat. Diese Variable wird durch andere situative und personenbezogene Variablen (im Sinne von traits) ergänzt. Wo keine direkten empirischen Ergebnisse vorlagen wurde versucht plausibles Verhalten anhand der Übertragung von Konzeptionsmodellen zu gewinnen.
Da die bisherige Verwendung der angrenzenden Begriffe rund um die Simulationsentwicklung bislang sehr inkonsistent war, wurde es notwendig diese Termini zu definieren. Hervorzuheben ist die Entwicklung einer Taxonomie digitaler Unterrichtssimulationen, die so bislang nicht existierte. Anhand dieser Taxonomie und der erarbeiteten Fachtermini wurden Simulationen in der Lehrkräftebildung auf ihre Modellierung des Simulationsmodells hin untersucht. Die Untersuchung der Simulationen simSchool und VCS war, da sie einen verwandten Ansatz zu Clasvir verfolgen, besonders ergiebig.
Nach der Generierung der Mockup-Videos wurden N=105 Studierende, N=102 davon Lehramtsstudierende, aufgefordert, in einem Online-Fragebogen zwei der Simulationsmodelle miteinander zu vergleichen. Lehramtsstudierende wurden ausgewählt, da sie die Zielgruppe der Simulation sind. Welche Modelle die Partizipantinnen verglichen, war abhängig von der Gruppe der sie zugeteilt wurden. Hierbei wurde neben den Simulationsmodellen auch die visuelle Darstellung variiert. Insbesondere wurden die Partizipantinnen darum gebeten, den Fidelitätsgrad des Simulationsmodells, also den Maßstab, wie realistisch die Partizipantinnen das Verhalten der SuS in der Simulation fanden, zu bewerten. Inferenzstatistisch bestätigte sich, dass Partizipantinnen keinen Unterschied zwischen dem realen Simulationsmodell und dem Clasivir-Simulationsmodell erkennen konnten (t=1.463, df=178.9, p=.1452), aber das randomisierte Simulationsmodell mit einer moderaten Effektstärke von d=.634 als signifikant schlechter einschätzten (t=-2.5231, df=33.581, p=.008271). Die Art der Darbietung (2D oder 3D) hatte keinen statistisch signifikanten Einfluss auf die wahrgenommene Schwierigkeit der Bewertung (z=1.2426, p=.107). Damit kann festgestellt werden, dass eine komplexe und zeitintensive 3D-Visualisierung eines Simulationsmodells bei noch nicht vorliegender Simulation nicht erforderlich ist. Das Clasivir-Simulationsmodell wird als realistisch wahrgenommen. Es kann damit empfohlen werden, es in der VR-Simulation zu verwenden.
Im Ausblick werden bereits während des Schreibens der Arbeit gemachte Entwicklungen beschrieben und Konzepte zum weiteren Einsatz der Ergebnisse entwickelt. Es wird darauf verwiesen, dass eine erste Version eines VR-Simulators entwickelt wurde (Clasivir 1.0), der jedoch rein deterministisch funktioniert und noch nicht das in dieser Arbeit entwickelte Simulationsmodell inkludiert.
Diese Arbeit hatte das Ziel, die Größe einer DVT-Aufnahme (FOV) mit der Größe der durch die Indikationsstellung definierten Region (ROI) zu vergleichen. Durch eine speziell dafür entwickelte Software sollten Messungen in den Datensätzen ermöglicht werden. Die dazu verwendeten 332 Datensätze wurden zufallsverteilt aus den mit einem Orthophos SL-3D DVT-Gerät der Firma Dentsply Sirona in der Poliklinik für zahnärztliche Chirurgie und Implantologie des ZZMK (Carolinum) in Frankfurt angefertigten Röntgenaufnahmen selektiert.
Es wurde die Auswertungssoftware ExRoi entwickelt, mit der die Werte des axialen Durchmessers, die Höhe (vertikale Dimension) sowie die Distanz der Mittelpunkte von FOV und ROI direkt in den Datensätzen bestimmt werden konnten. Zusätzlich wurde festgehalten, welche rechtfertigenden Indikationen gestellt und welche Auflösungsmodi verwendet wurden.
Die Stichprobe bestand aus Aufnahmen mit einem axialen Durchmesser von 8 cm [VOL 1] (n= 76, entsprechend 46,39%), 5 cm Durchmesser [VOL 2] (n = 102, entsprechend 30,72%) und 11 cm Durchmesser [VOL 3] (n= 154, entsprechend 22,89%). 95,18% der Aufnahmen wurden im HD-Modus mit laut Herstellerangaben vier Mal so vielen Aufnahmen im Vergleich zum SD-Modus angefertigt. Hauptindikationen waren Implantat Planung (45,1%) und Planungen komplizierter Zahn-Extraktionen (25,5%).
Die Messungen zum Vergleich des axialen Durchmessers zeigten, dass bei Verwendung des VOL 2 die ROI im Mittel den größten Anteil der FOV nutzt (78,52 %), den kleinsten Anteil nutzt durchschnittlich VOL 1 (56,04 %). Dazwischen liegt VOL 3 (69,12 %). In der Vertikalen nutzt die ROI von VOL 3 mittelwertig den größten Anteil der FOV (81,87 %), den kleinsten Mittelwert hat VOL 1 (58,76 %). VOL 2 liegt zwischen diesen Werten (64,47 %).
In allen Fällen war das FOV größer als die ROI und die ROI lag im Bereich des gewählten FOV.
Die Mittelpunkte von FOV und ROI lagen im Mittel in der axialen Ebene in Abhängigkeit vom gewählten Volumen um rund 9-13 mm auseinander, in der coronalen und sagittalen Ebene um rund 5-6mm.
Aus diesen Ergebnissen kann für das verwendete Gerät eine gute Trefferquote für die ROI abgeleitet werden. Höhe und Durchmesser des FOV hätten in den meisten Fällen kleiner gewählt werden können, liegen aber angesichts der vorhandenen Auswahl-Optionen des Röntgengeräts zur Dimensionierung der Volumina in einem akzeptablen Bereich.
In Deutschland leidet ca. jeder zehnte Mensch über 40 Jahren an einer chronischen Einschränkung seiner Nierenfunktion. Nicht wenige davon sind im Laufe der Erkrankung auf eine Nierenersatztherapie angewiesen. Die Ursachen für eine Nierenschädigung sind vielfältig. Als neuartiger und vielversprechender Therapieansatz werden aktuell Mesenchymale Stamm-/Stromazellen (MSC) als Therapeutikum für diverse Nierenerkrankungen getestet. Erste Ergebnisse klinischer Phase-I-Studien zeigen, dass MSC sicher als Immunsuppressivum nach Nierentransplantation angewendet werden können. Auch für weitere Erkrankungen der Niere sind erste klinische Studien am Laufen. MSC gelten als regenerativ, immunsupprimierend und antientzündlich. Dennoch gibt es noch einige Limitationen. Nach der Transplantation der Zellen ist das Wachstum der Zellen oft eingeschränkt und es kommt zur vermehrten Apoptose. Auch wird immer wieder ein paradoxes und entzündungsförderndes Verhalten der MSC am Wirkort beobachtet. Ein wichtiger Lösungsansatz ist eine in vitro Vorbehandlung der MSC zur Modulierung der zellulären Eigenschaften. In dieser Arbeit wurden drei Substanzen und Arzneimittel auf ihre Fähigkeit untersucht, die entzündungshemmenden Eigenschaften der MSC zu verbessern und die entzündungsfördernden zu unterdrücken. Der Fokus lag hierbei auf dem Arzneimittel Niclosamid und den beiden bisher noch nicht zugelassenen Substanzen Berberin und Gedunin, die alle in vitro und in vivo bereits erste vielversprechende antientzündliche Wirkungen bewiesen haben. Für diese Arbeit wurden MSC aus Fettgewebe isoliert (ASC) und mit LPS oder einem Cytokin-Mix (Mischung aus TNF-α, IFN-γ und IL-1β) sowie den drei Substanzen stimuliert. Untersucht wurden im Anschluss die mRNA-Expressionen der gängigsten proinflammatorischen (TNF-α, IL-6, TLR-4, ICAM-1, HLA-DR) und antiinflammatorischen Marker (IDO, IL-10), sowie mittels ELISA die Protein-Freisetzung von IL-6 und IL-8. Die vielversprechendsten Ergebnisse ließen sich durch Berberin hervorrufen. Hier zeigte sich eine deutliche Senkung der IL-8-Konzentration im ELISA. Die Anwendung des Gedunin hatte keine signifikante Wirkung auf die ASC. Niclosamid hingegen scheint widererwarten sogar entzündungsfördernd zu wirken, in dem es die IL-6-, ICAM-1-mRNA-Expression steigerte und die IDO-mRNA-Expression absenkte. Unter den drei getesteten Subtanzen hat Berberin die beste Wirkung bewiesen. Nach weiterer Testung könnte eine Anwendung mit Berberin als in vitro Präkonditionierung von MSC vielversprechend sein. Die Verwendung von Niclosamid hingegen sollte vermieden werden, die Wirkung von Gedunin müsste genauer untersucht werden.
Im Rahmen dieser Doktorarbeit werden drei Schwerpunkte behandelt: 1) Die hocheffektive Beschleunigung von Elektronen und Protonen durch die Wechselwirkung von relativistischen Laserpulsen mit Schäumen. 2) Die Erzeugung und Messung hochintensiver Betatronstrahlung von direkt laserbeschleunigten (DLA-) Elektronen. 3) Die Anwendung von DLA-Elektronen für den biologischen FLASH-Effekt mit einer rekordbrechenden Dosisrate.
Die direkte Laserbeschleunigung von Elektronen wurde durch die Wechselwirkung eines sub-ps-Laserpulses mit einer Intensität von ~ 10^19 W/cm^2 mit einem Plasma nahe kritischer Elektronendichte (NCD) untersucht. Ein sub-mm langes NCD-Plasma wurde durch Erhitzen eines Schaums mit einer niedrigen Dichte mit einem ns-Puls von 10^13-10^14 W/cm^2 erzeugt. Die Experimente wurden an der PHELIX-Anlage (Petawatt Hoch- Energie Laser für Schwerionenexperimente) in den Jahren 2019 – 2023 durchgeführt. Während der Suche nach optimalen Bedingungen für die Beschleunigung von Elektronen und Protonen wurden die Parameter des ns-Pulses variiert und verschiedene Targets verwendet. Es wurde gezeigt, dass das Plasma im Schaum gute Voraussetzungen für die Erzeugung gerichteter, ultrarelativistischer DLA-Elektronen mit Energien von bis zu 100 MeV bietet. Die Elektronen weisen eine Boltzmann-ähnliche Energieverteilung mit einer Temperatur von 10-20 MeV auf.
Optimale Bedingungen für eine effektive Beschleunigung von DLA-Elektronen wurden bei der Kombination eines CHO-Schaums mit einer Dichte von 2 mg/cm3 und einer Dicke von 300-500 µm mit einer Metallfolie erreicht. Die Gesamtladung der detektierten Elektronen mit Energien über 1,5 MeV erreichte 0,5-1 µC mit der Umwandlungseffizienz der Laserenergie von ~ 20-30%.
Außerdem wird die Beschleunigung von Protonen durch DLA-Elektronen anders verursacht als bei typischer Target Normal Sheath Acceleration (TNSA). Für die Untersuchung der lokalen Protonenenergieverteilung wurden Magnetspektrometer unter verschiedenen Winkeln zur Laserachse verwendet. Dafür wurde eine Filtermethode entwickelt, welche es ermöglicht, Spektren von Protonen mit Energien von bis zu 100 MeV zu rekonstruieren. Es wurde gezeigt, dass am PHELIX durch die Kombination von einem ~ 300-400 µm dicken CHO-Schaum mit einer Dichte von 2 mg/cm^3 und einer 10 µm dicken Au-Folie bei einer Intensität des sub-ps-Pulses von ~ 10^19 W/cm^2 und unter Verwendung eines optimierten ns-Vorpulses eine optimale Protonenbeschleunigung erreicht wurde. Es wurde ein TNSA-ähnliches Regime mit einer maximalen Cut-off-Energie von 34±0,5 MeV beobachtet. Im Vergleich dazu wurde bei der typischen TNSA unter Verwendung einer 10 µm dicken Au-Folie als Target und derselben Laserintensität eine maximale Cut-off-Energie von 24±0,5 MeV gemessen. Darüber hinaus beobachteten wir einen sehr schwachen Abfall der Protonenanzahl in Abhängigkeit von der Protonenenergie (anders als bei der typischen TNSA) und eine sehr regelmäßige Protonenstrahlverteilung in einem breiten Winkelbereich bis zu hohen Energien. Dies könnte zur Verbesserung der Qualität der Protonenradiographie von Plasmafeldern genutzt werden.
Beim DLA-Prozess (im NCD-Plasma) entsteht Betatronstrahlung durch die Oszillationen von Elektronen in quasi-statischen elektrischen und magnetischen Feldern des Plasmakanals. Um diese Strahlung zu untersuchen, wurde ein neues modifiziertes Magnetspektrometer (X-MS) konstruiert. Das X-MS ermöglicht die 1D-Auflösung mehrerer Quellen. Dank dieser Spezifikation war es möglich, Betatronstrahlung von Bremsstrahlung der ponderomotorischen Elektronen im Metallhalter zu trennen und zu messen.
Im Experiment mit einem CHO-Schaum mit einer Dichte von 2 mg/cm^3 und einer Dicke von ~ 800 µm als Target wurde die von den optimierten DLA-Elektronen erzeugte Betatronstrahlung gemessen. Bei einer Peak-Intensität des dreieckigen ns-Pulses von ~ 3·10^13 W/cm^2 und des sub-ps-Pulses von ~ 10^19 W/cm^2, welcher 4±0,5 ns gegenüber dem ns-Puls verzögert war, betrug der Halbwinkel im FWHM-Bereich des Elektronenstrahls 17±2°. Unter diesen Bedingungen war die Betatronstrahlung mit einem Halbwinkel im FWHM-Bereich von 11±2° für die Photonen mit Energien über 10 keV ebenfalls gerichtet. Die Photonenanzahl mit Energien über 10 keV wurde auf etwa 3·10^10 / 3·10^11 (gerichtete Photonen / Photonen im Halbraum entlang der Laserstrahlrichtung) abgeschätzt. Die maximale Photonenanzahl pro Raumwinkel betrug ~2·10^11 photons/sr. Die Brillanz der registrierten Betatronstrahlung erreichte ~ 2·10^20 photons/s/mm^2/mrad^2/(0.1% BW) bei 10 keV.
Die Verwendung eines Hochstromstrahls aus DLA-Elektronen für die FLASH-Strahlentherapie ermöglicht das Erreichen einer Dosis von bis zu 50-70 Gy während eines sub-ps-Laserpulses. Im Jahr 2021, während der P213-Strahlzeit am PHELIX wurde der Sauerstoffkonzentrationsabfall bei der Bestrahlung von Medien (Wasser und andere biologische Medien) mit DLA-Elektronen in Abhängigkeit von der Dosis untersucht. Die Strahlendosis wurde hierbei indirekt gemessen. Hierfür wurde eine Rekonstruktionsmethode entwickelt, die es ermöglicht, die Dosis innerhalb des „Wasser-Containers“ auf Basis von Messungen außerhalb des Containers mit einem untersuchten Medium zu ermitteln. Es wurde eine gute Übereinstimmung zwischen dem Experiment und einer Monte-Carlo-Simulation für Wasser gezeigt. Die registrierte Dosisrate erreichte einen Rekordwert von ~ 70 TGy/s.
Das radioaktive Edelgas Radon und seine ebenfalls radioaktiven Zerfallsprodukte machen den größten Teil der natürlichen Strahlenbelastung in Deutschland aus. Trotz der Einstufung als krebserregend für Lungenkrebs wird es zur Therapie entzündlicher Krankheiten eingesetzt. Der hauptsächliche Aufnahmemechanismus ist dabei die Inkorporation über die Atmung, wobei Radon auch über die Haut aufgenommen werden kann. Radon wird dabei über das Blut im gesamten Körper verteilt und kann in Gewebe mit hoher Radonlöslichkeit akkumulieren. Die Zerfallsprodukte verbleiben jedoch in der Lunge, zerfallen dort, bevor sie abtransportiert werden können und schädigen das dortige Gewebe.
Die Lungendosis wird laut Simulationen zum größten Teil durch die kleinsten Radon-Zerfallsprodukte (< 10 nm) bestimmt, die besonders effektiv im Respirationstrakt anheften. Die erzeugte Dosis ist dabei aufgrund der inhomogenen Anlagerung der Zerfallsprodukte lokal stark variabel. In Simulationen wurden Bifurkationen als Ort besonders hoher Deposition identifiziert, wobei die experimentelle Datenlage zur Deposition kleinster Radon-Zerfallsprodukte eingeschränkt ist. Aufgrund des Anstiegs der Komplexität von Simulationen oder Experimenten wird in den meisten Betrachtungen nicht der oszillatorische Atemzyklus berücksichtigt, sondern lediglich ein einseitig gerichteter Luftstrom betrachtet. Im Rahmen dieser Arbeit wurde ein experimentelles Modell entwickelt und etabliert, das die Messung der Deposition von Radon-Zerfallsprodukten ermöglicht und zwischen drei Größenfraktionen (Freie Zerfallsprodukte: < 10 nm, Cluster: 20-100 nm, Angelagerte Zerfallsprodukte: > 100 nm) unterscheiden kann. Der Luftfluss durch das Modell bildet sowohl die Inhalation als auch die Exhalation ab. Erste Experimente mit dem neu entwickelten Messaufbau konnten die aus Simulationen bekannte erhöhte Deposition der freien Zerfallsprodukte in einer Bifurkation abbilden. Die Vergrößerung des Bifurkationswinkels von 70° auf 180° zeigte lediglich einen minimalen Anstieg in der Größenordnung des Messfehlers. Der dominierende Prozess der Anlagerung der freien Zerfallsprodukte ist die Brown'sche Molekularbewegung, die unabhängig vom Bifurkationswinkel ist. Dennoch kann ein veränderter Winkel die Luftströmung und entstehende Turbulenzen verändern, wodurch die Deposition beeinflusst werden kann. Dies lässt sich jedoch mit dem hier benutzten Messaufbau nicht auflösen. Entgegen der Beobachtungen in der Literatur führte die Erhöhung der Atemfrequenz von 12 auf 30 Atemzüge pro Minute, in den im Rahmen dieser Arbeit durchgeführten Experimenten, zu keiner messbaren Veränderung der Deposition. Diese Beobachtung ist auf die Entstehung gegensätzlicher Effekte zurückzuführen. Einerseits führt eine schnellere Luftströmung zu kürzeren Aufenthaltszeiten der freien Zerfallsprodukte im Modell, wodurch die Deposition unwahrscheinlicher wird. Andererseits entstehen vermehrt sekundäre Strömungen und absolut betrachtet werden mehr Partikel durch das Modell gepumpt. Es ist davon auszugehen, dass sich diese Effekte im hier getesteten Bereich aufheben.
Als potentielle Schutzmaßnahme zur Reduktion der Lungendosis konnte im Rahmen dieser Arbeit die Filtereffzienz von Gesichtsmasken (OP-Masken, FFP2 Masken) gegenüber Radon und seinen Zerfallsprodukten bestimmt werden. Während Radon nicht gefiltert wird, wurden die freien Zerfallsprodukte fast vollständig (> 98%) und die Cluster zum größten Teil (≈ 80 %) zurückgehalten.
Radon selbst kann im gesamten Organismus verteilt werden und dort in Gewebe akkumulieren. Zur Bestimmung der Dosis wird dabei auf biokinetische Modelle zurückgegriffen. Diese sind von der Qualität ihrer Eingabeparameter abhängig, wobei beispielsweise die Werte zur Verteilung von Radon zwischen Blut und Gewebe auf experimentell gewonnenen Löslichkeitswerten aus Mäusen und Ratten beruhen. Unbekannte Werte werden von der Internationalen Strahlenschutzkommission basierend auf der Gewebezusammensetzung als gewichteter Mittelwert berechnet. In dieser Arbeit wurde die Löslichkeit in humanen Blutproben und wässrigen Lösungen verschiedener Konzentrationen der Blutproteine Hämoglobin und Albumin bestimmt. Es löste sich mehr Radon in Plasma als in Erythrozytenkonzentrat und Vollblut. Die Protein-Lösungen zeigten keine Konzentrationsabhängigkeit der Löslichkeit, sondern lediglich in hitzedenaturiertem Hämoglobin wurde eine niedrigere Löslichkeit gemessen. Basierend auf diesen Beobachtungen, sollte die These überprüft werden, ob sich die Löslichkeit einer Mischung als gewichteter Mittelwert der einzelnen Löslichkeiten berechnen lässt. Daher wurden diese in einer Mischung aus zwei Flüssigkeiten (1-Pentanol, Ölsäure) bestimmt. Die experimentell bestimmte Löslichkeit war dabei fast doppelt so groß wie der berechnete Wert. Dieser Unterschied kann dadurch zustande kommen, dass bei einer Berechnung basierend auf der Zusammensetzung die Wechselwirkungen zwischen den Lösungsmitteln vernachlässigt werden. Dies verdeutlicht die Notwendigkeit experimenteller Daten zur Verteilung und Lösung von Radon in verschiedenem Gewebe.
Polygene Risikoscores (PRS) integrieren zahlreiche Einzelnukleotid-Polymorphismen (SNP) von meist geringer Effektstärke, um Auskunft über das Erkrankungsrisiko bestimmter Krankheiten zu geben. In dieser Arbeit wurde der PRS zur genetisch generalisierten Epilepsie (GGE) von Leu et al. aus dem Jahr 2019 untersucht, um festzustellen, ob über das Erkrankungsrisiko hinaus noch Korrelationen mit weiteren phänotypischen Eigenschaften von Patienten bestehen. Der Nachweis solcher Zusammenhänge würde eine Prädiktionsfähigkeit des GGE-PRS demonstrieren, die perspektivisch ein Potential für dessen klinische Anwendbarkeit, beispielsweise im Sinne der personalisierten Medizin, aufzeigen könnte.
Die Identifizierung neuer Korrelationen sollte durch Vergleich der Phänotypen von zwei Gruppen von GGE-Patienten mit extrem hohen, beziehungsweise extrem niedrigen PRS-Werten erfolgen. Hierfür wurden von 2256 Patienten aus der Datenbank von Epi25, einem internationalen Forschungskollaborativ zur Erforschung der Relevanz genetischer Faktoren bei der Entwicklung von Epilepsie, die Patienten mit den höchsten (n=59) und den niedrigsten (n=49) GGE-PRS-Werten ausgewählt. Für diese 108 Patienten wurden retrospektive klinische Daten von den jeweiligen Behandlungszentren akquiriert. Hierzu wurde den Studienleitern der Zentren ein Questionnaire mit Fragen zu zahlreichen phänotypischen Parametern der Patienten übermittelt. Die Rücklaufrate war mit 54% gut.
Die so eingeholten Patientendaten wurden anschließend mittels Exaktem Test nach Fisher und Wilcoxon-Rangsummentest statistisch analysiert, um Unterschiede zwischen den Phänotypen beider Gruppen nachzuweisen. Im Falle der Pharmakoresistenz zeichneten sich hierbei zunächst signifikante Unterschiede ab, die ein selteneres Auftreten dieser Eigenschaft für Patienten mit hohen GGE-PRS-Werten implizierten. Diese Ergebnisse waren jedoch nach einer Bonferroni-Korrektur und bei Validierung in einer größeren Kohorte (n=825) nicht mehr signifikant. Für die anderen untersuchten Parameter waren ebenfalls keine signifikanten Unterschiede nachweisbar.
Das Ergebnis, dass für keinen der untersuchten Parameter signifikante Differenzen bestanden, obwohl zwei Kohorten mit extrem gegensätzlichen PRS-Werten untersucht wurden, spricht gegen eine Verwendung des aktuell verfügbaren GGE-PRS als prädiktiver Biomarker über das Erkrankungsrisiko hinaus und somit gegen dessen klinische Anwendbarkeit. Jedoch können die nicht-signifikanten Korrelationen im Falle der Pharmakoresistenz als Hinweis verstanden werden, dass im Bereich der Pharmakotherapie Zusammenhänge zwischen Score und Phänotyp bestehen könnten, die weiterer Untersuchungen in zukünftigen Studien bedürfen. Bei Verwendung eines verbesserten GGE-PRS mit zusätzlichen risikoassoziierten SNP und verfeinerter Wichtung der Effektstärken sowie größerer Kohorten könnten in diesem Bereich möglicherweise auch signifikante Zusammenhänge nachweisbar werden.
Die Appendizitis stellt mit einer Inzidenz von 115 pro 100000 Einwohnern in Deutschland eine der häufigsten Ursachen für ein akutes Abdomen dar. Bakterielle Infektionen sind ein wesentlicher Faktor für die postoperative Morbidität nach Appendektomie.
Ziel dieser prospektiven Studie war es, das Keimspektrum und insbesondere die Prävalenz resistenter Keime bei der akuten Appendizitis zu bestimmen und die Auswirkungen resistenter Keime auf das Auftreten infektiöser Komplikationen zu analysieren. Alle erwachsenen Patient*innen mit akuter Appendizitis, die zwischen April 2022 und Juli 2023 am Universitätsklinikum Frankfurt operativ behandelt wurden, wurden prospektiv eingeschlossen. Das Keimspektrum der Appendix und die Häufigkeit von MRE in Rektalabstrichen wurden analysiert. Die klinischen Daten wurden extrahiert, um die Korrelation des Keimspektrums mit dem Auftreten von postoperativen Komplikationen, Dauer und Art der Antibiotikatherapie und dem postoperativen Verlauf zu evaluieren. 30 Tage nach der Operation wurde ein Follow-up durchgeführt. Insgesamt wurden 105 Patient*innen in die Studie eingeschlossen.
In den Appendixabstrichen gelang ein Erregernachweis bei 67,6 % aller Fälle. Hierbei betrug die Prävalenz von Keimen mit Antibiotikaresistenz 43,8 %, Multipler-Antibiotikaresistenz (MAR) 27,6 % und bei 5,7 % der Fälle gelang ein MRE-Nachweis nach CDC im Appendixabstrich. Beim MRE-Screening konnten im Rektalabstrich bei 11,4 % der Patient*innen ein MRE nachgewiesen werden. In vier Fällen zeigte sich eine Übereinstimmung zwischen rektalen und appendikulären Abstrich, somit betrug die Sensitivität des MRE-Screenings für einen Nachweis multiresistenter Keime in der Appendix lediglich 33,3 % bei einer Spezifität von 86,7 %. In einer univariaten Analyse konnte das Vorliegen eines Diabetes mellitus als Risikofaktor für das Auftreten von Keimen mit Cefuroxim- Resistenz, Multipler-Antibiotikaresistenz (MAR) und MRE identifiziert werden.
Insgesamt erhielten 47,6 % aller Patient*innen postoperativ eine Antibiotikatherapie, von denen erfolgte bei 46 % eine Umstellung der empirischen Antibiose auf eine antibiogramm-gerechte Therapie nach Erhalt des mikrobiologischen Befundes. Insbesondere Patient*innen mit komplizierter Appendizitis erhielten postoperativ eine Antibiotikatherapie, wobei 28 % eine Antibiotikaeskalation benötigten.
Patient*innen, deren Appendixabstriche eine Resistenz gegen maximal ein Antibiotikum aufwiesen, wurden als nicht multiple Resistenz (Nicht-MAR) definiert und mit Patient*innen verglichen, deren Keime mit multipler Antibiotikaresistenz (MAR) waren. Die MAR-Gruppe zeigte im Vergleich zur Nicht-MAR-Gruppe eine höhere Inzidenz postoperativer Komplikationen, insbesondere eine erhöhte Inzidenz von Clavien-Dindo Grad 3 Komplikationen sowie von tiefen postoperativen Wundinfektionen (CDC Grad A3). Weiterhin benötigten Patient*innen der MAR-Gruppe häufiger eine postoperative Antibiotikatherapie und es erfolgte häufiger eine Eskalation der antibiotischen Therapie. Dies ging auch mit einem signifikant verlängerten Krankenhausaufenthalt einher.
Zusammenfassend kann festgestellt werden, dass eine bakterielle Infektion mit Multipler Antibiotikaresistenz bei der akuten Appendizitis häufig auftritt und die Morbidität nach Appendektomie beeinflusst. Die mikrobiologische Untersuchung mittels Appendixabstrich bei operativ behandelten Fällen von akuter komplizierter Appendizitis, die eine postoperative Antibiotikatherapie erfordern, könnte somit eine gezielte und kürzere Antibiotikatherapie ermöglichen. Dies könnte dazu beitragen, längere Krankenhausaufenthalte zu vermeiden, den unnötigen Einsatz unwirksamer Antibiotika zu reduzieren und die Kosten im Gesundheitswesen zu senken.
Das Schilddrüsenkarzinom (SK) ist die häufigste bösartige endokrine Tumorerkrankung. Während das nicht-metastasierte und nicht-mutierte papilläre Schilddrüsenkarzinom (PSK) und das follikuläre Schilddrüsenkarzinom (FSK) eine gute Heilungschance aufweisen, zeigen die mutierten und metastasierten Varianten des PSK und FSK sowie das anaplastische Schilddrüsenkarzinom (ASK) weiterhin eine schlechte Prognose. Die Entwicklung von Therapieresistenzen stellen hierbei ein Hauptproblem in der Behandlung des fortgeschrittenen Schilddrüsenkarzinoms dar.
In den letzten Jahren wurden in Studien zunehmend Tumor-initiierende Zellen (TIZ) beschrieben, welche eine kleine Subpopulation von Zellen mit der Fähigkeit zur Selbsterneuerung, Tumorinitiierung und Entwicklung von Therapieresistenzen von Tumoren darstellen. Die Existenz von TIZ wurde auch im SK nachgewiesen. Ein entscheidender Faktor für die Persistenz von TIZ ist die Hypoxie, welche über eine Veränderung des Tumormikromilieus und des Zellmetabolismus zur Entstehung von Therapieresistenzen beiträgt. Ein durch Hypoxie hochreguliertes Enzym ist die Carboanhydrase IX (CAIX). CAIX wird hauptsächlich von Tumorzellen exprimiert und katalysiert die Reaktion von Kohlendioxid zu Bicarbonat und einem Proton und trägt damit zur Säurepufferung der Tumorzelle bei. CAIX stellt somit einen entscheidenden Faktor für das Überleben von Tumorzellen in einem hypoxischen Milieu dar. Des Weiteren ist eine erhöhte Expression von CAIX mit einem schlechten Patienten-Outcome assoziiert, wie z.B. im Brustkrebs. Diese Eigenschaften machen CAIX zu einem attraktiven Angriffspunkt einer zielgerichteten Tumortherapie. Die vorliegende Studie hat zum Ziel, die Expression von CAIX sowie dessen biologische Rolle im Schilddrüsenkarzinom näher zu untersuchen.
Hierzu wurden Proben von 114 SK-Patienten immunhistochemisch auf eine CAIX-Expression untersucht und mit tumorfreiem Schilddrüsengewebe verglichen. Hierbei waren unterschiedliche SK-Subtypen vertreten. Für eine weitere Validierung der Expressionsdaten erfolgte die Auswertung eines Datasets von „The Cancer Genome Atlas“ (TCGA) mithilfe von cBioportal. Da die Hypoxie ein wichtiger Faktor für die Persistenz von TIZ ist, wurde die CAIX-Expression in Tumorsphären, ein in vitro Nachweis von TIZ-Aktivität, mittels der Durchflusszytometrie bestimmt und mit der CAIX-Expression von Monolayern verglichen. Als SK-Zelllinien wurden BCPAP (PSK), FTC 133 (FSK) und 8505 C (ASK) verwendet. Anschließend wurde mithilfe der Polymerasekettenreaktion und Immunofluoreszenzfärbung untersucht, ob eine CAIX-Expression in den Tumorsphären mit der Expression von bereits bekannten Stammzellmarkern, u.a. NANOG, assoziiert ist. Die Unterschiede der CAIX-Expression, nach Inkubation der Monolayer jeweils in Normoxie und Hypoxie, wurden mittels Durchflusszytometrie bestimmt. Mithilfe eines genetischen CAIX-Knockdowns sowie einer pharmakologischen Inhibition mit dem CAIX-Inhibitor Methazolamid (MZM) wurde die Tumorzellproliferation und -Sphärenbildung unter Normoxie und Hypoxie bestimmt. Zusätzlich wurde der Einfluss von MZM auf die Apoptose und den Zellzyklus untersucht.
Immunhistochemische Färbungen der Gewebeproben von SK-Patienten zeigten, dass die CAIX-Expression sowohl im PSK und FSK als auch im ASK im Vergleich zum tumorfreien Schilddrüsengewebe erhöht war. Des Weiteren zeigte die klinisch-pathologische Datenanalyse, dass eine erhöhte CAIX-Expression mit dem Auftreten von Lymphknotenmetastasen im differenzierten SK assoziiert war. Auch die Analyse des TCGA-Datasets bestätigte, dass eine erhöhte Expression der CAIX-mRNA mit einem fortgeschrittenen Tumorstadium, Fernmetastasen und mit einem kürzeren Gesamt-Überleben von SK-Patienten korrelierte. Die weiteren funktionellen in vitro Untersuchungen ergaben, dass die CAIX-Expression in den Tumorsphären im Vergleich zu Monolayern erhöht und mit einer erhöhten Expression von Stammzellmarkern assoziiert war. Ein genetischer CAIX-Knockdown und eine CAIX-Inhibition mit MZM führten über eine Induktion der Apoptose und eines Zellzyklusarrests zu einer verminderten Tumorzellproliferation und Sphärenbildung.
Zusammenfassend deuten die Ergebnisse darauf hin, dass CAIX ein vielversprechendes Zielmolekül für eine gezielte Tumortherapie des fortgeschrittenen SK ist. Um diese Hypothese bestätigen zu können, sind jedoch weitere prospektive Analysen von Patientenproben sowie funktionelle in vivo Untersuchungen am SK nötig.
Einleitung: Die Zentrale Notaufnahme (ZNA) stellt eine Schnittstelle zwischen prä- und innerklinischer Versorgung dar. Das Spektrum der Krankheitsbilder erstreckt sich über jegliche Fachrichtungen und variiert von harmlosen Banalitäten bis zu akuten Notfällen. Eine sichere und suffiziente Primärversorgung ist die Basis eines qualitativ-hochwertigen Gesundheitssystems.2 Verspätete oder falsche Diagnosen in der ZNA sind mit 10-30 % keine Seltenheit.
Dies ist nicht nur für den individuellen Patienten belastend, es bedeutet auch einen zusätzlichen Ressourcenverbrauch und eine finanzielle Belastung für das Gesundheitssystem. Clinical Decision Support Systems (CDSS) haben das Potenzial, sowohl professionelle Anwender als auch Laien bei ihrer Diagnosefindung zu unterstützen. Fragestellung: Ziel der Arbeit ist es herauszufinden, welchen Einfluss der Diagnosezeitpunkt auf das Outcome von Patienten mit Abdominalschmerzen in der ZNA hat und inwiefern ein CDSS das Potenzial hat, die genannten Punkte zu beeinflussen.
Methoden: Es handelte sich um eine prospektive, doppelt verblindete Beobachtungsstudie. Patienten, die sich mit Abdominalschmerzen in der Notaufnahme vorstellten, gaben ihre Symptome in die Ada-App ein. Sowohl die Diagnosevorschläge der App als auch die Verdachtsdiagnosen des behandelnden Arztes wurden dokumentiert und verglichen. Weitere erhobene Parameter waren die Verwendung von apparativer Diagnostik, die vergangene Zeit bis zur endgültigen Diagnosestellung, das Auftreten von Komplikationen, die Komorbidität und Mortalität sowie die Länge des Krankenhausaufenthalts. Das Follow-Up erfolgte zu verschiedenen Zeitpunkten bis zu Tag 90. Für die Analyse wurden die 450 Patienten anhand des Zeitpunkts ihrer Diagnosestellung in Gruppen "früh" (Tag 0) und "spät" (Tag 1-24) eingeteilt.
Ergebnisse: Im Vergleich zur „frühen“ Gruppe, hatte die Gruppe der „spät“ diagnostizierten Patienten einen höheren Anteil von Männern (45.2% (n=168/372) versus 60.3 % (n=47/78); p=0.018), im Schnitt einen höheren Charlson Comorbidity Index (0.7 versus 1.1; p=0.045) und im Schnitt einen höheren RAI-C Score (8.06 versus 9.9; p<0.001) am Tag ihrer Vorstellung. Bei den „spät“ diagnostizierten blieben weniger Patienten komplikationsfrei (57.0 % 49 (n=212/372) versus 17.9% (n=14/78); p<0.001), es traten mehr Major-Komplikationen auf (8.9% (n=33/372) versus 17.9% (n=14/78); p=0.024), analog dazu war der Comprehensive Complication Index höher (13.1 versus 25.6; p<0.001) und sie verweilten länger im Krankenhaus (2.6 Tage versus 6.7 Tage; p<0.001). Zudem nahmen sie signifikant mehr apparative Diagnostik in Anspruch.
Die behandelnden Ärzte konnten in 82.6% der Fälle (n=372/450) am Tag der Vorstellung die korrekte Diagnose stellen. Die Ada-App konnte in insgesamt 52% der Fälle (n=234/450) die korrekte Diagnose unter ihren Diagnoseverschlägen nennen.
Schlussfolgerung: Multimorbide Patienten scheinen anfälliger zu sein für falsche und verspätete Diagnosen. Ein später Diagnosezeitpunkt korreliert mit der vermehrten Nutzung apparativer Diagnostik, einem komplikationsreicheren Verlauf, einer höheren Komorbidität und einem längeren Krankenhausaufenthalt.
Die Ada-App ist den Ärzten zwar unterlegen, dennoch ist Potenzial vorhanden.
Für Ärzte kann die Ada-App eine Unterstützung im Rahmen der Diagnosefindung darstellen. Neben der Ressourcenentlastung kann sie vor Fehlannahmen und frühzeitigen Schlussfolgerungen schützen und auf weitere mögliche Differentialdiagnosen hinweisen. Die Ada-App stellt für Laien mit Sicherheit eine Weiterentwicklung gegenüber der simplen Symptomsuche über das Internet dar, dennoch sollten weitere Studien den Nutzen und die Sicherheit der App überprüfen.
Ziel: Nebennierenraumforderungen können sonographisch mit guter Sensitivität und Spezifität erkannt werden. Ziel der vorliegenden Studie war es, die Wertig-keit der Kontrastmittel-Sonographie (CEUS = contrast enhanced ultrasound) unter Verwendung von Zeit-Intensitäts-Kurven für die Charakterisierung von Nebennierenraumforderungen zu bewerten.
Material und Methoden: 108 Patienten mit 116 Raumforderungen der Neben-niere erhielten einen Ultraschall der Nebenniere, inklusive einer Kontrastmittel-Sonographie mit dem Kontrastmittel SonoVue®. Die Kontrastmitteldynamik wurde mittels Zeit-Intensitätskurven aufgezeichnet. Anhand der Kontrastmittel-anflutungszeit wurden folgende vier Kontrastmittelanreicherungsmuster ver-wendet, welche in einer Pilotstudie1 entwickelt wurden: Anreicherungsmuster I = früh arterielle Kontrastmittelanreicherung, Anreicherungsmuster II = arterielle Kontrastmittelanreicherung, Anreicherungsmuster III = späte Kontrastmittelan-reicherung, Anreicherungsmuster IV = keine Kontrastmittelanreicherung. Zu-sätzlich erhielten alle Patienten eine Beurteilung der Nebenniere durch ein zweite Bildgebendes Verfahren (Computertomographie (CT) oder Magnetresonanztomographie (MRT)) sowie eine laborchemische Hormondiagnostik. In Fällen mit malignitätsverdächtigem Befund erfolgte eine Biopsie oder Adrenalektomie.
Ergebnisse: CEUS- Anreicherungsmuster I und II konnten bei allen Patienten mit primärem oder sekundärem Malignom der Nebenniere (n = 16) nachgewie-sen werden. Die Sensitivität der CEUS für die Diagnose einer malignen Neben-nierenraumforderung betrug 100% (95% CI [75; 100]) und die Spezifität 67% (95% CI [56; 75]). Bei 40 Nebennierenraumforderungen war die Histologie die Referenzmethode. In 68% dieser Nebennierenraumforderungen waren MRT/CT und CEUS kongruent in der Beurteilung der Dignität. Schlussfolgerung: Die Kontrastmittel-Sonographie ist eine nützliche ergän-zende Methode in der Aufarbeitung von Nebennierenraumforderungen mit exzellenter Sensitivität für die Diagnose eines Malignoms.
Die Arbeit befasst sich mit einer Vereinfachung des von Devroye (1999) geprägten Begriffs der random split trees und verallgemeinert diesen im Sinne von Janson (2019) auf unbeschränkten Verzweigungsgrad. Diese Verallgemeinerung deckt auch preferential attachment trees mit linearen Gewichten ab, wofür ein Beweis von Janson (2019) aufbereitet wird. Zusätzlich bleiben die von Devroye (1999) nachgewiesenen Eigenschaften über die Tiefe der hinzugefügten Knoten erhalten.
Die vorliegende Arbeit untersucht den Übergang von Mitarbeitenden zu Führungskräften. Der Fokus der Arbeit ist nicht die Konzeption der Führungskräfteentwicklung aus der Perspektive der Unternehmen, sondern die Untersuchung der Entstehung und Gestaltung dieses Übergangs durch die Mitarbeitenden innerhalb ihrer beruflichen Rahmenbedingungen. Die Ergebnisse dieser Arbeit zeigen, dass sich in der Gestaltung dieses Übergangs von Mitarbeitenden zur Führungskräften individuelle und organisatorische Aspekte verbinden – bzw. diese durch das Subjekt in eine Verbindung gebracht werden. Durch leitfadengestützte Interviews mit (berufs-) biografischem Schwerpunkt ließen sich die individuellen, wie auch die sozialen und organisatorischen Aspekte der Gestaltung des Übergangs von Mitarbeitenden zur Führungskräften rekonstruieren. Die Stichprobe dieser Arbeit umfasst neun Interviews aus unterschiedlichsten Branchen und beinhaltet sowohl öffentliche als auch privatwirtschaftliche Arbeitgeber. Die dadurch gewonnenen Erkenntnisse ermöglichen Einsichten in die Formen und Bedingungen der Gestaltung dieses Übergangs und können auch eine Grundlage für (organisations-)pädagogische Konzepte zur Unterstützung der Mitarbeitenden bei diesem Übergang bilden.
Die Magisterarbeit in ein Beitrag zur Weiterentwicklung neuzeitlicher Subjekt- und Emanzipationstheorien. Im ersten Schritt werden die Grundkonzepte aus Baruch de Spinozas Ethik dargestellt und ihre Rolle fuer die Ideologietheorie Louis Althussers analysiert. Auf Grundlage dieser Analyse werden Grenzen der Subjekt- und Ideologietheorie Altussers aufgezeigt und der Versuch unternommen sie unter Zugriff auf spinozistische Begigriffe zu ueberwinden. Eine zentrale Rolle spielt hierbei die Perspektive auf den Menschen als körperliches, emotionales und begehrendes Wesen.
Die vorliegende Dissertation befasst sich mit Flow-Zuständen beim Lesen fiktiver Texte. Das 1975 von Mihaly Csikszentmihalyi vorgestellte Konzept des Flow bezieht sich auf das völlige Aufgehen in einer optimal herausfordernden Tätigkeit, das mit Absorption, Verarbeitungsflüssigkeit und intrinsische Freude einhergeht. Bislang wurde Flow zumeist im Kontext motorischer und leistungsorientierter Aktivitäten empirisch untersucht und in erster Linie theoretisch mit Lesefreude in Verbindung gebracht. Ziel der drei Studien, die diese Dissertation umfasst, war es daher einerseits, Flow beim Lesen erstmals anhand größerer Leser-Stichproben und mithilfe von psychometrischen Gütekriterien genügenden Messinstrumenten nachzuweisen. Andererseits sollte Flow im Rahmen eines Modells für positives Leseerleben mit anderen in der Leseforschung diskutierten Konzepten in Verbindung gebracht und im Hinblick auf potenzielle psychophysiologische Korrelate untersucht werden.
In der ersten Studie wurde eine in der allgemeinen Flow-Forschung verbreitete Kurz-Skala an den Lesekontext adaptiert und anhand einer 229 Leser umfassenden Stichprobe psychometrisch getestet. Hierzu wurden die Teilnehmer im Rahmen einer Online-Studie gebeten, nach 20-minütigem Lesen in einem selbstgewählten Roman Fragebögen zu ihrem Leseerleben auszufüllen. Zufriedenstellende Reliabilitätskoeffizienten, positive Korrelationen mit konvergenten Maßen, die faktoranalytische Unterscheidbarkeit zu diskriminanten Maßen und die erwartete Assoziation mit einem Flow-Kriterium bestätigten die Güte der Flow-Skala. Eine Explorative Faktorenanalyse ergab jedoch, dass fast alle Items auf dem Faktor Absorption luden. Zudem ließ die zweifakorielle Skalenstruktur keine abschließende Aussage zur Legitimierung eines globalen Flow-Scores zu. Daher wurde in der zweiten Studie auf Basis der ersten Skala und der aus der Theorie bekannten Flow-Komponenten ein umfassenderer lesespezifischer Flow-Fragebogen entwickelt. Dessen Reliabilität und Validität konnte anhand einer Online-Studie mit 373 Teilnehmern, in deren Rahmen ein Kapitel aus Homers Odyssee gelesen wurde, bestätigt werden. Neben Hinweisen zur konvergenten und diskriminanten Konstrukt- und zur Kriteriumsvalidität stützten die Ergebnisse einer Konfirmatorischen Faktorenanalyse eine theoretisch angemessene Skalenstruktur, mit den einzelnen Komponenten, mit Absorption, Verarbeitungsflüssigkeit und intrinsischer Freude als Subdimensionen und mit Flow als übergeordnetem Faktor. Mittels eines Strukturgleichungsmodells konnte zudem demonstriert werden, dass der auf Basis dieses Fragebogens gemessene Flow eine zentrale Rolle beim Leseerleben einnehmen kann. So wurde Flow als Mediator für andere, ebenfalls erhobene Erlebnisformen beim Lesen wie etwa Identifikation oder Spannung bestätigt. Von diesen Konzepten klärte Flow den größten Anteil an Varianz in Lesefreude und Textverständnis auf, die als Outcomes von positivem Leseerleben modelliert wurden. Da Flow gegenüber anderen Konzepten der Leseforschung den Vorteil hat, die Ableitung experimenteller Paradigmen und psychophysiologischer Hypothesen zu ermöglichen, wurden in der dritten Studie über die Manipulation des stilistischen Herausforderungsgrades eines weiteren Odyssee-Kapitels unterschiedliche Lese-Bedingungen hergestellt und kardiovaskuläre Daten gemessen. Es zeigten sich zwar keine signifikanten Gruppenunterschiede im Flow-Erleben, jedoch Interaktionen zwischen der Lesebedingung und kardiovaskulären Indikatoren bei der Vorhersage von Flow. So scheinen parasympathische Dominanz und ein entsprechender innerer Entspannungszustand, indiziert durch eine geringe Herzrate und hohe Herzratenvariabilität, Flow beim Lesen zu begünstigen, wenn der Text stilistisch anspruchsvoll ist. Es fanden sich hingegen keine Hinweise dafür, dass Flow-Erleben die Herzaktivität von Lesern verändert oder sich durch sie objektiv erfassen lässt.
Insgesamt sprechen die Ergebnisse dieses Forschungsprojektes somit für das Auf-treten von Flow beim Lesen sowie für dessen zentrale Rolle bei positiven Leseerlebnissen. Außerdem zeigen sie das Potenzial des Flow-Konzeptes für die Leseforschung auf, insbesondere hinsichtlich psychophysiologischer Experimentalstudien.
Intelligenz ist einer der stärksten Einzelprädikatoren für berufliche Leistungen. Hochintelligente Personen, sogenannte Hochbegabte, müssten daher generell hohe berufliche Leistungen erbringen. Dies steht jedoch im Widerspruch zu Darstellungen von Schwierigkeiten Hochbegabter im Beruf. Sollten die negativen Stereotype zutreffen, wäre dies aus ressourcenorientierter Sicht problematisch, da Organisationen das der Hochbegabung zugrunde liegende Potenzial der Mitarbeiter*innen nicht hinreichend nutzen. Die vorliegende Arbeit leistet einen Beitrag dazu, diese Diskrepanz aufzuklären, indem sie untersucht wie Hochbegabte ihre berufliche Situation (erfolgreich) gestalten. Nach einer Begriffsklärung und Darstellung des Zusammenhangs von Intelligenz und Beruf wird im ersten Beitrag der internationale Forschungsstand mithilfe eines Literature Reviews systematisiert. Aufbauend darauf werden im zweiten Beitrag mithilfe einer Fragebogenerhebung die überwiegend internationalen Beiträge durch eine deutsche Stichprobe und die bisher wenig betrachtete Gruppe von Hochbegabten gemäß Kompetenzdefinition ergänzt. Schließlich fokussiert der dritte Beitrag den Widerspruch, dass Hochbegabte generell erfolgreich und zufrieden im Beruf sind, jedoch individuell von Schwierigkeiten berichten. Dazu werden teilstrukturierte Interviews durchgeführt, um ein tieferes Verständnis für den Einfluss der Hochbegabung auf den Beruf sowie etwaige bestehende Unterschiede zu nicht-hochbegabten Personen zu gewinnen. Zudem werden Strategien erfasst, die Hochbegabte nutzen, um Unterschiede und eventuell daraus resultierende Schwierigkeiten zu bewältigen. Abschließend werden Implikationen für die Berufspraxis und Forschung diskutiert.