Universitätspublikationen
Refine
Year of publication
Document Type
- Part of Periodical (2877)
- Article (2282)
- Contribution to a Periodical (2161)
- Book (2027)
- Doctoral Thesis (1741)
- Review (927)
- Report (608)
- Working Paper (440)
- Part of a Book (196)
- Conference Proceeding (182)
Language
- German (14018) (remove)
Keywords
- Deutschland (99)
- Financial Institutions (44)
- Forschung (40)
- Ausstellung (39)
- Islamischer Staat (39)
- Digitalisierung (38)
- Frankfurt am Main (36)
- Terrorismus (36)
- Frankfurt <Main> / Universität (35)
- USA (34)
Institute
- Präsidium (5057)
- Medizin (1514)
- Gesellschaftswissenschaften (1066)
- Rechtswissenschaft (742)
- Neuere Philologien (653)
- Wirtschaftswissenschaften (644)
- Geschichtswissenschaften (630)
- Biochemie und Chemie (542)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (523)
- Kulturwissenschaften (465)
Buch des Monats Januar 2024
(2024)
Der Natrium-abhängige Kaliumkanal Slack (KNa1.1, Slo2.2, KCNT1) nimmt eine Schlüsselrolle in der Regulation neuronaler Erregbarkeit ein, indem er die Ausbildung und Feuerungsfrequenz von Aktionspotentialen kontrolliert. Sowohl in Mäusen als auch in Menschen wird Slack besonders hoch in nicht-peptidergen C-Faser-Neuronen exprimiert. Wissenschaftliche Erkenntnisse der letzten Jahre konnten die Beteiligung von Slack-Kanälen in der Signalverarbeitung neuropathischer Schmerzen, aber auch in verschiedenen Arten von Pruritus, feststellen. Dabei zeigen Slack-defiziente Mäuse ein verstärktes mechanisches Schmerzverhalten nach einer peripheren Nervenverletzung und ein erhöhtes Kratzverhalten in akuten Juckreiz-Modellen. Das als Slack-Aktivator identifizierte trizyklische Neuroleptikum Loxapin zeigt sowohl analgetische als auch antipruritische Effekte in Mäusen, jedoch ist sein klinischer Einsatz auf Grund schwerwiegender antipsychotischer Nebenwirkungen limitiert. Basierend auf Loxapins Leitstruktur wurden daher in dieser Arbeit neue Slack-Aktivatoren mit einem verbesserten pharmakologischen Profil designed und ihr Potential für die Therapie von Schmerzen sowie akutem und chronischem Pruritus in vivo untersucht.
Das Heidelberger Ionenstrahl-Therapiezentrum (HIT) stellt Protonen-, Helium- und Kohlenstoff-Ionenstrahlen unterschiedlicher Energie und Intensität für die Krebsbehandlung und Sauerstoff-Ionenstrahlen für Experimente zur Verfügung. Der hierfür verwendete Beschleuniger ist darüber hinaus in der Lage auch Ionenstrahlintensitäten unterhalb der für Therapien verwendeten bereitzustellen. Allerdings ist das derzeit installierte Strahldiagnosesystems nicht in der Lage, das Strahlprofil bei solchen geringen Intensitäten (< 10^5 Ionen/s) zu messen. Dabei existieren mögliche medizinische Anwendung für diese niederintensiven Ionen-strahlen, wie beispielsweise eine neuartige und potentiell klinisch vorteilhafte Bildgebung: die Ionenradiographie. Eine essentielle Voraussetzung für diese und andere Anwendungen ist ein System zur Überwachung von Ionenstrahlen niedriger Intensität. Ein solches System wurde im Rahmen dieser Arbeit konzipiert, realisiert, getestet und optimiert.
Das Funktionsprinzip basiert auf szintillierenden Fasern, insbesondere solchen mit erhöhter Strahlungshärte für die Möglichkeit einer dauerhaften Platzierung im Therapiestrahl. Ein diese Fasern durchlaufendes Ion regt den darin enthaltenen Szintillator durch Stoßprozesse kurzzeitig an. Die dabei deponierte Energie wird anschließend in Form von Photonen wieder emittiert. Silizium-Photomultiplier sind an den Enden der Fasern montiert und wandeln die Photonensignale in verstärkte elektrische Impulse um. Diese Impulse werden von einer neuartigen und dedizierten Ausleseelektronik aufgezeichnet und verarbeitet. Ein Prototypaufbau, bestehend aus den genannten Teilen, wurde im Strahl getestet und kann das transversale Strahlprofil erfolgreich im Intensitätsbereich von 10^7 Ionen/s bis hinunter zu 10^2 Ionen/s aufzeichnen. Darüber hinaus konnte, durch die erfolgreiche Ankunftszeitmessung von einzelnen Ionen bis zu Intensitäten von 5*10^4 Ionen/s, ein Machbarkeitsnachweis für die Messung der Spur von einzelnen Teilchen erbracht werden.
Die Verwendung von Photoschaltern zur gezielten Kontrolle von Systemen birgt ein hohes Potential hinsichtlich biologischer Fragestellungen, bis hin zu optoelektronischen Anwendungen. Infolge einer Photoanregung kommt es zu Geometrieänderungen, die einen erheblichen Einfluss auf ihr photophysikalisches Verhalten haben. Die Änderungen der photochemischen, wie photophysikalischen Eigenschaften, beruht entweder auf der Isomerisierung von Doppelbindungen oder auf perizyklischen Reaktionen. Durch sorgfältige Modifikationen, wie beispielsweise die Änderung der Konjugation durch unterschiedlich große π-Elektronensysteme, der Molekülgeometrie oder der Veränderung des Dipolmoments, lassen sich intrinsische Funktionen variieren.
Die Kombination dieser Eigenschaften stellt eine komplexe Herausforderung dar, da diese Änderungen einen direkten Einfluss auf wichtige Charakteristika wie die Adressierbarkeit, die Effizienz und die Stabilität der Moleküle haben. Darüber hinaus spielt die thermische Stabilität eine erhebliche Rolle im Hinblick auf die Speicherung von Energie oder Informationen für Anwendungsbereiche in der Energiegewinnung und Datenverarbeitung.
Für die Anwendung solcher photochromen Moleküle ist hinsichtlich der oben genannten Eigenschaften auch das Wissen über den photoinduzierten Reaktionsmechanismus unabdingbar.
Im Rahmen dieser Arbeit wurde der Einfluss auf die Isomerisierungsdynamik organischer Photoschalter durch unterschiedliche Modifikationen mittels stationärer und zeitaufgelöster Spektroskopie untersucht. Im Bereich der Merocyanine konnte ein Derivat vorgestellt werden, das ausschließlich zwischen zwei MC-Formen (trans/cis) isomerisiert. Die interne Methylierung am Phenolatsauerstoff der Chromeneinheit verhindert die Ringschlussreaktion zum SP und somit seinen zwitterionischen Charakter. Die stabilen Grundzustandsisomere TTT und CCT weisen durch den Methylsubstituenten eine hypsochrome Verschiebung ihrer Absorptionsmaxima auf, während TTT das thermodynamisch stabilste Isomer darstellt. Das MeMC wies eine erstaunlich hohe Effizienz seiner Schaltamplituden, insbesondere der TTT → CCT Photoisomerisierung auf, sowie eine überaus hohe Quantenausbeute.
Das MeMC wies zudem eine signifikante Lösungsmittelabhängigkeit auf, die sich insbesondere in der Photostabilität bemerkbar macht. Während das MeMC in MeCN und EtOH photodegradiert, konnte in EtOH/H2O eine konstante Reliabilität festgestellt werden. Diese Zuverlässigkeit impliziert nicht nur eine Stabilisierung durch das Wasser, sondern auch eine Resistenz gegenüber Hydrolysereaktionen. Darüber hinaus konnten kinetische Studien eine hohe thermische Rückkonversion von CCT zu TTT bei Raumtemperatur nachweisen, womit auf schädliche UV-Bestrahlung verzichtet werden könnte.
Die Untersuchung der Kurzzeitdynamiken beider Grundzustandsisomere gab Aufschluss über die Beteiligung anderer möglicher MC-Intermediate und den Einfluss der Methylgruppe auf das System. Mittels quantenchemischer Berechnungen konnte eine erste Initiierung um die zentrale Doppelbindung beider Isomere bestimmt werden, die jeweils zu einem heißen Grundzustandsintermediat führt, bis nach einer zweiten Isomerisierung der endgültige Grundzustand der Photoprodukte populiert wird. Dies bedeutet, dass die trans/cis-Isomerisierung über TTT-TCT-CCT und die Rückkonversion über CCT-CTT-TTT erfolgt.
Im Bereich der Hydrazon-Photoschalter konnten unterschiedlich substituierte Derivate mittels statischer und zeitaufgelösten UV/Vis-Studien untersucht werden. Da ESIPT Prozesse eine wichtige Funktion bei der Kontrolle von biologischen Systemen spielen, wurden verschiedene Hydrazonderivate hinsichtlich ihrer Reaktionsmechanismen untersucht. Als Rotoreinheit diente zum einen eine Benzothiazolkomponente, die die interne H-Bindung des angeregten Z-Hydrazons schwächen sollte und zum anderen wurde ein Chinolinsubstituent eingesetzt, der als Elektronenakzeptor diente und den H-Transfer begünstigt. Der Einsatz der Benzothiazolkomponente bewirkte die gewünschte Vergrößerung der bathochromen Verschiebung des E-Isomers, sowie eine deutliche Erhöhung der thermischen Stabilität des metastabilen
Zustands. Dies bestätigten die zeitaufgelösten Studien der Z zu E Isomerisierung, bei denen die Isomere im Vergleich zum Chinolinhydrazonderivat, in beiden ausgewählten Lösungsmitteln metastabile Z-Intermediate zeigten und eine Lebenszeit bis in den µs-Zeitbereich aufwiesen. Die Rückreaktion beider Derivate (HCN) und (HBN) hingegen zeigte eine barrierelose Umwandlung in die beteiligten Photoprodukte. Trotz der Verwendung des Chinolinsubstituenten zusammen mit Naphthalin als Rotoreinheit (HCN), konnte kein ESIPT Prozess beobachtet werden. HCB mit einer Kombination aus einem Chinolinrotor und eines Benzothiazolsubstituenten, wies eine Hydrazon-Azobenzol-Tautomerie auf, die ein prototropes Gleichgewicht zwischen dem E-Hydrazon und der E-Azobenzolform (E-AB) ausbildete. Die Reaktionsdynamiken des Z-Hydrazons zum E-AB wiesen eine ultraschnelle Bildung des Photoproduktes auf, während die Rückreaktion über einen ESIPT im sub-ps-Bereich erfolgte. Dieser H-Transfer hat die Bildung des angeregten E-Hydrazons zur Folge. Interessanterweise wurde kein Rückprotonentransfer nachgewiesen, sondern die mögliche Formation eines Z-AB gefunden. Damit unterscheidet sich dieser Reaktionsmechanismus erheblich von den typischen ESIPT Prozessen, die normalerweise zu ihrem Ausgangsmolekül zurückrelaxieren. Des Weiteren konnte ein Pyridinoxid und Benzoylpyridin-substituiertes Hydrazon charakterisiert werden, bei denen die stationären Studien kein Schaltverhalten, sondern Photodegradation aufwiesen. Die zeitaufgelösten Daten ergaben ebenfalls keine Photoproduktbildung, was die These der Photozersetzung unterstützt. Die Verwendung von zusätzlich substituierten Rotoreinheiten, wie beispielsweise Pyridinoxid und Benzoylpyridin, die aufgrund fehlender Protonenakzeptormöglichkeit keine interne H-Bindung ausbilden, erlaubt keine Bildung des Z-Hydrazon Isomers.
Die vorliegende Arbeit behandelt den Vergleich zweier Geräte - „Endotrust MiFusion TLS 2“ und „Medtronic LigaSure Maryland System“ - zur endoskopischen Entnahme der Arteria radialis (RA) zur Verwendung als Bypass-Gefäß in der Herzchirurgie.
Grundsätzlich kommen in der Bypass-Chirurgie zur Herstellung eines Free-Grafts am Herzen neben der Verwendung der Thoraxarterien die Vena Saphena Magna (VSM) sowie die RA in Frage. In den aktuellen europäischen Leitlinien zur Behandlung von hochgradigen Stenosen wird die Verwendung der RA empfohlen („Class 1 Level B“-Empfehlung).
Die Frage, ob die RA für den Einsatz als Bypass-Gefäß offen oder endoskopisch entnommen werden sollte, ist in der Literatur weiterhin umstritten. In den aktuellen Leitlinien zur Behandlung von koronaren Herzkrankheiten wird aufgrund dieser insoweit uneindeutigen Studienlage keine Empfehlung ausgesprochen. Trotzdem ist die endoskopische Entnahme der RA im klinischen Alltag mittlerweile etabliert. Im Kontext dieser uneindeutigen Studienlage einerseits und der praktischen Bedeutung endoskopischer Entnahme andererseits ist es Zielsetzung der vorliegenden Arbeit, durch einen Gerätevergleich einen Beitrag zur Optimierung der endoskopischen Operationstechnik zu leisten. Es soll zudem aufgezeigt werden, inwieweit die endoskopische Entnahme der RA ein sicheres und effizientes Verfahren darstellt.
In der Literatur zum Vergleich von Operationstechniken zur Entnahme von Bypass-Gefäßen werden häufig histologische Untersuchungen angewendet. Diese ermöglichen eine zeitnahe Beurteilung der Qualität des entnommenen Grafts. Das ist auch in dieser Arbeit der wesentliche Grund dafür, dass die histologische Beurteilung der Qualität der RA als primärer Endpunkt angewendet wird. In Anlehnung an die Literatur wurde die strukturelle Integrität des Endothels und der Elastica interna beurteilt. Die histologische Beurteilung erfolgte nach Immunfluoreszenz-Bearbeitung der Proben.
Im Einklang mit der bestehenden Literatur zur Frage, ob die RA offen oder endoskopisch entnommen werden sollte, wurde in dieser Studie als sekundäre Endpunkte Kriterien bezüglich der Sicherheit und Effizienz der Entnahme verwendet. Dies betrifft das Auftreten von intra- und postoperativen Komplikationen, insbesondere im Hinblick auf neurologische Beeinträchtigungen am operierten Arm, sowie die Entnahmedauer und den operativen Aufwand zur Blutstillung.
Die in dieser Arbeit behandelte Studie wurde als prospektive, 1:1 randomisierte Studie mit zwei Gruppen mit jeweils 50 Patienten durchgeführt. Alle Operationen erfolgten im Zeitraum Januar 2017 bis Juli 2017 im Herzzentrum der Kerckhoff-Klinik Bad Nauheim.
Bezüglich der Resultate des Gerätevergleichs zeigte sich ein eindeutiges Ergebnis. Sämtliche Beurteilungskriterien, bei denen signifikante Unterschiede zwischen den beiden Gruppen aufgetreten sind, u.a. Integrität der Elastica interna, Entnahmedauer, Vorkommen von Residualblutungen, Auftreten von sensorischen Störungen fallen zugunsten des LigaSure-Systems aus.
Dabei ist unserer Meinung nach der wichtigste Einzelaspekt, dass die histologisch ermittelte Integrität der Elastica interna als Indikator für die Qualität des entnommen Grafts in der LigaSure-Gruppe signifikant besser war als in der MiFusion-Gruppe. Dagegen konnten aus der histologischen Untersuchung des Endothels keine klaren Rückschlüsse gezogen werden. Insofern besteht Unsicherheit, ob die Schädigung der Endothelschicht durch die Entnahme selbst oder durch die anschließende Präparierung der entnommenen Proben verursacht wurde.
Bezüglich der sekundären Endpunkte zeigten sich für die Mifusion-Patientengruppe im Vergleich zu anderen Studien zur endoskopischen Entnahme der RA zufriedenstellende bis gute und für die LigaSure Gruppe gute bis sehr gute Ergebnisse. Unabhängig vom verwendeten Gerät kann diese Studie deshalb als eine Bestätigung bisheriger Studien zur Vorteilhaftigkeit der endoskopischen RA-Entnahme angesehen werden. Letztlich fehlt jedoch weiterhin der Nachweis, dass eine endoskopische Entnahme unbedenklich im Hinblick auf den langfristigen kardiologischen Outcome ist. Dies bleibt zukünftiger Forschung vorbehalten.
Darüber hinaus trägt die Studie dazu bei, das klinische Erfahrungswissen über operationstechnische Details bei der Entnahme der Radialarterie zu erweitern und somit die Akzeptanz für die Verwendung der Radialarterie als Bypass-Gefäß in der koronaren Herzchirurgie zu verbessern.
Hintergrund: Mit der im Jahr 2020 aktualisierten AWMF-Leitlinie zur Versorgung mit einem Cochleaimplantat (CI) wurde erstmals der gesamte Prozess einer CI-Versorgung definiert. In der vorliegenden Studie wurden die Machbarkeit und die Ergebnisse einer sehr frühen Rehabilitationsmaßnahme (Reha) untersucht.
Methodik: Es wurden 54 Patienten in die Interventionsgruppe (IG) eingeschlossen, bei der die Reha innerhalb von 14 (maximal 28) Tagen nach der Implantation eingeleitet wurde. In eine Kontrollgruppe (KG, n = 21) wurden Patienten mit deutlich längerer Wartezeit eingeschlossen. Neben dem Beginn und der Dauer der Reha wurde das mit CI erreichte Sprachverstehen zu verschiedenen Zeitpunkten innerhalb von 12 Monaten erfasst. Zusätzlich wurde mit Fragebögen der Aufwand der Anpassung des CI-Prozessors und die Zufriedenheit der Patienten mit dem Ergebnis sowie dem Zeitpunkt des Beginns der Reha ermittelt.
Ergebnisse: Die Wartezeit zwischen Implantation und Beginn der Reha lag in der IG bei 14 Tagen und in der KG bei 106 Tagen (Mediane). Es konnten 92,6 % der Patienten der IG die Reha innerhalb von 14 Tagen antreten. Der Effekt der Reha lag in der IG bei 35 und in der KG bei 25 Prozentpunkten (Freiburger Einsilbertest). Nach 6 und 12 Monaten (M) CI-Nutzung zeigten beide Gruppen sowohl in der Testbedingung in Ruhe (IG/KG 6M: 70 %/70 %; 12M: 70 %/60 %, Freiburger Einsilbertest) als auch im Störgeräusch (IG/KG 6M: −1,1 dB SNR/–0,85 dB SNR; 12M: −0,65 dB SNR/+0,3 dB SNR, Oldenburger Satztest) vergleichbare Ergebnisse. Die mittels des Fragebogens Speech, Spatial and Qualities of Hearing Scale (SSQ) erfassten Ergebnisse für die Einschätzung der Hörqualität zeigten nach 6 Monaten eine bessere Bewertung in der IG, die sich nach 12 Monaten an die Ergebnisse der KG anglich. Die IG war mit dem Zeitpunkt des Beginns der Reha deutlich zufriedener als die KG. Alle anderen aus Fragebögen ermittelten Daten zeigten keine Unterschiede zwischen den beiden Gruppen.
Schlussfolgerung: Der sehr frühe Beginn einer stationären Reha nach Cochleaimplantation ist erfolgreich umsetzbar. Die Reha konnte innerhalb von 7 Wochen nach der Implantation abgeschlossen werden. Der Vergleich der Ergebnisse der Tests des Sprachverstehens vor und nach der Reha zeigte eine deutliche Steigerung. Somit ist ein deutlicher Reha-Effekt nachweisbar. Die Aufnahme der CI-Rehabilitation in den Katalog der Anschlussheilbehandlungen ist somit wissenschaftlich begründet und damit dringend zu empfehlen.
Raumkonstruktionen, die über Handlung und Bedeutungszuschreibungen im Kontext sozialer Medien entstehen, sind ein Fallbeispiel dafür, wie vor dem Hintergrund von Digitalität Fachinhalte re-innoviert werden müssen. Mit dem Ziel eines Beitrags zur Konzeption professionellen Lehrkräftewissens im Kontext von Digitalität werden, ausgehend von der Fragestellung, welche professionellen Fähigkeiten Lehrkräfte benötigen, um Raumkonstruktionen im Unterricht zu thematisieren, in dieser kumulativen Dissertation Raumkonstruktionen aus normativer und empirischer Perspektive als exemplarischer geographischer Fachinhalt adressiert.
Als theoretischer Rahmen dient dabei das TPACK Modell von Mishra & Koehler (2006), das professionelles Lehrkräftewissen in die Bereiche fachliches, pädagogisches und technologisches Wissen sowie deren Überschneidungsbereiche einteilt. Zunächst erfolgt eine Anwendung des Modells als Reflexionsperspektive auf Fachinhalte zur Erzeugung normativer Fähigkeitsbeschreibungen. Diese Fähigkeitsbeschreibungen fließen in die Entwicklung eines TPACK-Selbsteinschätzungsfragebogens für Lehramtsstudierende der Geographie ein. Im Rahmen der damit durchgeführten Studie (n= 364) zeigen sich auf deskriptiver Ebene vergleichsweise niedrige Selbsteinschätzungen der Bereiche inhaltlichen und fachdidaktischen Wissens. Durch die Anwendung einer konfirmatorischen Faktorenanalyse kann das TPACK Modell als zufriedenstellend für die Beschreibung der Daten identifiziert werden. Auffällig ist allerdings die niedrige Korrelation des Konstrukts technologischen Wissens mit den angrenzenden Wissensbereichen. In Bezug auf die Selbsteinschätzungen im phasen- und kontextübergreifenden Vergleich lässt sich, ausgehend von linearen Regressionsanalysen, eine tendenzielle Zunahme der selbsteingeschätzten Fähigkeiten entlang der Fachsemesterzahl ermitteln. Mittels Zweistichproben-t-Tests können außerdem höhere Selbsteinschätzungen der pädagogischen Wissensbereiche durch Studierende, die als Vertretungslehrkräfte tätig sind, festgestellt werden.
In Bezug auf die zur Thematisierung von Raumkonstruktionen im Unterricht benötigten Fähigkeiten ist zunächst die Relevanz der Förderung der Integration fachlichen, pädagogischen und fachdidaktischen Wissens hervorzuheben. Die Studie gibt darüber hinaus Hinweise auf eine niedrigere Bedeutung technologischen Wissens im Hinblick auf soziale Medien als Beispiele alltäglicher Technologien. Vor dem Hintergrund des positiven Effekts von Selbstwirksamkeitsprozessen bieten die Ergebnisse Implikationen für eine Diskussion von praktischen Erfahrungen als Aspekt professionellen Lehrkräftewissens im Sinne der Förderung einer kritisch-reflexiven Auseinandersetzung mit der Tätigkeit als Vertretungslehrkraft aus fachdidaktischer Perspektive. Insgesamt leistet die kumulative Dissertation einen Beitrag zum Diskurs um fachliche geographische Bildung im Kontext von Digitalität und zur Konzeption des professionellen Lehrkräftewissens vor diesem Hintergrund.
Der Artikel gibt einen Überblick über die unterschiedlichen Sammlungsbestände von Comics, Graphic Novels und Manga in wissenschaftlichen Bibliotheken in Deutschland. Im weiteren Verlauf wird ein Schwerpunkt auf die Herausforderungen und Probleme in Bezug auf Bestandsaufbau, Erschließung, Archivierung bzw. Verfügbarmachung sowie Findmittel gelegt.
Die ethnografische Feldstudie untersucht die Lebenswege von jungen muslimischen Männern, die in einer armutsbetroffenen und stigmatisierten Hochhaussiedlung in der urbanen Peripherie aufwachsen. Sie vergleicht die Lebenswege derjenigen, die ein Hochschulstudium aufnehmen (college boys) mit der Gruppe derjenigen, die sich in der informellen Ökonomie der 'Straße' mit dem Drogenhandel als wichtigstem Zweig betätigen (corner boys). Die Lebensverläufe der jungen Männer, deren Familien meist im Zuge der Anwerbemigration ab den 1960er Jahren aus Marokko oder aus der Türkei eingewandert sind, werden anhand der Lebensverlaufstheorie (life course theory) von Glen Elder und Janet Giele erklärt. Die ethnografischen Beschreibungen werden methodisch um biografische Interviews mit college boys und corner boys und um Expertinneninterviews mit Fachleuten aus Organisationen wie Kitas, Schulen oder einer Moschee ergänzt. Die ethnografischen Beobachtungen werden auch ins Verhältnis zu Befunden aus der interdisziplinären sozialwissenschaftlichen Literatur gesetzt, die wiederum mit den in der Studie erhobenen und sehr persönlichen Lebensgeschichten von corner boys und college boys kombiniert werden. Der Forscher hatte während der Feldarbeit eine Doppelrolle, da er nicht nur als Ethnograf tätig war, sondern auch für die Stadt als Streetworker bzw. Sozialarbeiter in der Hochhaussiedlung beschäftigt war. Insofern gibt die Feldstudie auch einen Einblick in die staatlichen Unterstützungssysteme der Sozialen Arbeit.
Im Ergebnis entsteht die Geschichte eines sozialräumlich segregierten Milieus seit der Migration der Großeltern nach Deutschland. Sowohl für college boys als auch für corner boys dient die harte Lohnarbeit ihrer Eltern und Großeltern als negative Kontrastfolie. College boys streben nach beruflichem Erfolg und Anerkennung durch Bildungsabschlüsse. Corner boys hingegen leisten Widerstand gegen die Arbeitsethik und andere dominante Normen und wenden sich von der Lohnarbeit im Allgemeinen ab. In den Lebensverläufen von college boys wirken bestimmte Schutzfaktoren, die ihnen einen Bildungsaufstieg trotz armutsgeprägter Lebensverhältnisse ermöglichen. Zu diesen Schutzfaktoren zählen ein stabiler Familienkontext mit engen Bindungen, die Organisation eines strukturierten Alltags in Kindheit und Jugend mit Aktivitäten wie Nachhilfe und Sportvereinen und der praktizierte Islam mit seiner engen Verbindung von Glaube, Bildung und Abstinenz.
Durch die Arbeit entsteht ein Perspektivwechsel auf Hochhaussiedlungen der untersuchten Art. Statt der üblichen symbolischen Abwertung erscheinen sie durch die beschriebenen intergenerationalen Bildungsaufstiege als Orte mit besonders hoher sozialer Mobilität. Auf der anderen Seite wird mit den corner boys aber auch eine Gruppe beschrieben, in der sich Prekarität aufgrund von Ausgrenzungserfahrungen und einer anschließenden Resignation verfestigt hat. Die college boys bekommen Raum zur Entfaltung, während die corner boys metaphorisch gesprochen im Raum der Hochhaussiedlung gefangen bleiben. Die Faktoren, die diesen Unterschied erklären, werden in der Arbeit beleuchtet.
Finanzielle Armut prägt Mobilitätspraktiken und kann dabei zum Prozess von mobilitätsbezogener sozialer Exklusion beitragen. Zu den Personen, deren Armutsrisiko besonders hoch ist, zählen in Deutschland Haushalte mit Kindern, insbesondere Alleinerziehende. Ältere Menschen haben nicht die höchste Armutsgefährdung, jedoch besteht bei ihnen das Risiko von Verharrung in Armut, da die Möglichkeiten, die finanzielle Situation aus eigener Kraft zu ändern mit zunehmendem Alter sinken.
Um ein tieferes Verständnis davon zu erhalten, wie finanzielle Armut die Mobilitätspraktiken und soziale Teilhabe von Haushalten mit Kindern sowie älteren Menschen prägt, wurden mit diesen beiden Personengruppen problemzentrierte Interviews in Ronnenberg (Region Hannover) geführt und analysiert. Die Ergebnisse belegen, dass, wenngleich alle Befragten mit ähnlich geringen finanziellen Ressourcen haushalten und Verzicht sowie Abwägungsprozesse notwendig sind, sich ihre Mobilitätspraktiken und Alltagsbewältigungsstrategien unterscheiden, was sich in zwei Typologien widerspiegelt. Erstens, eine Typologie der Mobilitätspraktiken von Haushalten mit Kindern: (i) autozentriert, (ii) autoreduziert, (iii) ÖPNV-orientiert und (iv) nichtmotorisiert. Zweitens, eine Typologie älterer Menschen anhand ihrer Mobilitätspraktiken: (i) aktive ältere Menschen mit vielseitigen sozialen Interaktionen, (ii) nachbarschaftsorientierte ältere Menschen mit lokalen Kontakten und (iii) ältere Menschen, die überwiegend zu Hause sind und wenig soziale Kontakte haben.
Um herauszufinden, inwiefern mobilitätsbezogene Barrieren der sozialen Teilhabe reduziert werden können, wurden fünf Maßnahmen bezüglich ihrer Wirkung auf die Mobilitätspraktiken einkommensarmer Haushalte mit Kindern untersucht: einerseits die Wirkung des 9-Euro-Tickets anhand von problemzentrierten Interviews mit einkommensarmen Haushalten mit Kindern, andererseits anhand von Expert:inneninterviews die Wirkung von Radlernkursen für Frauen mit Migrationshintergrund, eines Mietertickets, eines Quartierstickets und der Verbesserung der Nahraum- und Aufenthaltsqualität am Beispiel von Tempo 30. Die Ergebnisse zum 9-Euro-Ticket belegen, dass ein erschwingliches ÖPNV-Ticket erheblich zur Reduzierung mobilitätsbezogener Barrieren der sozialen Teilhabe im Armutskontext beiträgt. Die Expert:inneninterviews zeigen auf, dass eine Förderung des Umweltverbunds zielführend ist, um zu einer sozial-ökologischen Verkehrswende beizutragen und insbesondere Maßnahmenbündel Wirkung auf die Reduzierung von mobilitätsbezogenen Barrieren der sozialen Teilhabe entfalten.
Die Erkenntnisse dieser Dissertation ergänzen den wissenschaftlichen Forschungstand um ein tiefergehendes Verständnis der Wirkung von finanzieller Armut auf die Mobilitätspraktiken und soziale Teilhabe von Haushalten mit Kindern und älteren Menschen und helfen dabei, Maßnahmen zur Reduzierung mobilitätsbezogener Barrieren der sozialen Teilhabe zu konzipieren und umzusetzen.
Die vorliegende Arbeit beschreibt die Entwicklung eines interaktionalen Simulationsmodells zum späteren Einsatz in der VR-Simulation Clasivir 2.0 (Classroom Simulator in Virtual Reality), welche in der Lehrkräftebildung eingesetzt werden soll. Das Clasivir-Simulationsmodell wurde im Rahmen eines Prototyps implementiert und zwei anderen Simulationsmodellen in einem Fragebogen entgegengestellt. Ein Simulationsmodell beschreibt im Kontext einer digitalen Schulunterrichtssimulation, wie sich SuS in der Simulation verhalten.
Die drei Simulationsmodelle wurden über zwei unterschiedliche Typen von Video-Visualisierungen, genannt Mockup-Videos, dargestellt: Zum einen über eine 2D-Darstellung aus Vogelperspektive, zum anderen über eine 3D-Darstellung, in welcher 3D-Modelle von SuS animiert wurden. Bei dem realen Simulationsmodell handelt es sich um eine Übertragung einer authentischen Videoaufzeichnung von Unterricht einer hessischen Realschule in 2D/3D-Visualisierungen. Im randomisierten Simulationsmodell führen SuS ihre Verhalten zufällig aus. Alle Modelle basieren auf zweisekündigen Intervallen. Im Falle des realen Simulationsmodells wurde dies durch Analyse aller beobachtbaren einundzwanzig SuS gewonnen, im Falle des Clasivir-Simulationsmodells wurden die Vorhersagen des Simulationsmodells übertragen. Das Simulationsmodell von Clasivir basiert auf behavior trees, stellt eine Art von künstlicher Intelligenz dar und modelliert das SuS-Verhalten größtenteils in Abhängigkeit von Lehrkrafthandlungen. Die Entwicklung des interaktionalen Simulationsmodells von Clasivir ist eine Kernkomponente dieser Arbeit. Das Simulationsmodell basiert auf empirischen Ergebnissen aus den Bereichen der Psychometrie, der pädagogischen Psychologie, der Pädagogik und Ergebnissen der Simulations-/KI-Forschung. Ziel war die Entwicklung eines Modells, das nicht nur auf normativen Vorhersagen basiert, sondern empirisch und theoretisch valide ist. Nur wenige Simulationsmodelle in Unterrichtssimulationen werden mit dieser Art von Transparenz beschrieben, was eines der Alleinstellungsmerkmale dieser Arbeit ist. Es wurden Anstrengungen unternommen die vorliegenden empirischen Ergebnisse in einen kausalen Zusammenhang zu bringen, der mathematisch modelliert wurde. Im Zentrum steht die Konzentration von SuS, welche Ein uss auf Stör-, Melde- und Antwortverhalten hat. Diese Variable wird durch andere situative und personenbezogene Variablen (im Sinne von traits) ergänzt. Wo keine direkten empirischen Ergebnisse vorlagen wurde versucht plausibles Verhalten anhand der Übertragung von Konzeptionsmodellen zu gewinnen.
Da die bisherige Verwendung der angrenzenden Begriffe rund um die Simulationsentwicklung bislang sehr inkonsistent war, wurde es notwendig diese Termini zu definieren. Hervorzuheben ist die Entwicklung einer Taxonomie digitaler Unterrichtssimulationen, die so bislang nicht existierte. Anhand dieser Taxonomie und der erarbeiteten Fachtermini wurden Simulationen in der Lehrkräftebildung auf ihre Modellierung des Simulationsmodells hin untersucht. Die Untersuchung der Simulationen simSchool und VCS war, da sie einen verwandten Ansatz zu Clasvir verfolgen, besonders ergiebig.
Nach der Generierung der Mockup-Videos wurden N=105 Studierende, N=102 davon Lehramtsstudierende, aufgefordert, in einem Online-Fragebogen zwei der Simulationsmodelle miteinander zu vergleichen. Lehramtsstudierende wurden ausgewählt, da sie die Zielgruppe der Simulation sind. Welche Modelle die Partizipantinnen verglichen, war abhängig von der Gruppe der sie zugeteilt wurden. Hierbei wurde neben den Simulationsmodellen auch die visuelle Darstellung variiert. Insbesondere wurden die Partizipantinnen darum gebeten, den Fidelitätsgrad des Simulationsmodells, also den Maßstab, wie realistisch die Partizipantinnen das Verhalten der SuS in der Simulation fanden, zu bewerten. Inferenzstatistisch bestätigte sich, dass Partizipantinnen keinen Unterschied zwischen dem realen Simulationsmodell und dem Clasivir-Simulationsmodell erkennen konnten (t=1.463, df=178.9, p=.1452), aber das randomisierte Simulationsmodell mit einer moderaten Effektstärke von d=.634 als signifikant schlechter einschätzten (t=-2.5231, df=33.581, p=.008271). Die Art der Darbietung (2D oder 3D) hatte keinen statistisch signifikanten Einfluss auf die wahrgenommene Schwierigkeit der Bewertung (z=1.2426, p=.107). Damit kann festgestellt werden, dass eine komplexe und zeitintensive 3D-Visualisierung eines Simulationsmodells bei noch nicht vorliegender Simulation nicht erforderlich ist. Das Clasivir-Simulationsmodell wird als realistisch wahrgenommen. Es kann damit empfohlen werden, es in der VR-Simulation zu verwenden.
Im Ausblick werden bereits während des Schreibens der Arbeit gemachte Entwicklungen beschrieben und Konzepte zum weiteren Einsatz der Ergebnisse entwickelt. Es wird darauf verwiesen, dass eine erste Version eines VR-Simulators entwickelt wurde (Clasivir 1.0), der jedoch rein deterministisch funktioniert und noch nicht das in dieser Arbeit entwickelte Simulationsmodell inkludiert.
Diese Arbeit hatte das Ziel, die Größe einer DVT-Aufnahme (FOV) mit der Größe der durch die Indikationsstellung definierten Region (ROI) zu vergleichen. Durch eine speziell dafür entwickelte Software sollten Messungen in den Datensätzen ermöglicht werden. Die dazu verwendeten 332 Datensätze wurden zufallsverteilt aus den mit einem Orthophos SL-3D DVT-Gerät der Firma Dentsply Sirona in der Poliklinik für zahnärztliche Chirurgie und Implantologie des ZZMK (Carolinum) in Frankfurt angefertigten Röntgenaufnahmen selektiert.
Es wurde die Auswertungssoftware ExRoi entwickelt, mit der die Werte des axialen Durchmessers, die Höhe (vertikale Dimension) sowie die Distanz der Mittelpunkte von FOV und ROI direkt in den Datensätzen bestimmt werden konnten. Zusätzlich wurde festgehalten, welche rechtfertigenden Indikationen gestellt und welche Auflösungsmodi verwendet wurden.
Die Stichprobe bestand aus Aufnahmen mit einem axialen Durchmesser von 8 cm [VOL 1] (n= 76, entsprechend 46,39%), 5 cm Durchmesser [VOL 2] (n = 102, entsprechend 30,72%) und 11 cm Durchmesser [VOL 3] (n= 154, entsprechend 22,89%). 95,18% der Aufnahmen wurden im HD-Modus mit laut Herstellerangaben vier Mal so vielen Aufnahmen im Vergleich zum SD-Modus angefertigt. Hauptindikationen waren Implantat Planung (45,1%) und Planungen komplizierter Zahn-Extraktionen (25,5%).
Die Messungen zum Vergleich des axialen Durchmessers zeigten, dass bei Verwendung des VOL 2 die ROI im Mittel den größten Anteil der FOV nutzt (78,52 %), den kleinsten Anteil nutzt durchschnittlich VOL 1 (56,04 %). Dazwischen liegt VOL 3 (69,12 %). In der Vertikalen nutzt die ROI von VOL 3 mittelwertig den größten Anteil der FOV (81,87 %), den kleinsten Mittelwert hat VOL 1 (58,76 %). VOL 2 liegt zwischen diesen Werten (64,47 %).
In allen Fällen war das FOV größer als die ROI und die ROI lag im Bereich des gewählten FOV.
Die Mittelpunkte von FOV und ROI lagen im Mittel in der axialen Ebene in Abhängigkeit vom gewählten Volumen um rund 9-13 mm auseinander, in der coronalen und sagittalen Ebene um rund 5-6mm.
Aus diesen Ergebnissen kann für das verwendete Gerät eine gute Trefferquote für die ROI abgeleitet werden. Höhe und Durchmesser des FOV hätten in den meisten Fällen kleiner gewählt werden können, liegen aber angesichts der vorhandenen Auswahl-Optionen des Röntgengeräts zur Dimensionierung der Volumina in einem akzeptablen Bereich.
In Deutschland leidet ca. jeder zehnte Mensch über 40 Jahren an einer chronischen Einschränkung seiner Nierenfunktion. Nicht wenige davon sind im Laufe der Erkrankung auf eine Nierenersatztherapie angewiesen. Die Ursachen für eine Nierenschädigung sind vielfältig. Als neuartiger und vielversprechender Therapieansatz werden aktuell Mesenchymale Stamm-/Stromazellen (MSC) als Therapeutikum für diverse Nierenerkrankungen getestet. Erste Ergebnisse klinischer Phase-I-Studien zeigen, dass MSC sicher als Immunsuppressivum nach Nierentransplantation angewendet werden können. Auch für weitere Erkrankungen der Niere sind erste klinische Studien am Laufen. MSC gelten als regenerativ, immunsupprimierend und antientzündlich. Dennoch gibt es noch einige Limitationen. Nach der Transplantation der Zellen ist das Wachstum der Zellen oft eingeschränkt und es kommt zur vermehrten Apoptose. Auch wird immer wieder ein paradoxes und entzündungsförderndes Verhalten der MSC am Wirkort beobachtet. Ein wichtiger Lösungsansatz ist eine in vitro Vorbehandlung der MSC zur Modulierung der zellulären Eigenschaften. In dieser Arbeit wurden drei Substanzen und Arzneimittel auf ihre Fähigkeit untersucht, die entzündungshemmenden Eigenschaften der MSC zu verbessern und die entzündungsfördernden zu unterdrücken. Der Fokus lag hierbei auf dem Arzneimittel Niclosamid und den beiden bisher noch nicht zugelassenen Substanzen Berberin und Gedunin, die alle in vitro und in vivo bereits erste vielversprechende antientzündliche Wirkungen bewiesen haben. Für diese Arbeit wurden MSC aus Fettgewebe isoliert (ASC) und mit LPS oder einem Cytokin-Mix (Mischung aus TNF-α, IFN-γ und IL-1β) sowie den drei Substanzen stimuliert. Untersucht wurden im Anschluss die mRNA-Expressionen der gängigsten proinflammatorischen (TNF-α, IL-6, TLR-4, ICAM-1, HLA-DR) und antiinflammatorischen Marker (IDO, IL-10), sowie mittels ELISA die Protein-Freisetzung von IL-6 und IL-8. Die vielversprechendsten Ergebnisse ließen sich durch Berberin hervorrufen. Hier zeigte sich eine deutliche Senkung der IL-8-Konzentration im ELISA. Die Anwendung des Gedunin hatte keine signifikante Wirkung auf die ASC. Niclosamid hingegen scheint widererwarten sogar entzündungsfördernd zu wirken, in dem es die IL-6-, ICAM-1-mRNA-Expression steigerte und die IDO-mRNA-Expression absenkte. Unter den drei getesteten Subtanzen hat Berberin die beste Wirkung bewiesen. Nach weiterer Testung könnte eine Anwendung mit Berberin als in vitro Präkonditionierung von MSC vielversprechend sein. Die Verwendung von Niclosamid hingegen sollte vermieden werden, die Wirkung von Gedunin müsste genauer untersucht werden.
Im Rahmen dieser Doktorarbeit werden drei Schwerpunkte behandelt: 1) Die hocheffektive Beschleunigung von Elektronen und Protonen durch die Wechselwirkung von relativistischen Laserpulsen mit Schäumen. 2) Die Erzeugung und Messung hochintensiver Betatronstrahlung von direkt laserbeschleunigten (DLA-) Elektronen. 3) Die Anwendung von DLA-Elektronen für den biologischen FLASH-Effekt mit einer rekordbrechenden Dosisrate.
Die direkte Laserbeschleunigung von Elektronen wurde durch die Wechselwirkung eines sub-ps-Laserpulses mit einer Intensität von ~ 10^19 W/cm^2 mit einem Plasma nahe kritischer Elektronendichte (NCD) untersucht. Ein sub-mm langes NCD-Plasma wurde durch Erhitzen eines Schaums mit einer niedrigen Dichte mit einem ns-Puls von 10^13-10^14 W/cm^2 erzeugt. Die Experimente wurden an der PHELIX-Anlage (Petawatt Hoch- Energie Laser für Schwerionenexperimente) in den Jahren 2019 – 2023 durchgeführt. Während der Suche nach optimalen Bedingungen für die Beschleunigung von Elektronen und Protonen wurden die Parameter des ns-Pulses variiert und verschiedene Targets verwendet. Es wurde gezeigt, dass das Plasma im Schaum gute Voraussetzungen für die Erzeugung gerichteter, ultrarelativistischer DLA-Elektronen mit Energien von bis zu 100 MeV bietet. Die Elektronen weisen eine Boltzmann-ähnliche Energieverteilung mit einer Temperatur von 10-20 MeV auf.
Optimale Bedingungen für eine effektive Beschleunigung von DLA-Elektronen wurden bei der Kombination eines CHO-Schaums mit einer Dichte von 2 mg/cm3 und einer Dicke von 300-500 µm mit einer Metallfolie erreicht. Die Gesamtladung der detektierten Elektronen mit Energien über 1,5 MeV erreichte 0,5-1 µC mit der Umwandlungseffizienz der Laserenergie von ~ 20-30%.
Außerdem wird die Beschleunigung von Protonen durch DLA-Elektronen anders verursacht als bei typischer Target Normal Sheath Acceleration (TNSA). Für die Untersuchung der lokalen Protonenenergieverteilung wurden Magnetspektrometer unter verschiedenen Winkeln zur Laserachse verwendet. Dafür wurde eine Filtermethode entwickelt, welche es ermöglicht, Spektren von Protonen mit Energien von bis zu 100 MeV zu rekonstruieren. Es wurde gezeigt, dass am PHELIX durch die Kombination von einem ~ 300-400 µm dicken CHO-Schaum mit einer Dichte von 2 mg/cm^3 und einer 10 µm dicken Au-Folie bei einer Intensität des sub-ps-Pulses von ~ 10^19 W/cm^2 und unter Verwendung eines optimierten ns-Vorpulses eine optimale Protonenbeschleunigung erreicht wurde. Es wurde ein TNSA-ähnliches Regime mit einer maximalen Cut-off-Energie von 34±0,5 MeV beobachtet. Im Vergleich dazu wurde bei der typischen TNSA unter Verwendung einer 10 µm dicken Au-Folie als Target und derselben Laserintensität eine maximale Cut-off-Energie von 24±0,5 MeV gemessen. Darüber hinaus beobachteten wir einen sehr schwachen Abfall der Protonenanzahl in Abhängigkeit von der Protonenenergie (anders als bei der typischen TNSA) und eine sehr regelmäßige Protonenstrahlverteilung in einem breiten Winkelbereich bis zu hohen Energien. Dies könnte zur Verbesserung der Qualität der Protonenradiographie von Plasmafeldern genutzt werden.
Beim DLA-Prozess (im NCD-Plasma) entsteht Betatronstrahlung durch die Oszillationen von Elektronen in quasi-statischen elektrischen und magnetischen Feldern des Plasmakanals. Um diese Strahlung zu untersuchen, wurde ein neues modifiziertes Magnetspektrometer (X-MS) konstruiert. Das X-MS ermöglicht die 1D-Auflösung mehrerer Quellen. Dank dieser Spezifikation war es möglich, Betatronstrahlung von Bremsstrahlung der ponderomotorischen Elektronen im Metallhalter zu trennen und zu messen.
Im Experiment mit einem CHO-Schaum mit einer Dichte von 2 mg/cm^3 und einer Dicke von ~ 800 µm als Target wurde die von den optimierten DLA-Elektronen erzeugte Betatronstrahlung gemessen. Bei einer Peak-Intensität des dreieckigen ns-Pulses von ~ 3·10^13 W/cm^2 und des sub-ps-Pulses von ~ 10^19 W/cm^2, welcher 4±0,5 ns gegenüber dem ns-Puls verzögert war, betrug der Halbwinkel im FWHM-Bereich des Elektronenstrahls 17±2°. Unter diesen Bedingungen war die Betatronstrahlung mit einem Halbwinkel im FWHM-Bereich von 11±2° für die Photonen mit Energien über 10 keV ebenfalls gerichtet. Die Photonenanzahl mit Energien über 10 keV wurde auf etwa 3·10^10 / 3·10^11 (gerichtete Photonen / Photonen im Halbraum entlang der Laserstrahlrichtung) abgeschätzt. Die maximale Photonenanzahl pro Raumwinkel betrug ~2·10^11 photons/sr. Die Brillanz der registrierten Betatronstrahlung erreichte ~ 2·10^20 photons/s/mm^2/mrad^2/(0.1% BW) bei 10 keV.
Die Verwendung eines Hochstromstrahls aus DLA-Elektronen für die FLASH-Strahlentherapie ermöglicht das Erreichen einer Dosis von bis zu 50-70 Gy während eines sub-ps-Laserpulses. Im Jahr 2021, während der P213-Strahlzeit am PHELIX wurde der Sauerstoffkonzentrationsabfall bei der Bestrahlung von Medien (Wasser und andere biologische Medien) mit DLA-Elektronen in Abhängigkeit von der Dosis untersucht. Die Strahlendosis wurde hierbei indirekt gemessen. Hierfür wurde eine Rekonstruktionsmethode entwickelt, die es ermöglicht, die Dosis innerhalb des „Wasser-Containers“ auf Basis von Messungen außerhalb des Containers mit einem untersuchten Medium zu ermitteln. Es wurde eine gute Übereinstimmung zwischen dem Experiment und einer Monte-Carlo-Simulation für Wasser gezeigt. Die registrierte Dosisrate erreichte einen Rekordwert von ~ 70 TGy/s.
Das radioaktive Edelgas Radon und seine ebenfalls radioaktiven Zerfallsprodukte machen den größten Teil der natürlichen Strahlenbelastung in Deutschland aus. Trotz der Einstufung als krebserregend für Lungenkrebs wird es zur Therapie entzündlicher Krankheiten eingesetzt. Der hauptsächliche Aufnahmemechanismus ist dabei die Inkorporation über die Atmung, wobei Radon auch über die Haut aufgenommen werden kann. Radon wird dabei über das Blut im gesamten Körper verteilt und kann in Gewebe mit hoher Radonlöslichkeit akkumulieren. Die Zerfallsprodukte verbleiben jedoch in der Lunge, zerfallen dort, bevor sie abtransportiert werden können und schädigen das dortige Gewebe.
Die Lungendosis wird laut Simulationen zum größten Teil durch die kleinsten Radon-Zerfallsprodukte (< 10 nm) bestimmt, die besonders effektiv im Respirationstrakt anheften. Die erzeugte Dosis ist dabei aufgrund der inhomogenen Anlagerung der Zerfallsprodukte lokal stark variabel. In Simulationen wurden Bifurkationen als Ort besonders hoher Deposition identifiziert, wobei die experimentelle Datenlage zur Deposition kleinster Radon-Zerfallsprodukte eingeschränkt ist. Aufgrund des Anstiegs der Komplexität von Simulationen oder Experimenten wird in den meisten Betrachtungen nicht der oszillatorische Atemzyklus berücksichtigt, sondern lediglich ein einseitig gerichteter Luftstrom betrachtet. Im Rahmen dieser Arbeit wurde ein experimentelles Modell entwickelt und etabliert, das die Messung der Deposition von Radon-Zerfallsprodukten ermöglicht und zwischen drei Größenfraktionen (Freie Zerfallsprodukte: < 10 nm, Cluster: 20-100 nm, Angelagerte Zerfallsprodukte: > 100 nm) unterscheiden kann. Der Luftfluss durch das Modell bildet sowohl die Inhalation als auch die Exhalation ab. Erste Experimente mit dem neu entwickelten Messaufbau konnten die aus Simulationen bekannte erhöhte Deposition der freien Zerfallsprodukte in einer Bifurkation abbilden. Die Vergrößerung des Bifurkationswinkels von 70° auf 180° zeigte lediglich einen minimalen Anstieg in der Größenordnung des Messfehlers. Der dominierende Prozess der Anlagerung der freien Zerfallsprodukte ist die Brown'sche Molekularbewegung, die unabhängig vom Bifurkationswinkel ist. Dennoch kann ein veränderter Winkel die Luftströmung und entstehende Turbulenzen verändern, wodurch die Deposition beeinflusst werden kann. Dies lässt sich jedoch mit dem hier benutzten Messaufbau nicht auflösen. Entgegen der Beobachtungen in der Literatur führte die Erhöhung der Atemfrequenz von 12 auf 30 Atemzüge pro Minute, in den im Rahmen dieser Arbeit durchgeführten Experimenten, zu keiner messbaren Veränderung der Deposition. Diese Beobachtung ist auf die Entstehung gegensätzlicher Effekte zurückzuführen. Einerseits führt eine schnellere Luftströmung zu kürzeren Aufenthaltszeiten der freien Zerfallsprodukte im Modell, wodurch die Deposition unwahrscheinlicher wird. Andererseits entstehen vermehrt sekundäre Strömungen und absolut betrachtet werden mehr Partikel durch das Modell gepumpt. Es ist davon auszugehen, dass sich diese Effekte im hier getesteten Bereich aufheben.
Als potentielle Schutzmaßnahme zur Reduktion der Lungendosis konnte im Rahmen dieser Arbeit die Filtereffzienz von Gesichtsmasken (OP-Masken, FFP2 Masken) gegenüber Radon und seinen Zerfallsprodukten bestimmt werden. Während Radon nicht gefiltert wird, wurden die freien Zerfallsprodukte fast vollständig (> 98%) und die Cluster zum größten Teil (≈ 80 %) zurückgehalten.
Radon selbst kann im gesamten Organismus verteilt werden und dort in Gewebe akkumulieren. Zur Bestimmung der Dosis wird dabei auf biokinetische Modelle zurückgegriffen. Diese sind von der Qualität ihrer Eingabeparameter abhängig, wobei beispielsweise die Werte zur Verteilung von Radon zwischen Blut und Gewebe auf experimentell gewonnenen Löslichkeitswerten aus Mäusen und Ratten beruhen. Unbekannte Werte werden von der Internationalen Strahlenschutzkommission basierend auf der Gewebezusammensetzung als gewichteter Mittelwert berechnet. In dieser Arbeit wurde die Löslichkeit in humanen Blutproben und wässrigen Lösungen verschiedener Konzentrationen der Blutproteine Hämoglobin und Albumin bestimmt. Es löste sich mehr Radon in Plasma als in Erythrozytenkonzentrat und Vollblut. Die Protein-Lösungen zeigten keine Konzentrationsabhängigkeit der Löslichkeit, sondern lediglich in hitzedenaturiertem Hämoglobin wurde eine niedrigere Löslichkeit gemessen. Basierend auf diesen Beobachtungen, sollte die These überprüft werden, ob sich die Löslichkeit einer Mischung als gewichteter Mittelwert der einzelnen Löslichkeiten berechnen lässt. Daher wurden diese in einer Mischung aus zwei Flüssigkeiten (1-Pentanol, Ölsäure) bestimmt. Die experimentell bestimmte Löslichkeit war dabei fast doppelt so groß wie der berechnete Wert. Dieser Unterschied kann dadurch zustande kommen, dass bei einer Berechnung basierend auf der Zusammensetzung die Wechselwirkungen zwischen den Lösungsmitteln vernachlässigt werden. Dies verdeutlicht die Notwendigkeit experimenteller Daten zur Verteilung und Lösung von Radon in verschiedenem Gewebe.
Polygene Risikoscores (PRS) integrieren zahlreiche Einzelnukleotid-Polymorphismen (SNP) von meist geringer Effektstärke, um Auskunft über das Erkrankungsrisiko bestimmter Krankheiten zu geben. In dieser Arbeit wurde der PRS zur genetisch generalisierten Epilepsie (GGE) von Leu et al. aus dem Jahr 2019 untersucht, um festzustellen, ob über das Erkrankungsrisiko hinaus noch Korrelationen mit weiteren phänotypischen Eigenschaften von Patienten bestehen. Der Nachweis solcher Zusammenhänge würde eine Prädiktionsfähigkeit des GGE-PRS demonstrieren, die perspektivisch ein Potential für dessen klinische Anwendbarkeit, beispielsweise im Sinne der personalisierten Medizin, aufzeigen könnte.
Die Identifizierung neuer Korrelationen sollte durch Vergleich der Phänotypen von zwei Gruppen von GGE-Patienten mit extrem hohen, beziehungsweise extrem niedrigen PRS-Werten erfolgen. Hierfür wurden von 2256 Patienten aus der Datenbank von Epi25, einem internationalen Forschungskollaborativ zur Erforschung der Relevanz genetischer Faktoren bei der Entwicklung von Epilepsie, die Patienten mit den höchsten (n=59) und den niedrigsten (n=49) GGE-PRS-Werten ausgewählt. Für diese 108 Patienten wurden retrospektive klinische Daten von den jeweiligen Behandlungszentren akquiriert. Hierzu wurde den Studienleitern der Zentren ein Questionnaire mit Fragen zu zahlreichen phänotypischen Parametern der Patienten übermittelt. Die Rücklaufrate war mit 54% gut.
Die so eingeholten Patientendaten wurden anschließend mittels Exaktem Test nach Fisher und Wilcoxon-Rangsummentest statistisch analysiert, um Unterschiede zwischen den Phänotypen beider Gruppen nachzuweisen. Im Falle der Pharmakoresistenz zeichneten sich hierbei zunächst signifikante Unterschiede ab, die ein selteneres Auftreten dieser Eigenschaft für Patienten mit hohen GGE-PRS-Werten implizierten. Diese Ergebnisse waren jedoch nach einer Bonferroni-Korrektur und bei Validierung in einer größeren Kohorte (n=825) nicht mehr signifikant. Für die anderen untersuchten Parameter waren ebenfalls keine signifikanten Unterschiede nachweisbar.
Das Ergebnis, dass für keinen der untersuchten Parameter signifikante Differenzen bestanden, obwohl zwei Kohorten mit extrem gegensätzlichen PRS-Werten untersucht wurden, spricht gegen eine Verwendung des aktuell verfügbaren GGE-PRS als prädiktiver Biomarker über das Erkrankungsrisiko hinaus und somit gegen dessen klinische Anwendbarkeit. Jedoch können die nicht-signifikanten Korrelationen im Falle der Pharmakoresistenz als Hinweis verstanden werden, dass im Bereich der Pharmakotherapie Zusammenhänge zwischen Score und Phänotyp bestehen könnten, die weiterer Untersuchungen in zukünftigen Studien bedürfen. Bei Verwendung eines verbesserten GGE-PRS mit zusätzlichen risikoassoziierten SNP und verfeinerter Wichtung der Effektstärken sowie größerer Kohorten könnten in diesem Bereich möglicherweise auch signifikante Zusammenhänge nachweisbar werden.
Die Appendizitis stellt mit einer Inzidenz von 115 pro 100000 Einwohnern in Deutschland eine der häufigsten Ursachen für ein akutes Abdomen dar. Bakterielle Infektionen sind ein wesentlicher Faktor für die postoperative Morbidität nach Appendektomie.
Ziel dieser prospektiven Studie war es, das Keimspektrum und insbesondere die Prävalenz resistenter Keime bei der akuten Appendizitis zu bestimmen und die Auswirkungen resistenter Keime auf das Auftreten infektiöser Komplikationen zu analysieren. Alle erwachsenen Patient*innen mit akuter Appendizitis, die zwischen April 2022 und Juli 2023 am Universitätsklinikum Frankfurt operativ behandelt wurden, wurden prospektiv eingeschlossen. Das Keimspektrum der Appendix und die Häufigkeit von MRE in Rektalabstrichen wurden analysiert. Die klinischen Daten wurden extrahiert, um die Korrelation des Keimspektrums mit dem Auftreten von postoperativen Komplikationen, Dauer und Art der Antibiotikatherapie und dem postoperativen Verlauf zu evaluieren. 30 Tage nach der Operation wurde ein Follow-up durchgeführt. Insgesamt wurden 105 Patient*innen in die Studie eingeschlossen.
In den Appendixabstrichen gelang ein Erregernachweis bei 67,6 % aller Fälle. Hierbei betrug die Prävalenz von Keimen mit Antibiotikaresistenz 43,8 %, Multipler-Antibiotikaresistenz (MAR) 27,6 % und bei 5,7 % der Fälle gelang ein MRE-Nachweis nach CDC im Appendixabstrich. Beim MRE-Screening konnten im Rektalabstrich bei 11,4 % der Patient*innen ein MRE nachgewiesen werden. In vier Fällen zeigte sich eine Übereinstimmung zwischen rektalen und appendikulären Abstrich, somit betrug die Sensitivität des MRE-Screenings für einen Nachweis multiresistenter Keime in der Appendix lediglich 33,3 % bei einer Spezifität von 86,7 %. In einer univariaten Analyse konnte das Vorliegen eines Diabetes mellitus als Risikofaktor für das Auftreten von Keimen mit Cefuroxim- Resistenz, Multipler-Antibiotikaresistenz (MAR) und MRE identifiziert werden.
Insgesamt erhielten 47,6 % aller Patient*innen postoperativ eine Antibiotikatherapie, von denen erfolgte bei 46 % eine Umstellung der empirischen Antibiose auf eine antibiogramm-gerechte Therapie nach Erhalt des mikrobiologischen Befundes. Insbesondere Patient*innen mit komplizierter Appendizitis erhielten postoperativ eine Antibiotikatherapie, wobei 28 % eine Antibiotikaeskalation benötigten.
Patient*innen, deren Appendixabstriche eine Resistenz gegen maximal ein Antibiotikum aufwiesen, wurden als nicht multiple Resistenz (Nicht-MAR) definiert und mit Patient*innen verglichen, deren Keime mit multipler Antibiotikaresistenz (MAR) waren. Die MAR-Gruppe zeigte im Vergleich zur Nicht-MAR-Gruppe eine höhere Inzidenz postoperativer Komplikationen, insbesondere eine erhöhte Inzidenz von Clavien-Dindo Grad 3 Komplikationen sowie von tiefen postoperativen Wundinfektionen (CDC Grad A3). Weiterhin benötigten Patient*innen der MAR-Gruppe häufiger eine postoperative Antibiotikatherapie und es erfolgte häufiger eine Eskalation der antibiotischen Therapie. Dies ging auch mit einem signifikant verlängerten Krankenhausaufenthalt einher.
Zusammenfassend kann festgestellt werden, dass eine bakterielle Infektion mit Multipler Antibiotikaresistenz bei der akuten Appendizitis häufig auftritt und die Morbidität nach Appendektomie beeinflusst. Die mikrobiologische Untersuchung mittels Appendixabstrich bei operativ behandelten Fällen von akuter komplizierter Appendizitis, die eine postoperative Antibiotikatherapie erfordern, könnte somit eine gezielte und kürzere Antibiotikatherapie ermöglichen. Dies könnte dazu beitragen, längere Krankenhausaufenthalte zu vermeiden, den unnötigen Einsatz unwirksamer Antibiotika zu reduzieren und die Kosten im Gesundheitswesen zu senken.
Das Schilddrüsenkarzinom (SK) ist die häufigste bösartige endokrine Tumorerkrankung. Während das nicht-metastasierte und nicht-mutierte papilläre Schilddrüsenkarzinom (PSK) und das follikuläre Schilddrüsenkarzinom (FSK) eine gute Heilungschance aufweisen, zeigen die mutierten und metastasierten Varianten des PSK und FSK sowie das anaplastische Schilddrüsenkarzinom (ASK) weiterhin eine schlechte Prognose. Die Entwicklung von Therapieresistenzen stellen hierbei ein Hauptproblem in der Behandlung des fortgeschrittenen Schilddrüsenkarzinoms dar.
In den letzten Jahren wurden in Studien zunehmend Tumor-initiierende Zellen (TIZ) beschrieben, welche eine kleine Subpopulation von Zellen mit der Fähigkeit zur Selbsterneuerung, Tumorinitiierung und Entwicklung von Therapieresistenzen von Tumoren darstellen. Die Existenz von TIZ wurde auch im SK nachgewiesen. Ein entscheidender Faktor für die Persistenz von TIZ ist die Hypoxie, welche über eine Veränderung des Tumormikromilieus und des Zellmetabolismus zur Entstehung von Therapieresistenzen beiträgt. Ein durch Hypoxie hochreguliertes Enzym ist die Carboanhydrase IX (CAIX). CAIX wird hauptsächlich von Tumorzellen exprimiert und katalysiert die Reaktion von Kohlendioxid zu Bicarbonat und einem Proton und trägt damit zur Säurepufferung der Tumorzelle bei. CAIX stellt somit einen entscheidenden Faktor für das Überleben von Tumorzellen in einem hypoxischen Milieu dar. Des Weiteren ist eine erhöhte Expression von CAIX mit einem schlechten Patienten-Outcome assoziiert, wie z.B. im Brustkrebs. Diese Eigenschaften machen CAIX zu einem attraktiven Angriffspunkt einer zielgerichteten Tumortherapie. Die vorliegende Studie hat zum Ziel, die Expression von CAIX sowie dessen biologische Rolle im Schilddrüsenkarzinom näher zu untersuchen.
Hierzu wurden Proben von 114 SK-Patienten immunhistochemisch auf eine CAIX-Expression untersucht und mit tumorfreiem Schilddrüsengewebe verglichen. Hierbei waren unterschiedliche SK-Subtypen vertreten. Für eine weitere Validierung der Expressionsdaten erfolgte die Auswertung eines Datasets von „The Cancer Genome Atlas“ (TCGA) mithilfe von cBioportal. Da die Hypoxie ein wichtiger Faktor für die Persistenz von TIZ ist, wurde die CAIX-Expression in Tumorsphären, ein in vitro Nachweis von TIZ-Aktivität, mittels der Durchflusszytometrie bestimmt und mit der CAIX-Expression von Monolayern verglichen. Als SK-Zelllinien wurden BCPAP (PSK), FTC 133 (FSK) und 8505 C (ASK) verwendet. Anschließend wurde mithilfe der Polymerasekettenreaktion und Immunofluoreszenzfärbung untersucht, ob eine CAIX-Expression in den Tumorsphären mit der Expression von bereits bekannten Stammzellmarkern, u.a. NANOG, assoziiert ist. Die Unterschiede der CAIX-Expression, nach Inkubation der Monolayer jeweils in Normoxie und Hypoxie, wurden mittels Durchflusszytometrie bestimmt. Mithilfe eines genetischen CAIX-Knockdowns sowie einer pharmakologischen Inhibition mit dem CAIX-Inhibitor Methazolamid (MZM) wurde die Tumorzellproliferation und -Sphärenbildung unter Normoxie und Hypoxie bestimmt. Zusätzlich wurde der Einfluss von MZM auf die Apoptose und den Zellzyklus untersucht.
Immunhistochemische Färbungen der Gewebeproben von SK-Patienten zeigten, dass die CAIX-Expression sowohl im PSK und FSK als auch im ASK im Vergleich zum tumorfreien Schilddrüsengewebe erhöht war. Des Weiteren zeigte die klinisch-pathologische Datenanalyse, dass eine erhöhte CAIX-Expression mit dem Auftreten von Lymphknotenmetastasen im differenzierten SK assoziiert war. Auch die Analyse des TCGA-Datasets bestätigte, dass eine erhöhte Expression der CAIX-mRNA mit einem fortgeschrittenen Tumorstadium, Fernmetastasen und mit einem kürzeren Gesamt-Überleben von SK-Patienten korrelierte. Die weiteren funktionellen in vitro Untersuchungen ergaben, dass die CAIX-Expression in den Tumorsphären im Vergleich zu Monolayern erhöht und mit einer erhöhten Expression von Stammzellmarkern assoziiert war. Ein genetischer CAIX-Knockdown und eine CAIX-Inhibition mit MZM führten über eine Induktion der Apoptose und eines Zellzyklusarrests zu einer verminderten Tumorzellproliferation und Sphärenbildung.
Zusammenfassend deuten die Ergebnisse darauf hin, dass CAIX ein vielversprechendes Zielmolekül für eine gezielte Tumortherapie des fortgeschrittenen SK ist. Um diese Hypothese bestätigen zu können, sind jedoch weitere prospektive Analysen von Patientenproben sowie funktionelle in vivo Untersuchungen am SK nötig.
Einleitung: Die Zentrale Notaufnahme (ZNA) stellt eine Schnittstelle zwischen prä- und innerklinischer Versorgung dar. Das Spektrum der Krankheitsbilder erstreckt sich über jegliche Fachrichtungen und variiert von harmlosen Banalitäten bis zu akuten Notfällen. Eine sichere und suffiziente Primärversorgung ist die Basis eines qualitativ-hochwertigen Gesundheitssystems.2 Verspätete oder falsche Diagnosen in der ZNA sind mit 10-30 % keine Seltenheit.
Dies ist nicht nur für den individuellen Patienten belastend, es bedeutet auch einen zusätzlichen Ressourcenverbrauch und eine finanzielle Belastung für das Gesundheitssystem. Clinical Decision Support Systems (CDSS) haben das Potenzial, sowohl professionelle Anwender als auch Laien bei ihrer Diagnosefindung zu unterstützen. Fragestellung: Ziel der Arbeit ist es herauszufinden, welchen Einfluss der Diagnosezeitpunkt auf das Outcome von Patienten mit Abdominalschmerzen in der ZNA hat und inwiefern ein CDSS das Potenzial hat, die genannten Punkte zu beeinflussen.
Methoden: Es handelte sich um eine prospektive, doppelt verblindete Beobachtungsstudie. Patienten, die sich mit Abdominalschmerzen in der Notaufnahme vorstellten, gaben ihre Symptome in die Ada-App ein. Sowohl die Diagnosevorschläge der App als auch die Verdachtsdiagnosen des behandelnden Arztes wurden dokumentiert und verglichen. Weitere erhobene Parameter waren die Verwendung von apparativer Diagnostik, die vergangene Zeit bis zur endgültigen Diagnosestellung, das Auftreten von Komplikationen, die Komorbidität und Mortalität sowie die Länge des Krankenhausaufenthalts. Das Follow-Up erfolgte zu verschiedenen Zeitpunkten bis zu Tag 90. Für die Analyse wurden die 450 Patienten anhand des Zeitpunkts ihrer Diagnosestellung in Gruppen "früh" (Tag 0) und "spät" (Tag 1-24) eingeteilt.
Ergebnisse: Im Vergleich zur „frühen“ Gruppe, hatte die Gruppe der „spät“ diagnostizierten Patienten einen höheren Anteil von Männern (45.2% (n=168/372) versus 60.3 % (n=47/78); p=0.018), im Schnitt einen höheren Charlson Comorbidity Index (0.7 versus 1.1; p=0.045) und im Schnitt einen höheren RAI-C Score (8.06 versus 9.9; p<0.001) am Tag ihrer Vorstellung. Bei den „spät“ diagnostizierten blieben weniger Patienten komplikationsfrei (57.0 % 49 (n=212/372) versus 17.9% (n=14/78); p<0.001), es traten mehr Major-Komplikationen auf (8.9% (n=33/372) versus 17.9% (n=14/78); p=0.024), analog dazu war der Comprehensive Complication Index höher (13.1 versus 25.6; p<0.001) und sie verweilten länger im Krankenhaus (2.6 Tage versus 6.7 Tage; p<0.001). Zudem nahmen sie signifikant mehr apparative Diagnostik in Anspruch.
Die behandelnden Ärzte konnten in 82.6% der Fälle (n=372/450) am Tag der Vorstellung die korrekte Diagnose stellen. Die Ada-App konnte in insgesamt 52% der Fälle (n=234/450) die korrekte Diagnose unter ihren Diagnoseverschlägen nennen.
Schlussfolgerung: Multimorbide Patienten scheinen anfälliger zu sein für falsche und verspätete Diagnosen. Ein später Diagnosezeitpunkt korreliert mit der vermehrten Nutzung apparativer Diagnostik, einem komplikationsreicheren Verlauf, einer höheren Komorbidität und einem längeren Krankenhausaufenthalt.
Die Ada-App ist den Ärzten zwar unterlegen, dennoch ist Potenzial vorhanden.
Für Ärzte kann die Ada-App eine Unterstützung im Rahmen der Diagnosefindung darstellen. Neben der Ressourcenentlastung kann sie vor Fehlannahmen und frühzeitigen Schlussfolgerungen schützen und auf weitere mögliche Differentialdiagnosen hinweisen. Die Ada-App stellt für Laien mit Sicherheit eine Weiterentwicklung gegenüber der simplen Symptomsuche über das Internet dar, dennoch sollten weitere Studien den Nutzen und die Sicherheit der App überprüfen.
Ziel: Nebennierenraumforderungen können sonographisch mit guter Sensitivität und Spezifität erkannt werden. Ziel der vorliegenden Studie war es, die Wertig-keit der Kontrastmittel-Sonographie (CEUS = contrast enhanced ultrasound) unter Verwendung von Zeit-Intensitäts-Kurven für die Charakterisierung von Nebennierenraumforderungen zu bewerten.
Material und Methoden: 108 Patienten mit 116 Raumforderungen der Neben-niere erhielten einen Ultraschall der Nebenniere, inklusive einer Kontrastmittel-Sonographie mit dem Kontrastmittel SonoVue®. Die Kontrastmitteldynamik wurde mittels Zeit-Intensitätskurven aufgezeichnet. Anhand der Kontrastmittel-anflutungszeit wurden folgende vier Kontrastmittelanreicherungsmuster ver-wendet, welche in einer Pilotstudie1 entwickelt wurden: Anreicherungsmuster I = früh arterielle Kontrastmittelanreicherung, Anreicherungsmuster II = arterielle Kontrastmittelanreicherung, Anreicherungsmuster III = späte Kontrastmittelan-reicherung, Anreicherungsmuster IV = keine Kontrastmittelanreicherung. Zu-sätzlich erhielten alle Patienten eine Beurteilung der Nebenniere durch ein zweite Bildgebendes Verfahren (Computertomographie (CT) oder Magnetresonanztomographie (MRT)) sowie eine laborchemische Hormondiagnostik. In Fällen mit malignitätsverdächtigem Befund erfolgte eine Biopsie oder Adrenalektomie.
Ergebnisse: CEUS- Anreicherungsmuster I und II konnten bei allen Patienten mit primärem oder sekundärem Malignom der Nebenniere (n = 16) nachgewie-sen werden. Die Sensitivität der CEUS für die Diagnose einer malignen Neben-nierenraumforderung betrug 100% (95% CI [75; 100]) und die Spezifität 67% (95% CI [56; 75]). Bei 40 Nebennierenraumforderungen war die Histologie die Referenzmethode. In 68% dieser Nebennierenraumforderungen waren MRT/CT und CEUS kongruent in der Beurteilung der Dignität. Schlussfolgerung: Die Kontrastmittel-Sonographie ist eine nützliche ergän-zende Methode in der Aufarbeitung von Nebennierenraumforderungen mit exzellenter Sensitivität für die Diagnose eines Malignoms.
Die Arbeit befasst sich mit einer Vereinfachung des von Devroye (1999) geprägten Begriffs der random split trees und verallgemeinert diesen im Sinne von Janson (2019) auf unbeschränkten Verzweigungsgrad. Diese Verallgemeinerung deckt auch preferential attachment trees mit linearen Gewichten ab, wofür ein Beweis von Janson (2019) aufbereitet wird. Zusätzlich bleiben die von Devroye (1999) nachgewiesenen Eigenschaften über die Tiefe der hinzugefügten Knoten erhalten.
Die vorliegende Arbeit untersucht den Übergang von Mitarbeitenden zu Führungskräften. Der Fokus der Arbeit ist nicht die Konzeption der Führungskräfteentwicklung aus der Perspektive der Unternehmen, sondern die Untersuchung der Entstehung und Gestaltung dieses Übergangs durch die Mitarbeitenden innerhalb ihrer beruflichen Rahmenbedingungen. Die Ergebnisse dieser Arbeit zeigen, dass sich in der Gestaltung dieses Übergangs von Mitarbeitenden zur Führungskräften individuelle und organisatorische Aspekte verbinden – bzw. diese durch das Subjekt in eine Verbindung gebracht werden. Durch leitfadengestützte Interviews mit (berufs-) biografischem Schwerpunkt ließen sich die individuellen, wie auch die sozialen und organisatorischen Aspekte der Gestaltung des Übergangs von Mitarbeitenden zur Führungskräften rekonstruieren. Die Stichprobe dieser Arbeit umfasst neun Interviews aus unterschiedlichsten Branchen und beinhaltet sowohl öffentliche als auch privatwirtschaftliche Arbeitgeber. Die dadurch gewonnenen Erkenntnisse ermöglichen Einsichten in die Formen und Bedingungen der Gestaltung dieses Übergangs und können auch eine Grundlage für (organisations-)pädagogische Konzepte zur Unterstützung der Mitarbeitenden bei diesem Übergang bilden.
Die Magisterarbeit in ein Beitrag zur Weiterentwicklung neuzeitlicher Subjekt- und Emanzipationstheorien. Im ersten Schritt werden die Grundkonzepte aus Baruch de Spinozas Ethik dargestellt und ihre Rolle fuer die Ideologietheorie Louis Althussers analysiert. Auf Grundlage dieser Analyse werden Grenzen der Subjekt- und Ideologietheorie Altussers aufgezeigt und der Versuch unternommen sie unter Zugriff auf spinozistische Begigriffe zu ueberwinden. Eine zentrale Rolle spielt hierbei die Perspektive auf den Menschen als körperliches, emotionales und begehrendes Wesen.
Die vorliegende Dissertation befasst sich mit Flow-Zuständen beim Lesen fiktiver Texte. Das 1975 von Mihaly Csikszentmihalyi vorgestellte Konzept des Flow bezieht sich auf das völlige Aufgehen in einer optimal herausfordernden Tätigkeit, das mit Absorption, Verarbeitungsflüssigkeit und intrinsische Freude einhergeht. Bislang wurde Flow zumeist im Kontext motorischer und leistungsorientierter Aktivitäten empirisch untersucht und in erster Linie theoretisch mit Lesefreude in Verbindung gebracht. Ziel der drei Studien, die diese Dissertation umfasst, war es daher einerseits, Flow beim Lesen erstmals anhand größerer Leser-Stichproben und mithilfe von psychometrischen Gütekriterien genügenden Messinstrumenten nachzuweisen. Andererseits sollte Flow im Rahmen eines Modells für positives Leseerleben mit anderen in der Leseforschung diskutierten Konzepten in Verbindung gebracht und im Hinblick auf potenzielle psychophysiologische Korrelate untersucht werden.
In der ersten Studie wurde eine in der allgemeinen Flow-Forschung verbreitete Kurz-Skala an den Lesekontext adaptiert und anhand einer 229 Leser umfassenden Stichprobe psychometrisch getestet. Hierzu wurden die Teilnehmer im Rahmen einer Online-Studie gebeten, nach 20-minütigem Lesen in einem selbstgewählten Roman Fragebögen zu ihrem Leseerleben auszufüllen. Zufriedenstellende Reliabilitätskoeffizienten, positive Korrelationen mit konvergenten Maßen, die faktoranalytische Unterscheidbarkeit zu diskriminanten Maßen und die erwartete Assoziation mit einem Flow-Kriterium bestätigten die Güte der Flow-Skala. Eine Explorative Faktorenanalyse ergab jedoch, dass fast alle Items auf dem Faktor Absorption luden. Zudem ließ die zweifakorielle Skalenstruktur keine abschließende Aussage zur Legitimierung eines globalen Flow-Scores zu. Daher wurde in der zweiten Studie auf Basis der ersten Skala und der aus der Theorie bekannten Flow-Komponenten ein umfassenderer lesespezifischer Flow-Fragebogen entwickelt. Dessen Reliabilität und Validität konnte anhand einer Online-Studie mit 373 Teilnehmern, in deren Rahmen ein Kapitel aus Homers Odyssee gelesen wurde, bestätigt werden. Neben Hinweisen zur konvergenten und diskriminanten Konstrukt- und zur Kriteriumsvalidität stützten die Ergebnisse einer Konfirmatorischen Faktorenanalyse eine theoretisch angemessene Skalenstruktur, mit den einzelnen Komponenten, mit Absorption, Verarbeitungsflüssigkeit und intrinsischer Freude als Subdimensionen und mit Flow als übergeordnetem Faktor. Mittels eines Strukturgleichungsmodells konnte zudem demonstriert werden, dass der auf Basis dieses Fragebogens gemessene Flow eine zentrale Rolle beim Leseerleben einnehmen kann. So wurde Flow als Mediator für andere, ebenfalls erhobene Erlebnisformen beim Lesen wie etwa Identifikation oder Spannung bestätigt. Von diesen Konzepten klärte Flow den größten Anteil an Varianz in Lesefreude und Textverständnis auf, die als Outcomes von positivem Leseerleben modelliert wurden. Da Flow gegenüber anderen Konzepten der Leseforschung den Vorteil hat, die Ableitung experimenteller Paradigmen und psychophysiologischer Hypothesen zu ermöglichen, wurden in der dritten Studie über die Manipulation des stilistischen Herausforderungsgrades eines weiteren Odyssee-Kapitels unterschiedliche Lese-Bedingungen hergestellt und kardiovaskuläre Daten gemessen. Es zeigten sich zwar keine signifikanten Gruppenunterschiede im Flow-Erleben, jedoch Interaktionen zwischen der Lesebedingung und kardiovaskulären Indikatoren bei der Vorhersage von Flow. So scheinen parasympathische Dominanz und ein entsprechender innerer Entspannungszustand, indiziert durch eine geringe Herzrate und hohe Herzratenvariabilität, Flow beim Lesen zu begünstigen, wenn der Text stilistisch anspruchsvoll ist. Es fanden sich hingegen keine Hinweise dafür, dass Flow-Erleben die Herzaktivität von Lesern verändert oder sich durch sie objektiv erfassen lässt.
Insgesamt sprechen die Ergebnisse dieses Forschungsprojektes somit für das Auf-treten von Flow beim Lesen sowie für dessen zentrale Rolle bei positiven Leseerlebnissen. Außerdem zeigen sie das Potenzial des Flow-Konzeptes für die Leseforschung auf, insbesondere hinsichtlich psychophysiologischer Experimentalstudien.
Intelligenz ist einer der stärksten Einzelprädikatoren für berufliche Leistungen. Hochintelligente Personen, sogenannte Hochbegabte, müssten daher generell hohe berufliche Leistungen erbringen. Dies steht jedoch im Widerspruch zu Darstellungen von Schwierigkeiten Hochbegabter im Beruf. Sollten die negativen Stereotype zutreffen, wäre dies aus ressourcenorientierter Sicht problematisch, da Organisationen das der Hochbegabung zugrunde liegende Potenzial der Mitarbeiter*innen nicht hinreichend nutzen. Die vorliegende Arbeit leistet einen Beitrag dazu, diese Diskrepanz aufzuklären, indem sie untersucht wie Hochbegabte ihre berufliche Situation (erfolgreich) gestalten. Nach einer Begriffsklärung und Darstellung des Zusammenhangs von Intelligenz und Beruf wird im ersten Beitrag der internationale Forschungsstand mithilfe eines Literature Reviews systematisiert. Aufbauend darauf werden im zweiten Beitrag mithilfe einer Fragebogenerhebung die überwiegend internationalen Beiträge durch eine deutsche Stichprobe und die bisher wenig betrachtete Gruppe von Hochbegabten gemäß Kompetenzdefinition ergänzt. Schließlich fokussiert der dritte Beitrag den Widerspruch, dass Hochbegabte generell erfolgreich und zufrieden im Beruf sind, jedoch individuell von Schwierigkeiten berichten. Dazu werden teilstrukturierte Interviews durchgeführt, um ein tieferes Verständnis für den Einfluss der Hochbegabung auf den Beruf sowie etwaige bestehende Unterschiede zu nicht-hochbegabten Personen zu gewinnen. Zudem werden Strategien erfasst, die Hochbegabte nutzen, um Unterschiede und eventuell daraus resultierende Schwierigkeiten zu bewältigen. Abschließend werden Implikationen für die Berufspraxis und Forschung diskutiert.