Refine
Year of publication
Document Type
- Article (13013)
- Part of Periodical (8492)
- Book (5916)
- Doctoral Thesis (3626)
- Part of a Book (2615)
- Review (2515)
- Contribution to a Periodical (2366)
- Working Paper (1015)
- Report (998)
- Conference Proceeding (509)
Language
- German (42481) (remove)
Is part of the Bibliography
- no (42481) (remove)
Keywords
- Deutsch (752)
- Literatur (693)
- Rezension (414)
- Deutschland (382)
- Frankfurt <Main> / Universität (341)
- Rezeption (268)
- Geschichte (251)
- Vorlesungsverzeichnis (224)
- Hofmannsthal, Hugo von (218)
- Film (208)
Institute
- Präsidium (5111)
- Medizin (2354)
- Extern (1695)
- Gesellschaftswissenschaften (1380)
- Rechtswissenschaft (1036)
- Geschichtswissenschaften (916)
- Biochemie und Chemie (888)
- Neuere Philologien (828)
- Wirtschaftswissenschaften (783)
- Physik (696)
Um den eigenen Beitrag zur sozial-ökologischen Transformation zu konkretisieren, entwickelt die Goethe-Universität in den kommenden Monaten eine Nachhaltigkeitsstrategie. Die Strategie soll klare Ziele, Maßnahmen und Verantwortlichkeiten definieren und das Bewusstsein für Nachhaltigkeit an der Universität, aber auch darüber hinaus, stärken.
Wie kommen Wissenschaft und Praxis zueinander? Unter dem Motto »Bridging the gap« stellte das Forschungsinstitut Gesellschaftlicher Zusammenhalt (FGZ) am 25. April auf einem Festival neue Formate der Wissenschaftskommunikation vor. Der UniReport sprach mit den FGZ-Referenten für Wissenstransfer Katja Maasch und Manuel Steinert.
Im Rahmen dieser Doktorarbeit werden drei Schwerpunkte behandelt: 1) Die hocheffektive Beschleunigung von Elektronen und Protonen durch die Wechselwirkung von relativistischen Laserpulsen mit Schäumen. 2) Die Erzeugung und Messung hochintensiver Betatronstrahlung von direkt laserbeschleunigten (DLA-) Elektronen. 3) Die Anwendung von DLA-Elektronen für den biologischen FLASH-Effekt mit einer rekordbrechenden Dosisrate.
Die direkte Laserbeschleunigung von Elektronen wurde durch die Wechselwirkung eines sub-ps-Laserpulses mit einer Intensität von ~ 10^19 W/cm^2 mit einem Plasma nahe kritischer Elektronendichte (NCD) untersucht. Ein sub-mm langes NCD-Plasma wurde durch Erhitzen eines Schaums mit einer niedrigen Dichte mit einem ns-Puls von 10^13-10^14 W/cm^2 erzeugt. Die Experimente wurden an der PHELIX-Anlage (Petawatt Hoch- Energie Laser für Schwerionenexperimente) in den Jahren 2019 – 2023 durchgeführt. Während der Suche nach optimalen Bedingungen für die Beschleunigung von Elektronen und Protonen wurden die Parameter des ns-Pulses variiert und verschiedene Targets verwendet. Es wurde gezeigt, dass das Plasma im Schaum gute Voraussetzungen für die Erzeugung gerichteter, ultrarelativistischer DLA-Elektronen mit Energien von bis zu 100 MeV bietet. Die Elektronen weisen eine Boltzmann-ähnliche Energieverteilung mit einer Temperatur von 10-20 MeV auf.
Optimale Bedingungen für eine effektive Beschleunigung von DLA-Elektronen wurden bei der Kombination eines CHO-Schaums mit einer Dichte von 2 mg/cm3 und einer Dicke von 300-500 µm mit einer Metallfolie erreicht. Die Gesamtladung der detektierten Elektronen mit Energien über 1,5 MeV erreichte 0,5-1 µC mit der Umwandlungseffizienz der Laserenergie von ~ 20-30%.
Außerdem wird die Beschleunigung von Protonen durch DLA-Elektronen anders verursacht als bei typischer Target Normal Sheath Acceleration (TNSA). Für die Untersuchung der lokalen Protonenenergieverteilung wurden Magnetspektrometer unter verschiedenen Winkeln zur Laserachse verwendet. Dafür wurde eine Filtermethode entwickelt, welche es ermöglicht, Spektren von Protonen mit Energien von bis zu 100 MeV zu rekonstruieren. Es wurde gezeigt, dass am PHELIX durch die Kombination von einem ~ 300-400 µm dicken CHO-Schaum mit einer Dichte von 2 mg/cm^3 und einer 10 µm dicken Au-Folie bei einer Intensität des sub-ps-Pulses von ~ 10^19 W/cm^2 und unter Verwendung eines optimierten ns-Vorpulses eine optimale Protonenbeschleunigung erreicht wurde. Es wurde ein TNSA-ähnliches Regime mit einer maximalen Cut-off-Energie von 34±0,5 MeV beobachtet. Im Vergleich dazu wurde bei der typischen TNSA unter Verwendung einer 10 µm dicken Au-Folie als Target und derselben Laserintensität eine maximale Cut-off-Energie von 24±0,5 MeV gemessen. Darüber hinaus beobachteten wir einen sehr schwachen Abfall der Protonenanzahl in Abhängigkeit von der Protonenenergie (anders als bei der typischen TNSA) und eine sehr regelmäßige Protonenstrahlverteilung in einem breiten Winkelbereich bis zu hohen Energien. Dies könnte zur Verbesserung der Qualität der Protonenradiographie von Plasmafeldern genutzt werden.
Beim DLA-Prozess (im NCD-Plasma) entsteht Betatronstrahlung durch die Oszillationen von Elektronen in quasi-statischen elektrischen und magnetischen Feldern des Plasmakanals. Um diese Strahlung zu untersuchen, wurde ein neues modifiziertes Magnetspektrometer (X-MS) konstruiert. Das X-MS ermöglicht die 1D-Auflösung mehrerer Quellen. Dank dieser Spezifikation war es möglich, Betatronstrahlung von Bremsstrahlung der ponderomotorischen Elektronen im Metallhalter zu trennen und zu messen.
Im Experiment mit einem CHO-Schaum mit einer Dichte von 2 mg/cm^3 und einer Dicke von ~ 800 µm als Target wurde die von den optimierten DLA-Elektronen erzeugte Betatronstrahlung gemessen. Bei einer Peak-Intensität des dreieckigen ns-Pulses von ~ 3·10^13 W/cm^2 und des sub-ps-Pulses von ~ 10^19 W/cm^2, welcher 4±0,5 ns gegenüber dem ns-Puls verzögert war, betrug der Halbwinkel im FWHM-Bereich des Elektronenstrahls 17±2°. Unter diesen Bedingungen war die Betatronstrahlung mit einem Halbwinkel im FWHM-Bereich von 11±2° für die Photonen mit Energien über 10 keV ebenfalls gerichtet. Die Photonenanzahl mit Energien über 10 keV wurde auf etwa 3·10^10 / 3·10^11 (gerichtete Photonen / Photonen im Halbraum entlang der Laserstrahlrichtung) abgeschätzt. Die maximale Photonenanzahl pro Raumwinkel betrug ~2·10^11 photons/sr. Die Brillanz der registrierten Betatronstrahlung erreichte ~ 2·10^20 photons/s/mm^2/mrad^2/(0.1% BW) bei 10 keV.
Die Verwendung eines Hochstromstrahls aus DLA-Elektronen für die FLASH-Strahlentherapie ermöglicht das Erreichen einer Dosis von bis zu 50-70 Gy während eines sub-ps-Laserpulses. Im Jahr 2021, während der P213-Strahlzeit am PHELIX wurde der Sauerstoffkonzentrationsabfall bei der Bestrahlung von Medien (Wasser und andere biologische Medien) mit DLA-Elektronen in Abhängigkeit von der Dosis untersucht. Die Strahlendosis wurde hierbei indirekt gemessen. Hierfür wurde eine Rekonstruktionsmethode entwickelt, die es ermöglicht, die Dosis innerhalb des „Wasser-Containers“ auf Basis von Messungen außerhalb des Containers mit einem untersuchten Medium zu ermitteln. Es wurde eine gute Übereinstimmung zwischen dem Experiment und einer Monte-Carlo-Simulation für Wasser gezeigt. Die registrierte Dosisrate erreichte einen Rekordwert von ~ 70 TGy/s.
Wie die Literatur- und Theoriegeschichte zeigt, wurde das Dämonische im Gefolge von Goethe auf wirkmächtige Weise von den Dämonen entkoppelt. Walter Benjamin brachte vor diesem Hintergrund E. T. A. Hoffmann ins Spiel, einen Schriftsteller, dessen "fieberhafte Träume" Goethe verschmähte. Unter dem Titel "Das dämonische Berlin" sprach Benjamin im Februar 1930 in der Kinderstunde des Berliner Rundfunks über Hoffmann als Dichter der Großstadt. Obwohl das Wort "dämonisch" nur im Titel fällt, eröffnet der Vortrag eine neue Sicht auf das post-goethesche Dämonische, denn die Medialität des Dämonischen wird darin auf mehreren Ebenen reflektiert, die das Radio selbst involvieren.
Die Vormärzforschung befasste sich in der Vergangenheit vor allem mit Themen des Liberalismus, insbesondere mit juristischen Fragen und der Gründung einer verfassungsgebenden Versammlung. Dabei wurde die Kluft zwischen einem - oft akademisch geschulten - 'gehobenen Bürgertum' und der großen Mehrzahl der Menschen in Dörfern, Kleinstädten und einer sich noch vielfach als Heimarbeit etablierenden Industrie oft übersehen. Diese Arbeit wird sich auf die allmählich einsetzende Wahrnehmung dieser Mehrzahl konzentrieren, mit dem Ziel, ihr politisches Verständnis und ihren Willen zur demokratischen Partizipation zu analysieren. Hierbei geht es vornehmlich um ein "Gewahrwerden sinnlich vermittelter Gegebenheiten" und ihrer geistigen Verarbeitung. Bei diesem Prozess wird das geistig rationale 'Verständnis' der Gegebenheiten erweckt und zu einer empirisch vermittelten 'Sicht' der Dinge hingeführt. Bei solchen Sinneswahrnehmungen geht es in erster Linie um das Sehvermögen; das von den Augen Gesehene wird über Nerven an das Gehirn transportiert, wir machen uns ein 'Bild' davon, das im weiteren Verlauf zu einer 'Ansicht' oder 'Anschauung' werden kann. Ähnliches gilt für andere Sinneseinwirkungen: Das 'Gefühlte' komprimiert sich zu einem 'Gefühl', wobei neben anderen Sinneswahrnehmungen auch ein mentaler Prozess mit im Spiel ist. Von der Forschung wenig beachtet ist eine Umkehrung dieses Vorgangs: Mental Wahrgenommenes kann über die Imagination auch sinnlich anschaulich werden, ein Prozess, der vor allem in der Romantik häufig stattfand. Eine genauere Erörterung der Begriffe 'Wahrnehmung' oder 'Perzeption' ist hier nicht vorgesehen, doch wird im Kontext der dargestellten Beispiele auf weitere, vor allem literarische und philosophische Diskussionen dieser Begriffe eingegangen.
Das Heidelberger Ionenstrahl-Therapiezentrum (HIT) stellt Protonen-, Helium- und Kohlenstoff-Ionenstrahlen unterschiedlicher Energie und Intensität für die Krebsbehandlung und Sauerstoff-Ionenstrahlen für Experimente zur Verfügung. Der hierfür verwendete Beschleuniger ist darüber hinaus in der Lage auch Ionenstrahlintensitäten unterhalb der für Therapien verwendeten bereitzustellen. Allerdings ist das derzeit installierte Strahldiagnosesystems nicht in der Lage, das Strahlprofil bei solchen geringen Intensitäten (< 10^5 Ionen/s) zu messen. Dabei existieren mögliche medizinische Anwendung für diese niederintensiven Ionen-strahlen, wie beispielsweise eine neuartige und potentiell klinisch vorteilhafte Bildgebung: die Ionenradiographie. Eine essentielle Voraussetzung für diese und andere Anwendungen ist ein System zur Überwachung von Ionenstrahlen niedriger Intensität. Ein solches System wurde im Rahmen dieser Arbeit konzipiert, realisiert, getestet und optimiert.
Das Funktionsprinzip basiert auf szintillierenden Fasern, insbesondere solchen mit erhöhter Strahlungshärte für die Möglichkeit einer dauerhaften Platzierung im Therapiestrahl. Ein diese Fasern durchlaufendes Ion regt den darin enthaltenen Szintillator durch Stoßprozesse kurzzeitig an. Die dabei deponierte Energie wird anschließend in Form von Photonen wieder emittiert. Silizium-Photomultiplier sind an den Enden der Fasern montiert und wandeln die Photonensignale in verstärkte elektrische Impulse um. Diese Impulse werden von einer neuartigen und dedizierten Ausleseelektronik aufgezeichnet und verarbeitet. Ein Prototypaufbau, bestehend aus den genannten Teilen, wurde im Strahl getestet und kann das transversale Strahlprofil erfolgreich im Intensitätsbereich von 10^7 Ionen/s bis hinunter zu 10^2 Ionen/s aufzeichnen. Darüber hinaus konnte, durch die erfolgreiche Ankunftszeitmessung von einzelnen Ionen bis zu Intensitäten von 5*10^4 Ionen/s, ein Machbarkeitsnachweis für die Messung der Spur von einzelnen Teilchen erbracht werden.
Die Verwendung von Photoschaltern zur gezielten Kontrolle von Systemen birgt ein hohes Potential hinsichtlich biologischer Fragestellungen, bis hin zu optoelektronischen Anwendungen. Infolge einer Photoanregung kommt es zu Geometrieänderungen, die einen erheblichen Einfluss auf ihr photophysikalisches Verhalten haben. Die Änderungen der photochemischen, wie photophysikalischen Eigenschaften, beruht entweder auf der Isomerisierung von Doppelbindungen oder auf perizyklischen Reaktionen. Durch sorgfältige Modifikationen, wie beispielsweise die Änderung der Konjugation durch unterschiedlich große π-Elektronensysteme, der Molekülgeometrie oder der Veränderung des Dipolmoments, lassen sich intrinsische Funktionen variieren.
Die Kombination dieser Eigenschaften stellt eine komplexe Herausforderung dar, da diese Änderungen einen direkten Einfluss auf wichtige Charakteristika wie die Adressierbarkeit, die Effizienz und die Stabilität der Moleküle haben. Darüber hinaus spielt die thermische Stabilität eine erhebliche Rolle im Hinblick auf die Speicherung von Energie oder Informationen für Anwendungsbereiche in der Energiegewinnung und Datenverarbeitung.
Für die Anwendung solcher photochromen Moleküle ist hinsichtlich der oben genannten Eigenschaften auch das Wissen über den photoinduzierten Reaktionsmechanismus unabdingbar.
Im Rahmen dieser Arbeit wurde der Einfluss auf die Isomerisierungsdynamik organischer Photoschalter durch unterschiedliche Modifikationen mittels stationärer und zeitaufgelöster Spektroskopie untersucht. Im Bereich der Merocyanine konnte ein Derivat vorgestellt werden, das ausschließlich zwischen zwei MC-Formen (trans/cis) isomerisiert. Die interne Methylierung am Phenolatsauerstoff der Chromeneinheit verhindert die Ringschlussreaktion zum SP und somit seinen zwitterionischen Charakter. Die stabilen Grundzustandsisomere TTT und CCT weisen durch den Methylsubstituenten eine hypsochrome Verschiebung ihrer Absorptionsmaxima auf, während TTT das thermodynamisch stabilste Isomer darstellt. Das MeMC wies eine erstaunlich hohe Effizienz seiner Schaltamplituden, insbesondere der TTT → CCT Photoisomerisierung auf, sowie eine überaus hohe Quantenausbeute.
Das MeMC wies zudem eine signifikante Lösungsmittelabhängigkeit auf, die sich insbesondere in der Photostabilität bemerkbar macht. Während das MeMC in MeCN und EtOH photodegradiert, konnte in EtOH/H2O eine konstante Reliabilität festgestellt werden. Diese Zuverlässigkeit impliziert nicht nur eine Stabilisierung durch das Wasser, sondern auch eine Resistenz gegenüber Hydrolysereaktionen. Darüber hinaus konnten kinetische Studien eine hohe thermische Rückkonversion von CCT zu TTT bei Raumtemperatur nachweisen, womit auf schädliche UV-Bestrahlung verzichtet werden könnte.
Die Untersuchung der Kurzzeitdynamiken beider Grundzustandsisomere gab Aufschluss über die Beteiligung anderer möglicher MC-Intermediate und den Einfluss der Methylgruppe auf das System. Mittels quantenchemischer Berechnungen konnte eine erste Initiierung um die zentrale Doppelbindung beider Isomere bestimmt werden, die jeweils zu einem heißen Grundzustandsintermediat führt, bis nach einer zweiten Isomerisierung der endgültige Grundzustand der Photoprodukte populiert wird. Dies bedeutet, dass die trans/cis-Isomerisierung über TTT-TCT-CCT und die Rückkonversion über CCT-CTT-TTT erfolgt.
Im Bereich der Hydrazon-Photoschalter konnten unterschiedlich substituierte Derivate mittels statischer und zeitaufgelösten UV/Vis-Studien untersucht werden. Da ESIPT Prozesse eine wichtige Funktion bei der Kontrolle von biologischen Systemen spielen, wurden verschiedene Hydrazonderivate hinsichtlich ihrer Reaktionsmechanismen untersucht. Als Rotoreinheit diente zum einen eine Benzothiazolkomponente, die die interne H-Bindung des angeregten Z-Hydrazons schwächen sollte und zum anderen wurde ein Chinolinsubstituent eingesetzt, der als Elektronenakzeptor diente und den H-Transfer begünstigt. Der Einsatz der Benzothiazolkomponente bewirkte die gewünschte Vergrößerung der bathochromen Verschiebung des E-Isomers, sowie eine deutliche Erhöhung der thermischen Stabilität des metastabilen
Zustands. Dies bestätigten die zeitaufgelösten Studien der Z zu E Isomerisierung, bei denen die Isomere im Vergleich zum Chinolinhydrazonderivat, in beiden ausgewählten Lösungsmitteln metastabile Z-Intermediate zeigten und eine Lebenszeit bis in den µs-Zeitbereich aufwiesen. Die Rückreaktion beider Derivate (HCN) und (HBN) hingegen zeigte eine barrierelose Umwandlung in die beteiligten Photoprodukte. Trotz der Verwendung des Chinolinsubstituenten zusammen mit Naphthalin als Rotoreinheit (HCN), konnte kein ESIPT Prozess beobachtet werden. HCB mit einer Kombination aus einem Chinolinrotor und eines Benzothiazolsubstituenten, wies eine Hydrazon-Azobenzol-Tautomerie auf, die ein prototropes Gleichgewicht zwischen dem E-Hydrazon und der E-Azobenzolform (E-AB) ausbildete. Die Reaktionsdynamiken des Z-Hydrazons zum E-AB wiesen eine ultraschnelle Bildung des Photoproduktes auf, während die Rückreaktion über einen ESIPT im sub-ps-Bereich erfolgte. Dieser H-Transfer hat die Bildung des angeregten E-Hydrazons zur Folge. Interessanterweise wurde kein Rückprotonentransfer nachgewiesen, sondern die mögliche Formation eines Z-AB gefunden. Damit unterscheidet sich dieser Reaktionsmechanismus erheblich von den typischen ESIPT Prozessen, die normalerweise zu ihrem Ausgangsmolekül zurückrelaxieren. Des Weiteren konnte ein Pyridinoxid und Benzoylpyridin-substituiertes Hydrazon charakterisiert werden, bei denen die stationären Studien kein Schaltverhalten, sondern Photodegradation aufwiesen. Die zeitaufgelösten Daten ergaben ebenfalls keine Photoproduktbildung, was die These der Photozersetzung unterstützt. Die Verwendung von zusätzlich substituierten Rotoreinheiten, wie beispielsweise Pyridinoxid und Benzoylpyridin, die aufgrund fehlender Protonenakzeptormöglichkeit keine interne H-Bindung ausbilden, erlaubt keine Bildung des Z-Hydrazon Isomers.
Dieser Beitrag befasst sich mit Zeitwahrnehmungen und Zukunftsvorstellungen, die in Romane der 1920er Jahre in Paris und New York transportiert werden. Dabei dienen Paris und New York als zwei paradigmatische Städte der Moderne, in denen Diskurse zur Modernität und Stadtentwicklung literarisch aufgearbeitet werden. Die Textanalyse konzentriert sich hauptsächlich auf drei Aspekte der Stadtdarstellung: Illusionen der Ewigkeit und des Stillstandes, Diskurse zur mechanischen (Selbst-)Zerstörung und Phantasmagorien des Untergangs. Der Vergleich zwischen Paris und New York soll dazu beitragen, kulturell bedingte Unterschiede sowie epochenspezifische Gemeinsamkeiten in den Zukunftsvisionen der jeweiligen Stadt aufzudecken.
Keiner will im Ruhrgebiet leben : Deindustrialisierung und Nachbergbau in der Ruhrgebietsliteratur
(2024)
Seit dem Ende des Steinkohlenbergbaus im Ruhrgebiet steht die Region durch den Verlust dieser identitätsstiftenden Industrie vor einer unklaren Zukunft. Dies spiegelt sich auch in der Literatur wider, die sich etwa ab 2010 vermehrt mit dem Erbe des Bergbaus und den Aussichten für eine Zukunft der Region befasst. Hierbei beschreiten Autor:innen ganz unterschiedliche Wege. In den Romanen "Wie hoch die Wasser steigen" (Anja Kampmann) und "Marschmusik" (Martin Becker) sind Rückblicke auf das Zeitalter der Montanindustrie zentrale Bestandteile der Erzählung. Die Prognosen für die Zukunft bleiben jedoch andeutungsweise und vage, Kampmanns und Beckers Protagonisten scheinen mit der Bewältigung der Vergangenheit ausgelastet. Anders machen es die Romane "Anarchie in Ruhrstadt" (Jörg Albrecht) und "Am Ende der Welt liegt Duisburg am Meer" (Sascha Pranschke). Beide entwickeln auf Basis der Montanindustriegeschichte des Ruhrgebiets dystopische Erzählungen des Ruhrgebiets der Zukunft.
Im deutschsprachigen Raum ist anschlussfähige Forschung an die international und interdisziplinär ausgelegten 'Energy Humanities' noch unterrepräsentiert. Im folgenden Beitrag werden zunächst das Forschungsfeld, seine Herkunft und Zielperspektiven aufgeschlüsselt. Energie und Energienutzung werden als Teil menschlicher Kultur verstanden. Um aufzuzeigen, wie sich literarische Analysen in den Gesamtkontext der 'Energy Humanities' einfügen, exemplifiziert der Beitrag drei Lektüren von Jane Austens "Emma" (1816), Émile Zolas "Germinal" (1885) und Erik Neutschs "Spur der Steine" (1964). Alle drei Texte erfordern einen individuellen energie-kritischen Fokus, durch den die ihnen eigenen Energiesysteme hervortreten können. Komparatistisch gelesen zeigen sie den Facettenreichtum energie-kritischer literarischer Studien auf: Energienutzung als Statussymbol, Rohstoffextraktion als Kontamination des Menschen, industrielle Energieproduktion als Staatsminiatur.
In Ian McEwans Roman "Machines Like Me" (2019) wird das aus gegenwärtiger Sicht zukünftige Szenario des Zusammenlebens eines Menschen mit einem Androiden in das London der 1980er-Jahre verlegt. Im Beitrag stelle ich dar, wie der Eingriff in die zeitliche Abfolge von Ereignissen eine kritische Hinterfragung aktueller Werte und Moralvorstellungen sowie der menschlichen Interaktion mit dem Anderen ermöglicht. Dabei zeige ich mit Rückgriff auf Michel Foucault und Donna Haraway, wie die vom Menschen etablierten Machtgefüge aufgebrochen werden müssen, um gleichberechtigte Beziehungen zwischen allen Lebewesen zu schaffen und ein Weiterleben auf der Erde zu ermöglichen. Zugleich wird in "Machines Like Me" die Rolle und Bedeutung von Literatur in einer von Künstlicher Intelligenz geprägten Welt hinterfragt. Diesbezüglich gehe ich im Beitrag auf die Zukunftsvisionen des Androiden ein und stelle die Frage, ob die Notwendigkeit von Literatur in einer Welt wie der im Roman portraitierten nicht doch bestehen bleibt.
Von der Annahme ausgehend, dass die Zukunftsthematik neben einzelnen Textanalysen insbes. im Kontext der diachronen Betrachtung einer literarischen Gattung von Interesse ist, konzentriert sich der vorliegende Beitrag auf die Gattung der Robinsonade. Mit dem Fokus auf Daniel Defoes "Robinson Crusoe", Ernst Wiecherts "Das einfache Leben" sowie Andy Weirs "The Martian" - drei Werke, die vom Prototyp der Gattung bis zu dessen Situierung im Science Fiction-Genre reichen - erfährt die Zukunft zwar eine an den historischen und gesellschaftlichen Kontext gebundene Ausformung, ihr grundierendes narratives Schema bleibt in ihrer die Gattung umspannenden Position jedoch bei jeder Robinsonade gleich. Im Zentrum geht es dabei um die Bewältigung individueller und gesellschaftlicher Zukünfte, wobei sich in der Entwicklung verschiedener Zukunftsentwürfe und -vorstellungen, die zudem mit einer verstärkten Vergangenheitsreflexion verfahren, mögliche unsichere und sichere Zukünfte einander gegenüberstehen.
Dieser Beitrag befasst sich mit der mysteriösen Wesenheit des Königs in Gelb in Robert W. Chambers' Kurzgeschichtensammlung "The King in Yellow". Am Beispiel der Erzählung "The Repairer of Reputations" werden unter Zuhilfenahme des Phantastik-Konzeptes von Tzvetan Todorov und einer Minimaldefinition unzuverlässigen Erzählens zwei Lesarten des Königs in Gelb vorgestellt, die sich auf den einander entgegengesetzten Polen des Wunderbaren und des Unheimlichen in Todorovs Modell verorten lassen und den König in Gelb zum einen als Metapher für gesellschaftliche Missstände, zum anderen als real existierendes Wesen der Schauerliteratur deuten.
Das Cassandra-Projekt ist eine Anspielung auf die Geschichte jener Figur in der Ilias, die eine düstere Zukunft prophezeite und der niemand glaubte, wodurch es zur Tragödie kam. Das Projekt hat es sich hingegen zum Ziel gesetzt, auf die Botschaften der Kassandras von heute zu hören, um weitere Katastrophen zu vermeiden, was konkret bedeutet: literarische Texte, die in Krisengebieten entstehen, auf ihr Voraussagenpotenzial hin zu analysieren, um mögliche zukünftige Entwicklungen in der Gesellschaft auszuloten. Die so entstehenden Prognosen können dann als Instrumente für anstehende politische Entscheidungen dienen. Der Beitrag verschafft einen Überblick über die Hintergründe, Methoden, praktischen Anwendungsbeispiele, Probleme und noch offenen Desiderate des Projekts.
Der Beitrag untersucht die für den Protagonisten Dr. Franz von Stern vorherrschenden (Un-)Möglichkeiten des Erinnerns in Angelika Meiers dystopischem Klinikroman "Heimlich, heimlich mich vergiss". Dabei wird argumentiert, dass der Subjektstatus des Protagonisten verloren gegangen ist, weil durch die Technisierung des Körpers und Geistes des Arztes Erinnerungen ausgelöscht wurden und dadurch ein fehlendes Bewusstsein für die eigene Geschichte entstanden ist. Der Beitrag zeigt, dass das vergangene Handeln erinnert und das zukünftige reflektiert werden muss, um Einfluss auf die Zukunft nehmen zu können. In diesem Zusammenhang werden die im Roman aufgenommenen und kritisierten gesellschaftlichen Entwicklungen der Selbstoptimierung, des Gesundheitsdispositivs und des problematischen Verhältnisses von Arbeit und Leben diskutiert. Es wird veranschaulicht, wie Meier mit ihrer Dystopie die Leser:innen dazu zwingt, innezuhalten und über ihre, die Zukunft mitprägende, Gegenwart zu reflektieren.
Im vorliegenden Aufsatz stellt die Verfasserin die Frage nach einer geschichtsphilosophischen Lesart von Toni Morrisons Roman "Beloved" (1987). Dafür vergleicht sie zunächst Friedrich Nietzsches "Zweite Unzeitgemäße Betrachtung: Vom Nutzen und Nachtheil der Historie für das Leben" (1874) mit Walter Benjamins "Thesen über den Begriff der Geschichte" (1940), indem sie dem nicht von ungefähr kommenden Zusammenhang von kritischer Historie und Kritischer Theorie nachspürt. Auf Grundlage dieser Erkenntnisse, wie der Umgang mit Historie das (Er-)Leben in der Zukunft und für die Zukunft beeinflussen kann, wird Morrisons Roman nach den verschiedenen Entwürfen des Umgangs mit Geschichte untersucht: Anhand der Mutter Sethe und den beiden Töchtern Denver und Beloved wird anschaulich gemacht, wie sich ein 'Zuviel' an Geschichte negativ auf die Zukunft auswirken kann, aber auch, wie das Vergessen als Mittel der Ermöglichung von Zukunft fungiert.
Vor dem Hintergrund sich wandelnder Zeitwahrnehmungen um 1800 nimmt der Beitrag spezifische Temporalitäten des Tragischen bei Heinrich von Kleist in den Blick. Die Lektüre von "Die Familie Schroffenstein" geht der Frage nach, inwiefern auch in einer Tragödie der Moderne Zukunftsdeterminanten zum Tragen kommen, und wie diese, hier in Gestalt des schriftlich-juristischen Mediums des Erbvertrags, trotz ihrer genuin neuzeitlichen Verfasstheit vergleichbare dramaturgische Funktionen übernehmen wie etwa ein antiker Orakelspruch. Es wird untersucht, wie der Erbvertrag die tragische Verwicklung verfügt und dabei auch zur Ausbildung von intrikaten Zeitdimensionen im Drama beiträgt. Gezeigt werden soll damit, dass diese Zeitdimensionen nicht nur im Kontext eines Paradigmenwechsels der Sattelzeit zu betrachten sind, sondern dass es gerade das gattungspoetische und womöglich transhistorische Strukturmerkmal der Vorbestimmung der Zukunft ist - die Vorwegnahme des tragischen Ausgangs -, welche die Ausformung der komplexen Zeitlichkeiten in der Tragödie bewirkt.
In einer Welt voller Mehrdeutigkeiten führt ein Mangel an Ambiguitätstoleranz zu Misstrauen im Umgang mit der Vielzahl an Fakten, denen man sich täglich in vielerlei Gestalt gegenübersieht. Vielmehr verstärkt diese Informationsflut sogar bereits vorhandene Ängste vor der Zukunft. Gleichzeitig schwindet die Kompetenz im Umgang mit Texten, die versuchen, den prekären Zustand unserer Zeit erfahrbar zu machen. Der Beitrag entwirft ein Forschungsprogramm, das sich Lösungen für diese Probleme anzunähern versucht. Allen voran sind die kulturwissenschaftliche Forschung und im Zuge des 'cultural turn' eine Reihe von Forschungsrichtungen, die modernes Denken auf den Prüfstand stellen und sich gleichzeitig mit gesellschaftlichen Grundfragen und Herausforderungen unserer Zeit beschäftigen. Damit bergen sie praktische Lösungen in sich, die durch ästhetische Szenarien vermittelt werden können. Es wird der Frage nachgegangen, welche Rolle Literatur und Literaturwissenschaft(ler:innen) in diesen Prozessen einnehmen (müssen), sowie nach Möglichkeiten für Leser:innen und Autor:innen, Narrative mitzugestalten und so in der Gegenwart an der Zukunft produktiv mitzuarbeiten.
"Der Atem reinster Gegenwärtigkeit: no future" : Zukunft in Roman Ehrlichs Klima-Dystopie "Malé"
(2024)
Dieser Aufsatz beschäftigt sich mit der Frage, welche Krisen und Potenziale sich in Roman Ehrlichs 2020 erschienener Klima-Dystopie "Malé" aus dem Entwurf einer apokalyptischen Zukunft für das Erzählen ergeben. "Malé" thematisiert vor dem Hintergrund der Klimawandel-Bedrohung eine Utopie-Krise und erzählt im Modus der Rückblende eine Weltuntergangsgeschichte. Der Roman postuliert im Angesicht einer prekären Zukunft eine Identitäts- und Sprachproblematik, die auch die Literatur betrifft. Dabei deutet sich anhand von Raum- und Körperdarstellungen das Ende anthropozentrischer Konzepte an. Der Roman schlägt seine eigene synekdotische, polyphone Form als Überwindungspotenzial vor und sucht nach einer neuen Sprache und Ästhetik, in der eine Einheit mit nicht-menschlichen Entitäten gedacht und formuliert werden kann. So zeigt sich in "Malé" immer wieder utopisches Potenzial. Dies betont aus der Zukunftsperspektive die Gegenwart als Moment, an dem eine Verhinderung der durch multiple Krisen ausgelösten Apokalypse durch radikales Umdenken und Handeln noch möglich ist.
Der Dialog ist für die einen das Versprechen gelingender Kommunikation, für die anderen ein überholtes Ideal. Marten Weise zeigt in einer interdisziplinär angelegten Studie, dass sich die Lücke zwischen Lobpreisungen und Abgesängen schließen lässt. Er setzt bei der Unmöglichkeit des Denkens "nach der Shoah" an und erkundet in exemplarischen Untersuchungen der europäischen Literatur-, Theater- und Theoriegeschichte die Spannungen und Widersprüche im Verhältnis zum "Anderen", ohne die der Dialog nicht zu greifen ist. So macht er zwischenmenschliche, soziale und politische Vorgänge als prinzipiell unabschließbares Sprachgeschehen fassbar und eröffnet einen Spielraum für die Aushandlung und das Aushalten von Dissens und Differenz.
Zukunft betrifft alle Lebewesen - dennoch ist das Nachdenken über Zukünftiges etwas genuin Menschliches: Literatur kann dieses Nachdenken, diese Vorfreude, diese Sorgen antizipieren, materialisieren und erfahrbar machen. Sie bietet eine Leinwand für die Fragen nach der Konstruktion von Zukunft und ihrer Interdependenz zu Vergangenheit und Gegenwart. Damit verbundene Reflexionen reichen von den Folgen des Klimawandels über die Bewältigung persönlicher und gesellschaftlicher Krisen bis hin zur Auseinandersetzung mit technischen Entwicklungen. Texte - im weitesten Sinne - gestalten Möglichkeitsräume ungewisser Zukünfte aus. Daher stehen die Geisteswissenschaften in der Verantwortung, das vorhandene Potenzial auszuloten.
Konservativ, feministisch, schuldig? : Genderkonzepte in zwei Gedichten von Marie Luise Kaschnitz
(2024)
Marie Luise Kaschnitz' Haltung in Bezug auf Genderkonventionen und -rollen ist ambivalent. Das untersuche ich an zwei Gedichten. Das frühe Gedicht "Grabstele" (1936) zeigt ein stereotypisierendes Genderdenken, das sich auf Oberflächlichkeiten beschränkt. Kaschnitz hat das Gedicht später kritisiert und sich Gedanken über ihre eigene Haltung gemacht. Trotzdem lässt sich auch in "Grabstele" eine subversive Tendenz festmachen, die Sprechinstanz ist nämlich in Bezug auf Gender unterdeterminiert. Kaschnitz imaginierte sie zwar später als weiblich, im Text ist das aber nicht so festgelegt. Der Aufruf zu Subversion und Ungehorsam der Frauen ist im zweiten untersuchten Gedicht "Frauenfunk" (1972) stärker und expliziter. Das liegt unter anderem am historischen Kontext, dieses Gedicht wurde durch den Feminismus geprägt. Beiden Gedichten gemeinsam ist ein essentialistisches Genderkonzept mit bürgerlichen Genderrollen, das sich durch Kaschnitz' Werk zieht.
Als ein Genre, welches Zukunftsvisionen entwirft, bietet Science Fiction eine alternative Welt zu der unseren, in welcher binäre Denkstrukturen stereotype Bilder prägen. So imaginiert Ursula K. Le Guins Roman "The Left Hand of Darkness" (1969) eine androgyne Gesellschaft. Und sowohl Vandana Singhs Erzählung "Of Love and Other Monsters" (2007) als auch Nnedi Okorafors Roman "Lagoon" (2014) erschaffen eine form- und geschlechtswandelnde Spezies von Außerirdischen. Den Erzählungen gelingt es, neue Welten zu entwerfen, die fluide Identitäten reflektieren. Sie geben Anlass dazu, die binären Denkstrukturen unserer Gesellschaft zu hinterfragen und alternative Gesellschaftsformen zu denken. Sie geben außerdem einen Hinweis darauf, in welcher Weise sich der Umgang mit binären Denkstrukturen seit der Veröffentlichung von "The Left Hand of Darkness" entwickelt hat und inwiefern es innerhalb der Literatur und unserer Gesellschaft möglich ist, diese zu transformieren.
Diese Arbeit hatte das Ziel, die Größe einer DVT-Aufnahme (FOV) mit der Größe der durch die Indikationsstellung definierten Region (ROI) zu vergleichen. Durch eine speziell dafür entwickelte Software sollten Messungen in den Datensätzen ermöglicht werden. Die dazu verwendeten 332 Datensätze wurden zufallsverteilt aus den mit einem Orthophos SL-3D DVT-Gerät der Firma Dentsply Sirona in der Poliklinik für zahnärztliche Chirurgie und Implantologie des ZZMK (Carolinum) in Frankfurt angefertigten Röntgenaufnahmen selektiert.
Es wurde die Auswertungssoftware ExRoi entwickelt, mit der die Werte des axialen Durchmessers, die Höhe (vertikale Dimension) sowie die Distanz der Mittelpunkte von FOV und ROI direkt in den Datensätzen bestimmt werden konnten. Zusätzlich wurde festgehalten, welche rechtfertigenden Indikationen gestellt und welche Auflösungsmodi verwendet wurden.
Die Stichprobe bestand aus Aufnahmen mit einem axialen Durchmesser von 8 cm [VOL 1] (n= 76, entsprechend 46,39%), 5 cm Durchmesser [VOL 2] (n = 102, entsprechend 30,72%) und 11 cm Durchmesser [VOL 3] (n= 154, entsprechend 22,89%). 95,18% der Aufnahmen wurden im HD-Modus mit laut Herstellerangaben vier Mal so vielen Aufnahmen im Vergleich zum SD-Modus angefertigt. Hauptindikationen waren Implantat Planung (45,1%) und Planungen komplizierter Zahn-Extraktionen (25,5%).
Die Messungen zum Vergleich des axialen Durchmessers zeigten, dass bei Verwendung des VOL 2 die ROI im Mittel den größten Anteil der FOV nutzt (78,52 %), den kleinsten Anteil nutzt durchschnittlich VOL 1 (56,04 %). Dazwischen liegt VOL 3 (69,12 %). In der Vertikalen nutzt die ROI von VOL 3 mittelwertig den größten Anteil der FOV (81,87 %), den kleinsten Mittelwert hat VOL 1 (58,76 %). VOL 2 liegt zwischen diesen Werten (64,47 %).
In allen Fällen war das FOV größer als die ROI und die ROI lag im Bereich des gewählten FOV.
Die Mittelpunkte von FOV und ROI lagen im Mittel in der axialen Ebene in Abhängigkeit vom gewählten Volumen um rund 9-13 mm auseinander, in der coronalen und sagittalen Ebene um rund 5-6mm.
Aus diesen Ergebnissen kann für das verwendete Gerät eine gute Trefferquote für die ROI abgeleitet werden. Höhe und Durchmesser des FOV hätten in den meisten Fällen kleiner gewählt werden können, liegen aber angesichts der vorhandenen Auswahl-Optionen des Röntgengeräts zur Dimensionierung der Volumina in einem akzeptablen Bereich.
Die vorliegende Arbeit beschreibt die Entwicklung eines interaktionalen Simulationsmodells zum späteren Einsatz in der VR-Simulation Clasivir 2.0 (Classroom Simulator in Virtual Reality), welche in der Lehrkräftebildung eingesetzt werden soll. Das Clasivir-Simulationsmodell wurde im Rahmen eines Prototyps implementiert und zwei anderen Simulationsmodellen in einem Fragebogen entgegengestellt. Ein Simulationsmodell beschreibt im Kontext einer digitalen Schulunterrichtssimulation, wie sich SuS in der Simulation verhalten.
Die drei Simulationsmodelle wurden über zwei unterschiedliche Typen von Video-Visualisierungen, genannt Mockup-Videos, dargestellt: Zum einen über eine 2D-Darstellung aus Vogelperspektive, zum anderen über eine 3D-Darstellung, in welcher 3D-Modelle von SuS animiert wurden. Bei dem realen Simulationsmodell handelt es sich um eine Übertragung einer authentischen Videoaufzeichnung von Unterricht einer hessischen Realschule in 2D/3D-Visualisierungen. Im randomisierten Simulationsmodell führen SuS ihre Verhalten zufällig aus. Alle Modelle basieren auf zweisekündigen Intervallen. Im Falle des realen Simulationsmodells wurde dies durch Analyse aller beobachtbaren einundzwanzig SuS gewonnen, im Falle des Clasivir-Simulationsmodells wurden die Vorhersagen des Simulationsmodells übertragen. Das Simulationsmodell von Clasivir basiert auf behavior trees, stellt eine Art von künstlicher Intelligenz dar und modelliert das SuS-Verhalten größtenteils in Abhängigkeit von Lehrkrafthandlungen. Die Entwicklung des interaktionalen Simulationsmodells von Clasivir ist eine Kernkomponente dieser Arbeit. Das Simulationsmodell basiert auf empirischen Ergebnissen aus den Bereichen der Psychometrie, der pädagogischen Psychologie, der Pädagogik und Ergebnissen der Simulations-/KI-Forschung. Ziel war die Entwicklung eines Modells, das nicht nur auf normativen Vorhersagen basiert, sondern empirisch und theoretisch valide ist. Nur wenige Simulationsmodelle in Unterrichtssimulationen werden mit dieser Art von Transparenz beschrieben, was eines der Alleinstellungsmerkmale dieser Arbeit ist. Es wurden Anstrengungen unternommen die vorliegenden empirischen Ergebnisse in einen kausalen Zusammenhang zu bringen, der mathematisch modelliert wurde. Im Zentrum steht die Konzentration von SuS, welche Ein uss auf Stör-, Melde- und Antwortverhalten hat. Diese Variable wird durch andere situative und personenbezogene Variablen (im Sinne von traits) ergänzt. Wo keine direkten empirischen Ergebnisse vorlagen wurde versucht plausibles Verhalten anhand der Übertragung von Konzeptionsmodellen zu gewinnen.
Da die bisherige Verwendung der angrenzenden Begriffe rund um die Simulationsentwicklung bislang sehr inkonsistent war, wurde es notwendig diese Termini zu definieren. Hervorzuheben ist die Entwicklung einer Taxonomie digitaler Unterrichtssimulationen, die so bislang nicht existierte. Anhand dieser Taxonomie und der erarbeiteten Fachtermini wurden Simulationen in der Lehrkräftebildung auf ihre Modellierung des Simulationsmodells hin untersucht. Die Untersuchung der Simulationen simSchool und VCS war, da sie einen verwandten Ansatz zu Clasvir verfolgen, besonders ergiebig.
Nach der Generierung der Mockup-Videos wurden N=105 Studierende, N=102 davon Lehramtsstudierende, aufgefordert, in einem Online-Fragebogen zwei der Simulationsmodelle miteinander zu vergleichen. Lehramtsstudierende wurden ausgewählt, da sie die Zielgruppe der Simulation sind. Welche Modelle die Partizipantinnen verglichen, war abhängig von der Gruppe der sie zugeteilt wurden. Hierbei wurde neben den Simulationsmodellen auch die visuelle Darstellung variiert. Insbesondere wurden die Partizipantinnen darum gebeten, den Fidelitätsgrad des Simulationsmodells, also den Maßstab, wie realistisch die Partizipantinnen das Verhalten der SuS in der Simulation fanden, zu bewerten. Inferenzstatistisch bestätigte sich, dass Partizipantinnen keinen Unterschied zwischen dem realen Simulationsmodell und dem Clasivir-Simulationsmodell erkennen konnten (t=1.463, df=178.9, p=.1452), aber das randomisierte Simulationsmodell mit einer moderaten Effektstärke von d=.634 als signifikant schlechter einschätzten (t=-2.5231, df=33.581, p=.008271). Die Art der Darbietung (2D oder 3D) hatte keinen statistisch signifikanten Einfluss auf die wahrgenommene Schwierigkeit der Bewertung (z=1.2426, p=.107). Damit kann festgestellt werden, dass eine komplexe und zeitintensive 3D-Visualisierung eines Simulationsmodells bei noch nicht vorliegender Simulation nicht erforderlich ist. Das Clasivir-Simulationsmodell wird als realistisch wahrgenommen. Es kann damit empfohlen werden, es in der VR-Simulation zu verwenden.
Im Ausblick werden bereits während des Schreibens der Arbeit gemachte Entwicklungen beschrieben und Konzepte zum weiteren Einsatz der Ergebnisse entwickelt. Es wird darauf verwiesen, dass eine erste Version eines VR-Simulators entwickelt wurde (Clasivir 1.0), der jedoch rein deterministisch funktioniert und noch nicht das in dieser Arbeit entwickelte Simulationsmodell inkludiert.
Der aus Ungarn stammende israelische Satiriker Ephraim Kishon (1924–2005) gilt als ‚Versöhnungsfigur‘ zwischen Deutschen und Jüdinnen und Juden im bundesdeutschen Nachkriegsdiskurs. Seine „israelischen Satiren“ erfreuten sich in der freien Übertragung durch Friedrich Torberg vor allem in den 1960er bis 1990er Jahren enormer Beliebtheit. Dabei wurde zunächst verdrängt, dass Kishon selbst Überlebender der Schoah war und seinen Humor als Überlebensstrategie entwickelt hatte. Bisher wurde die Bedeutung der Schoah für Kishons Schreiben nur unzureichend berücksichtigt.
Birgit M. Körner beleuchtet das Phänomen von Kishons Erfolg in der Bundesrepublik nun von drei Seiten: von der Seite des Autors und Schoah-Überlebenden Kishon, von der Seite des Mitschöpfers und Übersetzers Friedrich Torberg und von der Seite der Rezeption durch ein postnationalsozialistisches deutschsprachiges Publikum.
Im Fokus steht zunächst die Rekonstruktion von Kishons Verfolgungs- und Überlebenserfahrung anhand bisher unbekannter Akten und der Nachweis, dass sich deren Spuren in Kishons Satiren finden lassen. Kishon und Torberg konstruieren einen „israelischen Humor“, der maßgeblich auf den europäischen jüdischen Humortraditionen – dem ostjüdischen Witz und der jüdischen Tradition des literarischen Sarkasmus – sowie auf Kishons Schoah-Überleben basiert. Deutlich wird dabei Torbergs Tendenz, das deutschsprachige Publikum zu ‚schonen‘ und explizite Stellen zu streichen, u.a. um eine positive Haltung zu Israel zu fördern. Kishon selbst stand seiner Rolle als ‚Versöhnungsfigur‘ für ein westdeutsches Publikum durchaus ambivalent gegenüber.
Anhand der Heimatkonzeption von Ernst Bloch soll der Begriff der 'Heimat' einer kritischen Betrachtung unterzogen werden. Grundlegende Merkmale in zeitlicher wie räumlicher Perspektive ausmachend, formuliert Bloch ein Heimatkonzept, das jenseits abgrenzender Selbst-Fremd-Dichotomien eine Zukunftsperspektive entwirft, die durch das Handeln gesellschaftlicher wie individueller Akteur:innen erst erreicht werden muss. Zusammen mit dem Raumkonzept der 'Nicht-Orte' von Marc Augé werden in Vicki Baums "Menschen im Hotel" (1929) Potenziale zukünftiger Heimatkonstruktionen nachgespürt und analysiert.
Der vorliegende Aufsatz befasst sich mit der Frage nach der Bedeutung von Zukunft aus Sicht des Mittelalters. Als Grundlage dienen hierfür Auszüge aus dem "Prosa-Lancelot" sowie Strickers "Daniel von dem blühenden Tal", da sich an Auszügen dieser Texte exemplarisch das Wirken von 'Zukunft' im mittelalterlichen Erzähltext illustrieren lässt. Die aus der Analyse gewonnenen Thesen werden mit der modernen Definition des Zukunftsbegriffes nach Lucian Hölscher zusammengeführt und diskutiert. Über den Weg der Raum-Zeit-Gefüge wird abschließend dargelegt, inwiefern sich die Zukunftsvorstellungen innerhalb der mittelalterlichen Literatur entwickelt haben und wie sich diese in ihrer Darstellung unterscheiden.
Die vorliegende Arbeit behandelt den Vergleich zweier Geräte - „Endotrust MiFusion TLS 2“ und „Medtronic LigaSure Maryland System“ - zur endoskopischen Entnahme der Arteria radialis (RA) zur Verwendung als Bypass-Gefäß in der Herzchirurgie.
Grundsätzlich kommen in der Bypass-Chirurgie zur Herstellung eines Free-Grafts am Herzen neben der Verwendung der Thoraxarterien die Vena Saphena Magna (VSM) sowie die RA in Frage. In den aktuellen europäischen Leitlinien zur Behandlung von hochgradigen Stenosen wird die Verwendung der RA empfohlen („Class 1 Level B“-Empfehlung).
Die Frage, ob die RA für den Einsatz als Bypass-Gefäß offen oder endoskopisch entnommen werden sollte, ist in der Literatur weiterhin umstritten. In den aktuellen Leitlinien zur Behandlung von koronaren Herzkrankheiten wird aufgrund dieser insoweit uneindeutigen Studienlage keine Empfehlung ausgesprochen. Trotzdem ist die endoskopische Entnahme der RA im klinischen Alltag mittlerweile etabliert. Im Kontext dieser uneindeutigen Studienlage einerseits und der praktischen Bedeutung endoskopischer Entnahme andererseits ist es Zielsetzung der vorliegenden Arbeit, durch einen Gerätevergleich einen Beitrag zur Optimierung der endoskopischen Operationstechnik zu leisten. Es soll zudem aufgezeigt werden, inwieweit die endoskopische Entnahme der RA ein sicheres und effizientes Verfahren darstellt.
In der Literatur zum Vergleich von Operationstechniken zur Entnahme von Bypass-Gefäßen werden häufig histologische Untersuchungen angewendet. Diese ermöglichen eine zeitnahe Beurteilung der Qualität des entnommenen Grafts. Das ist auch in dieser Arbeit der wesentliche Grund dafür, dass die histologische Beurteilung der Qualität der RA als primärer Endpunkt angewendet wird. In Anlehnung an die Literatur wurde die strukturelle Integrität des Endothels und der Elastica interna beurteilt. Die histologische Beurteilung erfolgte nach Immunfluoreszenz-Bearbeitung der Proben.
Im Einklang mit der bestehenden Literatur zur Frage, ob die RA offen oder endoskopisch entnommen werden sollte, wurde in dieser Studie als sekundäre Endpunkte Kriterien bezüglich der Sicherheit und Effizienz der Entnahme verwendet. Dies betrifft das Auftreten von intra- und postoperativen Komplikationen, insbesondere im Hinblick auf neurologische Beeinträchtigungen am operierten Arm, sowie die Entnahmedauer und den operativen Aufwand zur Blutstillung.
Die in dieser Arbeit behandelte Studie wurde als prospektive, 1:1 randomisierte Studie mit zwei Gruppen mit jeweils 50 Patienten durchgeführt. Alle Operationen erfolgten im Zeitraum Januar 2017 bis Juli 2017 im Herzzentrum der Kerckhoff-Klinik Bad Nauheim.
Bezüglich der Resultate des Gerätevergleichs zeigte sich ein eindeutiges Ergebnis. Sämtliche Beurteilungskriterien, bei denen signifikante Unterschiede zwischen den beiden Gruppen aufgetreten sind, u.a. Integrität der Elastica interna, Entnahmedauer, Vorkommen von Residualblutungen, Auftreten von sensorischen Störungen fallen zugunsten des LigaSure-Systems aus.
Dabei ist unserer Meinung nach der wichtigste Einzelaspekt, dass die histologisch ermittelte Integrität der Elastica interna als Indikator für die Qualität des entnommen Grafts in der LigaSure-Gruppe signifikant besser war als in der MiFusion-Gruppe. Dagegen konnten aus der histologischen Untersuchung des Endothels keine klaren Rückschlüsse gezogen werden. Insofern besteht Unsicherheit, ob die Schädigung der Endothelschicht durch die Entnahme selbst oder durch die anschließende Präparierung der entnommenen Proben verursacht wurde.
Bezüglich der sekundären Endpunkte zeigten sich für die Mifusion-Patientengruppe im Vergleich zu anderen Studien zur endoskopischen Entnahme der RA zufriedenstellende bis gute und für die LigaSure Gruppe gute bis sehr gute Ergebnisse. Unabhängig vom verwendeten Gerät kann diese Studie deshalb als eine Bestätigung bisheriger Studien zur Vorteilhaftigkeit der endoskopischen RA-Entnahme angesehen werden. Letztlich fehlt jedoch weiterhin der Nachweis, dass eine endoskopische Entnahme unbedenklich im Hinblick auf den langfristigen kardiologischen Outcome ist. Dies bleibt zukünftiger Forschung vorbehalten.
Darüber hinaus trägt die Studie dazu bei, das klinische Erfahrungswissen über operationstechnische Details bei der Entnahme der Radialarterie zu erweitern und somit die Akzeptanz für die Verwendung der Radialarterie als Bypass-Gefäß in der koronaren Herzchirurgie zu verbessern.
Im Werk des multiformen Wissenschaftlers Eugen Rosenstock-Huessy (1888−1973) liegt ein interessanter Fall einer Selbstübersetzung vor, die sich nicht nur auf die sprachliche Übersetzung, sondern auch auf die Transformation der Struktur des eigenen Werkes bezieht. Und selbst hier bleibt der Übersetzungsprozess nicht stehen. Rosenstocks Theorie und Praxis der Übersetzung ist geleitet von der Überzeugung des Primats der Sprache respektive des Sprechens für die menschliche Existenz. Übersetzen wird ihm so zu einem Existenzial, in dem der Mensch sein Menschsein bewährt: Selbstübersetzung ist immer und gerade eine Übersetzung des Selbst. Menschliches Dasein ist ein grundsätzlich sprachgebundener Prozess und an diesem Dasein beweist sich zuallererst das dem Einzelnen verfügbare und anderen lehrbare Wissen.
Hintergrund: Mit der im Jahr 2020 aktualisierten AWMF-Leitlinie zur Versorgung mit einem Cochleaimplantat (CI) wurde erstmals der gesamte Prozess einer CI-Versorgung definiert. In der vorliegenden Studie wurden die Machbarkeit und die Ergebnisse einer sehr frühen Rehabilitationsmaßnahme (Reha) untersucht.
Methodik: Es wurden 54 Patienten in die Interventionsgruppe (IG) eingeschlossen, bei der die Reha innerhalb von 14 (maximal 28) Tagen nach der Implantation eingeleitet wurde. In eine Kontrollgruppe (KG, n = 21) wurden Patienten mit deutlich längerer Wartezeit eingeschlossen. Neben dem Beginn und der Dauer der Reha wurde das mit CI erreichte Sprachverstehen zu verschiedenen Zeitpunkten innerhalb von 12 Monaten erfasst. Zusätzlich wurde mit Fragebögen der Aufwand der Anpassung des CI-Prozessors und die Zufriedenheit der Patienten mit dem Ergebnis sowie dem Zeitpunkt des Beginns der Reha ermittelt.
Ergebnisse: Die Wartezeit zwischen Implantation und Beginn der Reha lag in der IG bei 14 Tagen und in der KG bei 106 Tagen (Mediane). Es konnten 92,6 % der Patienten der IG die Reha innerhalb von 14 Tagen antreten. Der Effekt der Reha lag in der IG bei 35 und in der KG bei 25 Prozentpunkten (Freiburger Einsilbertest). Nach 6 und 12 Monaten (M) CI-Nutzung zeigten beide Gruppen sowohl in der Testbedingung in Ruhe (IG/KG 6M: 70 %/70 %; 12M: 70 %/60 %, Freiburger Einsilbertest) als auch im Störgeräusch (IG/KG 6M: −1,1 dB SNR/–0,85 dB SNR; 12M: −0,65 dB SNR/+0,3 dB SNR, Oldenburger Satztest) vergleichbare Ergebnisse. Die mittels des Fragebogens Speech, Spatial and Qualities of Hearing Scale (SSQ) erfassten Ergebnisse für die Einschätzung der Hörqualität zeigten nach 6 Monaten eine bessere Bewertung in der IG, die sich nach 12 Monaten an die Ergebnisse der KG anglich. Die IG war mit dem Zeitpunkt des Beginns der Reha deutlich zufriedener als die KG. Alle anderen aus Fragebögen ermittelten Daten zeigten keine Unterschiede zwischen den beiden Gruppen.
Schlussfolgerung: Der sehr frühe Beginn einer stationären Reha nach Cochleaimplantation ist erfolgreich umsetzbar. Die Reha konnte innerhalb von 7 Wochen nach der Implantation abgeschlossen werden. Der Vergleich der Ergebnisse der Tests des Sprachverstehens vor und nach der Reha zeigte eine deutliche Steigerung. Somit ist ein deutlicher Reha-Effekt nachweisbar. Die Aufnahme der CI-Rehabilitation in den Katalog der Anschlussheilbehandlungen ist somit wissenschaftlich begründet und damit dringend zu empfehlen.
Raumkonstruktionen, die über Handlung und Bedeutungszuschreibungen im Kontext sozialer Medien entstehen, sind ein Fallbeispiel dafür, wie vor dem Hintergrund von Digitalität Fachinhalte re-innoviert werden müssen. Mit dem Ziel eines Beitrags zur Konzeption professionellen Lehrkräftewissens im Kontext von Digitalität werden, ausgehend von der Fragestellung, welche professionellen Fähigkeiten Lehrkräfte benötigen, um Raumkonstruktionen im Unterricht zu thematisieren, in dieser kumulativen Dissertation Raumkonstruktionen aus normativer und empirischer Perspektive als exemplarischer geographischer Fachinhalt adressiert.
Als theoretischer Rahmen dient dabei das TPACK Modell von Mishra & Koehler (2006), das professionelles Lehrkräftewissen in die Bereiche fachliches, pädagogisches und technologisches Wissen sowie deren Überschneidungsbereiche einteilt. Zunächst erfolgt eine Anwendung des Modells als Reflexionsperspektive auf Fachinhalte zur Erzeugung normativer Fähigkeitsbeschreibungen. Diese Fähigkeitsbeschreibungen fließen in die Entwicklung eines TPACK-Selbsteinschätzungsfragebogens für Lehramtsstudierende der Geographie ein. Im Rahmen der damit durchgeführten Studie (n= 364) zeigen sich auf deskriptiver Ebene vergleichsweise niedrige Selbsteinschätzungen der Bereiche inhaltlichen und fachdidaktischen Wissens. Durch die Anwendung einer konfirmatorischen Faktorenanalyse kann das TPACK Modell als zufriedenstellend für die Beschreibung der Daten identifiziert werden. Auffällig ist allerdings die niedrige Korrelation des Konstrukts technologischen Wissens mit den angrenzenden Wissensbereichen. In Bezug auf die Selbsteinschätzungen im phasen- und kontextübergreifenden Vergleich lässt sich, ausgehend von linearen Regressionsanalysen, eine tendenzielle Zunahme der selbsteingeschätzten Fähigkeiten entlang der Fachsemesterzahl ermitteln. Mittels Zweistichproben-t-Tests können außerdem höhere Selbsteinschätzungen der pädagogischen Wissensbereiche durch Studierende, die als Vertretungslehrkräfte tätig sind, festgestellt werden.
In Bezug auf die zur Thematisierung von Raumkonstruktionen im Unterricht benötigten Fähigkeiten ist zunächst die Relevanz der Förderung der Integration fachlichen, pädagogischen und fachdidaktischen Wissens hervorzuheben. Die Studie gibt darüber hinaus Hinweise auf eine niedrigere Bedeutung technologischen Wissens im Hinblick auf soziale Medien als Beispiele alltäglicher Technologien. Vor dem Hintergrund des positiven Effekts von Selbstwirksamkeitsprozessen bieten die Ergebnisse Implikationen für eine Diskussion von praktischen Erfahrungen als Aspekt professionellen Lehrkräftewissens im Sinne der Förderung einer kritisch-reflexiven Auseinandersetzung mit der Tätigkeit als Vertretungslehrkraft aus fachdidaktischer Perspektive. Insgesamt leistet die kumulative Dissertation einen Beitrag zum Diskurs um fachliche geographische Bildung im Kontext von Digitalität und zur Konzeption des professionellen Lehrkräftewissens vor diesem Hintergrund.
Einige Beiträge zum aktuellen ZfL-Jahresthema erinnerten zuletzt an dieser Stelle daran, dass das Begriffspaar "Aktivismus und Wissenschaft" von einem alten Spannungsverhältnis geprägt ist, welches sich gegenwärtig wieder bemerkbar macht. [...] Tatsächlich sehen sich Forschende heutzutage immer öfter dazu genötigt, den unmittelbar praktischen Mehrwert ihrer Arbeit im Namen eines vermeintlichen Aktivismus zu Markte zu tragen, nicht zuletzt, um den Empfang etwaiger Fördergelder zu rechtfertigen. [...] So drängt sich die Frage auf, worin eigentlich der kritische Zug im Verhältnis von Wissenschaft und Aktivismus liegt, wenn die institutionelle Konvergenz der Aktivismen von oben und unten zur Affirmation tendiert? [...] Möglicherweise ist es lohnenswert, Geulens Verfahren des Rückgriffs aufzunehmen und sich auf ein weiteres streitbares Beispiel aus der frühesten Geschichte des Aktivismusbegriffs zu besinnen, von dem zuweilen behauptet wird, es handele sich um die früheste Okkurenz dieses Wortes überhaupt. Die Rede ist vom sogenannten "literarischen Aktivismus", auf den auch Henning Trüper in seinem Blogbeitrag zum ZfL-Jahresthema anspielt, wenn er vom "Umfeld des Expressionismus" spricht, in dem der "Aktivismusbegriff nach dem Ersten Weltkrieg erstmals politisch Fuß fasste". Was hat es hiermit auf sich? Tatsächlich ist es so, dass Kurt Hiller (1885–1972) - deutsch-jüdischer Publizist, expressionistischer Impresario und pazifistischer Aktivist - diese Wortprägung für sich beansprucht. So soll bei einem Treffen seines Berliner Kreises anno 1914 "Literarischer Aktivismus" als Name der von ihm gegründeten, "ethisch-politischen" Bewegung beschlossen worden sein. Die Organe dieses Aktivismus waren vorrangig Periodika, allen voran die ab 1916 von Hiller und seinem Kreis herausgegebene Zeitschrift "Das Ziel: Aufrufe zu tätigem Geist", in deren Namen sich bereits eine gewisse Vorstellung von Aktivität ankündigt.
Soziodizee des Kapitalismus
(2024)
Das radioaktive Edelgas Radon und seine ebenfalls radioaktiven Zerfallsprodukte machen den größten Teil der natürlichen Strahlenbelastung in Deutschland aus. Trotz der Einstufung als krebserregend für Lungenkrebs wird es zur Therapie entzündlicher Krankheiten eingesetzt. Der hauptsächliche Aufnahmemechanismus ist dabei die Inkorporation über die Atmung, wobei Radon auch über die Haut aufgenommen werden kann. Radon wird dabei über das Blut im gesamten Körper verteilt und kann in Gewebe mit hoher Radonlöslichkeit akkumulieren. Die Zerfallsprodukte verbleiben jedoch in der Lunge, zerfallen dort, bevor sie abtransportiert werden können und schädigen das dortige Gewebe.
Die Lungendosis wird laut Simulationen zum größten Teil durch die kleinsten Radon-Zerfallsprodukte (< 10 nm) bestimmt, die besonders effektiv im Respirationstrakt anheften. Die erzeugte Dosis ist dabei aufgrund der inhomogenen Anlagerung der Zerfallsprodukte lokal stark variabel. In Simulationen wurden Bifurkationen als Ort besonders hoher Deposition identifiziert, wobei die experimentelle Datenlage zur Deposition kleinster Radon-Zerfallsprodukte eingeschränkt ist. Aufgrund des Anstiegs der Komplexität von Simulationen oder Experimenten wird in den meisten Betrachtungen nicht der oszillatorische Atemzyklus berücksichtigt, sondern lediglich ein einseitig gerichteter Luftstrom betrachtet. Im Rahmen dieser Arbeit wurde ein experimentelles Modell entwickelt und etabliert, das die Messung der Deposition von Radon-Zerfallsprodukten ermöglicht und zwischen drei Größenfraktionen (Freie Zerfallsprodukte: < 10 nm, Cluster: 20-100 nm, Angelagerte Zerfallsprodukte: > 100 nm) unterscheiden kann. Der Luftfluss durch das Modell bildet sowohl die Inhalation als auch die Exhalation ab. Erste Experimente mit dem neu entwickelten Messaufbau konnten die aus Simulationen bekannte erhöhte Deposition der freien Zerfallsprodukte in einer Bifurkation abbilden. Die Vergrößerung des Bifurkationswinkels von 70° auf 180° zeigte lediglich einen minimalen Anstieg in der Größenordnung des Messfehlers. Der dominierende Prozess der Anlagerung der freien Zerfallsprodukte ist die Brown'sche Molekularbewegung, die unabhängig vom Bifurkationswinkel ist. Dennoch kann ein veränderter Winkel die Luftströmung und entstehende Turbulenzen verändern, wodurch die Deposition beeinflusst werden kann. Dies lässt sich jedoch mit dem hier benutzten Messaufbau nicht auflösen. Entgegen der Beobachtungen in der Literatur führte die Erhöhung der Atemfrequenz von 12 auf 30 Atemzüge pro Minute, in den im Rahmen dieser Arbeit durchgeführten Experimenten, zu keiner messbaren Veränderung der Deposition. Diese Beobachtung ist auf die Entstehung gegensätzlicher Effekte zurückzuführen. Einerseits führt eine schnellere Luftströmung zu kürzeren Aufenthaltszeiten der freien Zerfallsprodukte im Modell, wodurch die Deposition unwahrscheinlicher wird. Andererseits entstehen vermehrt sekundäre Strömungen und absolut betrachtet werden mehr Partikel durch das Modell gepumpt. Es ist davon auszugehen, dass sich diese Effekte im hier getesteten Bereich aufheben.
Als potentielle Schutzmaßnahme zur Reduktion der Lungendosis konnte im Rahmen dieser Arbeit die Filtereffzienz von Gesichtsmasken (OP-Masken, FFP2 Masken) gegenüber Radon und seinen Zerfallsprodukten bestimmt werden. Während Radon nicht gefiltert wird, wurden die freien Zerfallsprodukte fast vollständig (> 98%) und die Cluster zum größten Teil (≈ 80 %) zurückgehalten.
Radon selbst kann im gesamten Organismus verteilt werden und dort in Gewebe akkumulieren. Zur Bestimmung der Dosis wird dabei auf biokinetische Modelle zurückgegriffen. Diese sind von der Qualität ihrer Eingabeparameter abhängig, wobei beispielsweise die Werte zur Verteilung von Radon zwischen Blut und Gewebe auf experimentell gewonnenen Löslichkeitswerten aus Mäusen und Ratten beruhen. Unbekannte Werte werden von der Internationalen Strahlenschutzkommission basierend auf der Gewebezusammensetzung als gewichteter Mittelwert berechnet. In dieser Arbeit wurde die Löslichkeit in humanen Blutproben und wässrigen Lösungen verschiedener Konzentrationen der Blutproteine Hämoglobin und Albumin bestimmt. Es löste sich mehr Radon in Plasma als in Erythrozytenkonzentrat und Vollblut. Die Protein-Lösungen zeigten keine Konzentrationsabhängigkeit der Löslichkeit, sondern lediglich in hitzedenaturiertem Hämoglobin wurde eine niedrigere Löslichkeit gemessen. Basierend auf diesen Beobachtungen, sollte die These überprüft werden, ob sich die Löslichkeit einer Mischung als gewichteter Mittelwert der einzelnen Löslichkeiten berechnen lässt. Daher wurden diese in einer Mischung aus zwei Flüssigkeiten (1-Pentanol, Ölsäure) bestimmt. Die experimentell bestimmte Löslichkeit war dabei fast doppelt so groß wie der berechnete Wert. Dieser Unterschied kann dadurch zustande kommen, dass bei einer Berechnung basierend auf der Zusammensetzung die Wechselwirkungen zwischen den Lösungsmitteln vernachlässigt werden. Dies verdeutlicht die Notwendigkeit experimenteller Daten zur Verteilung und Lösung von Radon in verschiedenem Gewebe.
Uni-Highlights April 2024 : Einladungen zu ausgewählten Veranstaltungen der Goethe-Universität
(2024)
Uni-Highlights März 2024 : Einladungen zu ausgewählten Veranstaltungen der Goethe-Universität
(2024)
ISOE-Newsletter Nr. 3/2024
(2024)
Ein Landkreis macht’s vor: So geht guter Umgang mit Grundwasser +++ Wie Kommunen nachhaltige Ernährung mit planetarer Gesundheit verbinden und fördern können +++ Ökosysteme im Klimawandel: Die Bedeutung von sozial-ökologischen Kipppunkten für die Savannen Namibias +++ Kunst erfahren – Biodiversität wertschätzen? Tanzperformance zur Bedeutung von Insekten in der Stadt +++ Kunststoffe in Lebensmittelverpackungen reduzieren +++ Aktuelle Beiträge im ISOE Blog +++ Aus dem ISOE +++ Das ISOE in den Medien +++ Termine +++ Publikationen
ISOE-Newsletter Nr. 2/2024
(2024)
Wissenschaftskommunikation zu Risiken von Ewigkeitschemikalien +++ Gemeinsam statt gegeneinander: Waldkonflikte konstruktiv lösen +++ Künstlerische Forschung: Projektstipendium „Insectopolis“ vergeben +++ Sommersemester 2024: Soziale Ökologie und Transdisziplinarität in der Lehre +++ Ökologische Kipppunkte in der mongolischen Steppe erkennen und vermeiden +++ Aktuelle Beiträge im ISOE Blog +++ Aus dem ISOE +++ Das ISOE in den Medien +++ Termine +++ Publikationen
Manfred Peter Hein, Jg. 1931
(2024)
Fröhliches Babylon : im Sprach-Welt-Café treffen Studierende auf ganz unterschiedliche Sprachen
(2024)
Leerstand und Utopie. Die Kämpfe um den Campus Bockenheim : eine Ausstellung geht auf Wanderschaft
(2024)
Entdecke die Geschichte und die umkämpfte Gegenwart des Campus Bockenheim. Das Areal ist ein Ort vielfältiger Funktionen und Interessen. Gleichzeitig ist es geprägt von Leerstand; einem Zustand aus einer »nichtmehr« universitären Kultur mit studentischem Leben und einer »noch-nicht« zukünftigen Nutzung.
Ausstellung im Schopenhauer-Studio:...
Am 18. Juni wird Jürgen Habermas, der die Geistes- und Sozialwissenschaften der Goethe-Universität nachhaltig geprägt hat, 95 Jahre alt, und dazu sendet unsere wissenschaftliche Community, der er nach wie vor aktiv angehört, die herzlichsten Glückwünsche. Bis heute ist Habermas’ wissenschaftliche und intellektuelle Stimme national und international eine der meistgehörten, und wir wünschen von Herzen, dass es noch lange so bleiben möge.
Die Physikerin Prof. Laura Sagunski, die Sprachwissenschaftlerin Dr. Mariam Kamarauli und der Biochemiker PD. Dr. Rupert Abele sind mit dem begehrten 1822-Universitätspreis für exzellente Lehre ausgezeichnet worden. Zum 23. Mal bereits hat die Goethe-Universität gemeinsam mit der Stiftung der Frankfurter Sparkasse verdiente Lehrende gewürdigt.
Zehn Jahre Mitmenschlichkeit
(2024)
Neuer Open-Access-Publikationsfonds für die Allgemeine und Vergleichende Literaturwissenschaft
(2024)
[Nachruf] Großer Historiker mit breiter Wirkung Lothar Gall * 3. November 1937 † 22. Mai 2024
(2024)
"Mir ist so digk vor gesait" : Studien zur erzählerischen Gestaltung des "Meleranz" von dem Pleier
(2024)
In der germanistischen Mediävistik richtet sich das Forschungsinteresse vornehmlich auf die höfische Literatur und dabei insbesondere auf die frühen und späten Artusromane. Vor allem die Werke von Hartmann von Aue und Wolfram von Eschenbach sind zentrale Forschungsobjekte, während Texte wie Pleiers ‚Meleranz‘ bisher nur begrenzt Beachtung fanden.
Die Forschungslücke, die die vorliegende Arbeit adressiert, liegt in der detaillierten Analyse der spezifischen Erzähltechniken des pleierschen Textes, die sich sowohl durch die Verwendung traditioneller arthurischer Motive als auch durch innovative narrative Ansätze auszeichnen. Ausgehend von dem Befund eines stark zurückgenommenen Erzählers wird untersucht, welche narrativen Strategien und Verfahren der Pleier im ‚Meleranz‘ anwendet, um trotz dieser Abkehr von der implizierten poetischen Regelhaftigkeit einer dominanten Erzählerfigur das Erzählen vom Ritter ‚Meleranz‘ gelingen und zugleich an einigen Stellen ausgesprochen konventionell wirken zu lassen.
Um aufzudecken, wie der Text ohne die Stimme eines deutlich hervortretenden Erzählers vermittelt wird, nutze ich im Verlauf der Arbeit eine Typologie der Stoffvermittlung durch (arthurische) Erzähler. In den Einzelstudien zum ‚Meleranz‘ werden seine Motive, Erzählmuster und Figurenkonstellationen in einem close reading erarbeitet und mit der Typologie abgeglichen, um bestimmen zu können, welche Vermittlungsformen im pleierschen Text genutzt werden. Mit Hilfe dieses Vergleichs kann das Erzählverfahren im ‚Meleranz‘ extrapoliert und gleichzeitig offengelegt werden. Mittels dieses Vorgehens wird verdeutlicht werden, dass es sich beim ‚Meleranz‘ um einen Text handelt, der arthurische Konventionen lediglich anders inszeniert, um die vermittelnde Funktion der Stimme des Erzählers zu substituieren oder ihr Fehler auszugleichen.