Refine
Year of publication
Document Type
- Article (13013)
- Part of Periodical (8492)
- Book (5916)
- Doctoral Thesis (3626)
- Part of a Book (2615)
- Review (2515)
- Contribution to a Periodical (2366)
- Working Paper (1015)
- Report (998)
- Conference Proceeding (509)
Language
- German (42481) (remove)
Is part of the Bibliography
- no (42481) (remove)
Keywords
- Deutsch (752)
- Literatur (693)
- Rezension (414)
- Deutschland (382)
- Frankfurt <Main> / Universität (341)
- Rezeption (268)
- Geschichte (251)
- Vorlesungsverzeichnis (224)
- Hofmannsthal, Hugo von (218)
- Film (208)
Institute
- Präsidium (5111)
- Medizin (2354)
- Extern (1695)
- Gesellschaftswissenschaften (1380)
- Rechtswissenschaft (1036)
- Geschichtswissenschaften (916)
- Biochemie und Chemie (888)
- Neuere Philologien (828)
- Wirtschaftswissenschaften (783)
- Physik (696)
Der aus Ungarn stammende israelische Satiriker Ephraim Kishon (1924–2005) gilt als ‚Versöhnungsfigur‘ zwischen Deutschen und Jüdinnen und Juden im bundesdeutschen Nachkriegsdiskurs. Seine „israelischen Satiren“ erfreuten sich in der freien Übertragung durch Friedrich Torberg vor allem in den 1960er bis 1990er Jahren enormer Beliebtheit. Dabei wurde zunächst verdrängt, dass Kishon selbst Überlebender der Schoah war und seinen Humor als Überlebensstrategie entwickelt hatte. Bisher wurde die Bedeutung der Schoah für Kishons Schreiben nur unzureichend berücksichtigt.
Birgit M. Körner beleuchtet das Phänomen von Kishons Erfolg in der Bundesrepublik nun von drei Seiten: von der Seite des Autors und Schoah-Überlebenden Kishon, von der Seite des Mitschöpfers und Übersetzers Friedrich Torberg und von der Seite der Rezeption durch ein postnationalsozialistisches deutschsprachiges Publikum.
Im Fokus steht zunächst die Rekonstruktion von Kishons Verfolgungs- und Überlebenserfahrung anhand bisher unbekannter Akten und der Nachweis, dass sich deren Spuren in Kishons Satiren finden lassen. Kishon und Torberg konstruieren einen „israelischen Humor“, der maßgeblich auf den europäischen jüdischen Humortraditionen – dem ostjüdischen Witz und der jüdischen Tradition des literarischen Sarkasmus – sowie auf Kishons Schoah-Überleben basiert. Deutlich wird dabei Torbergs Tendenz, das deutschsprachige Publikum zu ‚schonen‘ und explizite Stellen zu streichen, u.a. um eine positive Haltung zu Israel zu fördern. Kishon selbst stand seiner Rolle als ‚Versöhnungsfigur‘ für ein westdeutsches Publikum durchaus ambivalent gegenüber.
Anhand der Heimatkonzeption von Ernst Bloch soll der Begriff der 'Heimat' einer kritischen Betrachtung unterzogen werden. Grundlegende Merkmale in zeitlicher wie räumlicher Perspektive ausmachend, formuliert Bloch ein Heimatkonzept, das jenseits abgrenzender Selbst-Fremd-Dichotomien eine Zukunftsperspektive entwirft, die durch das Handeln gesellschaftlicher wie individueller Akteur:innen erst erreicht werden muss. Zusammen mit dem Raumkonzept der 'Nicht-Orte' von Marc Augé werden in Vicki Baums "Menschen im Hotel" (1929) Potenziale zukünftiger Heimatkonstruktionen nachgespürt und analysiert.
Der vorliegende Aufsatz befasst sich mit der Frage nach der Bedeutung von Zukunft aus Sicht des Mittelalters. Als Grundlage dienen hierfür Auszüge aus dem "Prosa-Lancelot" sowie Strickers "Daniel von dem blühenden Tal", da sich an Auszügen dieser Texte exemplarisch das Wirken von 'Zukunft' im mittelalterlichen Erzähltext illustrieren lässt. Die aus der Analyse gewonnenen Thesen werden mit der modernen Definition des Zukunftsbegriffes nach Lucian Hölscher zusammengeführt und diskutiert. Über den Weg der Raum-Zeit-Gefüge wird abschließend dargelegt, inwiefern sich die Zukunftsvorstellungen innerhalb der mittelalterlichen Literatur entwickelt haben und wie sich diese in ihrer Darstellung unterscheiden.
Die vorliegende Arbeit behandelt den Vergleich zweier Geräte - „Endotrust MiFusion TLS 2“ und „Medtronic LigaSure Maryland System“ - zur endoskopischen Entnahme der Arteria radialis (RA) zur Verwendung als Bypass-Gefäß in der Herzchirurgie.
Grundsätzlich kommen in der Bypass-Chirurgie zur Herstellung eines Free-Grafts am Herzen neben der Verwendung der Thoraxarterien die Vena Saphena Magna (VSM) sowie die RA in Frage. In den aktuellen europäischen Leitlinien zur Behandlung von hochgradigen Stenosen wird die Verwendung der RA empfohlen („Class 1 Level B“-Empfehlung).
Die Frage, ob die RA für den Einsatz als Bypass-Gefäß offen oder endoskopisch entnommen werden sollte, ist in der Literatur weiterhin umstritten. In den aktuellen Leitlinien zur Behandlung von koronaren Herzkrankheiten wird aufgrund dieser insoweit uneindeutigen Studienlage keine Empfehlung ausgesprochen. Trotzdem ist die endoskopische Entnahme der RA im klinischen Alltag mittlerweile etabliert. Im Kontext dieser uneindeutigen Studienlage einerseits und der praktischen Bedeutung endoskopischer Entnahme andererseits ist es Zielsetzung der vorliegenden Arbeit, durch einen Gerätevergleich einen Beitrag zur Optimierung der endoskopischen Operationstechnik zu leisten. Es soll zudem aufgezeigt werden, inwieweit die endoskopische Entnahme der RA ein sicheres und effizientes Verfahren darstellt.
In der Literatur zum Vergleich von Operationstechniken zur Entnahme von Bypass-Gefäßen werden häufig histologische Untersuchungen angewendet. Diese ermöglichen eine zeitnahe Beurteilung der Qualität des entnommenen Grafts. Das ist auch in dieser Arbeit der wesentliche Grund dafür, dass die histologische Beurteilung der Qualität der RA als primärer Endpunkt angewendet wird. In Anlehnung an die Literatur wurde die strukturelle Integrität des Endothels und der Elastica interna beurteilt. Die histologische Beurteilung erfolgte nach Immunfluoreszenz-Bearbeitung der Proben.
Im Einklang mit der bestehenden Literatur zur Frage, ob die RA offen oder endoskopisch entnommen werden sollte, wurde in dieser Studie als sekundäre Endpunkte Kriterien bezüglich der Sicherheit und Effizienz der Entnahme verwendet. Dies betrifft das Auftreten von intra- und postoperativen Komplikationen, insbesondere im Hinblick auf neurologische Beeinträchtigungen am operierten Arm, sowie die Entnahmedauer und den operativen Aufwand zur Blutstillung.
Die in dieser Arbeit behandelte Studie wurde als prospektive, 1:1 randomisierte Studie mit zwei Gruppen mit jeweils 50 Patienten durchgeführt. Alle Operationen erfolgten im Zeitraum Januar 2017 bis Juli 2017 im Herzzentrum der Kerckhoff-Klinik Bad Nauheim.
Bezüglich der Resultate des Gerätevergleichs zeigte sich ein eindeutiges Ergebnis. Sämtliche Beurteilungskriterien, bei denen signifikante Unterschiede zwischen den beiden Gruppen aufgetreten sind, u.a. Integrität der Elastica interna, Entnahmedauer, Vorkommen von Residualblutungen, Auftreten von sensorischen Störungen fallen zugunsten des LigaSure-Systems aus.
Dabei ist unserer Meinung nach der wichtigste Einzelaspekt, dass die histologisch ermittelte Integrität der Elastica interna als Indikator für die Qualität des entnommen Grafts in der LigaSure-Gruppe signifikant besser war als in der MiFusion-Gruppe. Dagegen konnten aus der histologischen Untersuchung des Endothels keine klaren Rückschlüsse gezogen werden. Insofern besteht Unsicherheit, ob die Schädigung der Endothelschicht durch die Entnahme selbst oder durch die anschließende Präparierung der entnommenen Proben verursacht wurde.
Bezüglich der sekundären Endpunkte zeigten sich für die Mifusion-Patientengruppe im Vergleich zu anderen Studien zur endoskopischen Entnahme der RA zufriedenstellende bis gute und für die LigaSure Gruppe gute bis sehr gute Ergebnisse. Unabhängig vom verwendeten Gerät kann diese Studie deshalb als eine Bestätigung bisheriger Studien zur Vorteilhaftigkeit der endoskopischen RA-Entnahme angesehen werden. Letztlich fehlt jedoch weiterhin der Nachweis, dass eine endoskopische Entnahme unbedenklich im Hinblick auf den langfristigen kardiologischen Outcome ist. Dies bleibt zukünftiger Forschung vorbehalten.
Darüber hinaus trägt die Studie dazu bei, das klinische Erfahrungswissen über operationstechnische Details bei der Entnahme der Radialarterie zu erweitern und somit die Akzeptanz für die Verwendung der Radialarterie als Bypass-Gefäß in der koronaren Herzchirurgie zu verbessern.
Im Werk des multiformen Wissenschaftlers Eugen Rosenstock-Huessy (1888−1973) liegt ein interessanter Fall einer Selbstübersetzung vor, die sich nicht nur auf die sprachliche Übersetzung, sondern auch auf die Transformation der Struktur des eigenen Werkes bezieht. Und selbst hier bleibt der Übersetzungsprozess nicht stehen. Rosenstocks Theorie und Praxis der Übersetzung ist geleitet von der Überzeugung des Primats der Sprache respektive des Sprechens für die menschliche Existenz. Übersetzen wird ihm so zu einem Existenzial, in dem der Mensch sein Menschsein bewährt: Selbstübersetzung ist immer und gerade eine Übersetzung des Selbst. Menschliches Dasein ist ein grundsätzlich sprachgebundener Prozess und an diesem Dasein beweist sich zuallererst das dem Einzelnen verfügbare und anderen lehrbare Wissen.
Hintergrund: Mit der im Jahr 2020 aktualisierten AWMF-Leitlinie zur Versorgung mit einem Cochleaimplantat (CI) wurde erstmals der gesamte Prozess einer CI-Versorgung definiert. In der vorliegenden Studie wurden die Machbarkeit und die Ergebnisse einer sehr frühen Rehabilitationsmaßnahme (Reha) untersucht.
Methodik: Es wurden 54 Patienten in die Interventionsgruppe (IG) eingeschlossen, bei der die Reha innerhalb von 14 (maximal 28) Tagen nach der Implantation eingeleitet wurde. In eine Kontrollgruppe (KG, n = 21) wurden Patienten mit deutlich längerer Wartezeit eingeschlossen. Neben dem Beginn und der Dauer der Reha wurde das mit CI erreichte Sprachverstehen zu verschiedenen Zeitpunkten innerhalb von 12 Monaten erfasst. Zusätzlich wurde mit Fragebögen der Aufwand der Anpassung des CI-Prozessors und die Zufriedenheit der Patienten mit dem Ergebnis sowie dem Zeitpunkt des Beginns der Reha ermittelt.
Ergebnisse: Die Wartezeit zwischen Implantation und Beginn der Reha lag in der IG bei 14 Tagen und in der KG bei 106 Tagen (Mediane). Es konnten 92,6 % der Patienten der IG die Reha innerhalb von 14 Tagen antreten. Der Effekt der Reha lag in der IG bei 35 und in der KG bei 25 Prozentpunkten (Freiburger Einsilbertest). Nach 6 und 12 Monaten (M) CI-Nutzung zeigten beide Gruppen sowohl in der Testbedingung in Ruhe (IG/KG 6M: 70 %/70 %; 12M: 70 %/60 %, Freiburger Einsilbertest) als auch im Störgeräusch (IG/KG 6M: −1,1 dB SNR/–0,85 dB SNR; 12M: −0,65 dB SNR/+0,3 dB SNR, Oldenburger Satztest) vergleichbare Ergebnisse. Die mittels des Fragebogens Speech, Spatial and Qualities of Hearing Scale (SSQ) erfassten Ergebnisse für die Einschätzung der Hörqualität zeigten nach 6 Monaten eine bessere Bewertung in der IG, die sich nach 12 Monaten an die Ergebnisse der KG anglich. Die IG war mit dem Zeitpunkt des Beginns der Reha deutlich zufriedener als die KG. Alle anderen aus Fragebögen ermittelten Daten zeigten keine Unterschiede zwischen den beiden Gruppen.
Schlussfolgerung: Der sehr frühe Beginn einer stationären Reha nach Cochleaimplantation ist erfolgreich umsetzbar. Die Reha konnte innerhalb von 7 Wochen nach der Implantation abgeschlossen werden. Der Vergleich der Ergebnisse der Tests des Sprachverstehens vor und nach der Reha zeigte eine deutliche Steigerung. Somit ist ein deutlicher Reha-Effekt nachweisbar. Die Aufnahme der CI-Rehabilitation in den Katalog der Anschlussheilbehandlungen ist somit wissenschaftlich begründet und damit dringend zu empfehlen.
Raumkonstruktionen, die über Handlung und Bedeutungszuschreibungen im Kontext sozialer Medien entstehen, sind ein Fallbeispiel dafür, wie vor dem Hintergrund von Digitalität Fachinhalte re-innoviert werden müssen. Mit dem Ziel eines Beitrags zur Konzeption professionellen Lehrkräftewissens im Kontext von Digitalität werden, ausgehend von der Fragestellung, welche professionellen Fähigkeiten Lehrkräfte benötigen, um Raumkonstruktionen im Unterricht zu thematisieren, in dieser kumulativen Dissertation Raumkonstruktionen aus normativer und empirischer Perspektive als exemplarischer geographischer Fachinhalt adressiert.
Als theoretischer Rahmen dient dabei das TPACK Modell von Mishra & Koehler (2006), das professionelles Lehrkräftewissen in die Bereiche fachliches, pädagogisches und technologisches Wissen sowie deren Überschneidungsbereiche einteilt. Zunächst erfolgt eine Anwendung des Modells als Reflexionsperspektive auf Fachinhalte zur Erzeugung normativer Fähigkeitsbeschreibungen. Diese Fähigkeitsbeschreibungen fließen in die Entwicklung eines TPACK-Selbsteinschätzungsfragebogens für Lehramtsstudierende der Geographie ein. Im Rahmen der damit durchgeführten Studie (n= 364) zeigen sich auf deskriptiver Ebene vergleichsweise niedrige Selbsteinschätzungen der Bereiche inhaltlichen und fachdidaktischen Wissens. Durch die Anwendung einer konfirmatorischen Faktorenanalyse kann das TPACK Modell als zufriedenstellend für die Beschreibung der Daten identifiziert werden. Auffällig ist allerdings die niedrige Korrelation des Konstrukts technologischen Wissens mit den angrenzenden Wissensbereichen. In Bezug auf die Selbsteinschätzungen im phasen- und kontextübergreifenden Vergleich lässt sich, ausgehend von linearen Regressionsanalysen, eine tendenzielle Zunahme der selbsteingeschätzten Fähigkeiten entlang der Fachsemesterzahl ermitteln. Mittels Zweistichproben-t-Tests können außerdem höhere Selbsteinschätzungen der pädagogischen Wissensbereiche durch Studierende, die als Vertretungslehrkräfte tätig sind, festgestellt werden.
In Bezug auf die zur Thematisierung von Raumkonstruktionen im Unterricht benötigten Fähigkeiten ist zunächst die Relevanz der Förderung der Integration fachlichen, pädagogischen und fachdidaktischen Wissens hervorzuheben. Die Studie gibt darüber hinaus Hinweise auf eine niedrigere Bedeutung technologischen Wissens im Hinblick auf soziale Medien als Beispiele alltäglicher Technologien. Vor dem Hintergrund des positiven Effekts von Selbstwirksamkeitsprozessen bieten die Ergebnisse Implikationen für eine Diskussion von praktischen Erfahrungen als Aspekt professionellen Lehrkräftewissens im Sinne der Förderung einer kritisch-reflexiven Auseinandersetzung mit der Tätigkeit als Vertretungslehrkraft aus fachdidaktischer Perspektive. Insgesamt leistet die kumulative Dissertation einen Beitrag zum Diskurs um fachliche geographische Bildung im Kontext von Digitalität und zur Konzeption des professionellen Lehrkräftewissens vor diesem Hintergrund.
Einige Beiträge zum aktuellen ZfL-Jahresthema erinnerten zuletzt an dieser Stelle daran, dass das Begriffspaar "Aktivismus und Wissenschaft" von einem alten Spannungsverhältnis geprägt ist, welches sich gegenwärtig wieder bemerkbar macht. [...] Tatsächlich sehen sich Forschende heutzutage immer öfter dazu genötigt, den unmittelbar praktischen Mehrwert ihrer Arbeit im Namen eines vermeintlichen Aktivismus zu Markte zu tragen, nicht zuletzt, um den Empfang etwaiger Fördergelder zu rechtfertigen. [...] So drängt sich die Frage auf, worin eigentlich der kritische Zug im Verhältnis von Wissenschaft und Aktivismus liegt, wenn die institutionelle Konvergenz der Aktivismen von oben und unten zur Affirmation tendiert? [...] Möglicherweise ist es lohnenswert, Geulens Verfahren des Rückgriffs aufzunehmen und sich auf ein weiteres streitbares Beispiel aus der frühesten Geschichte des Aktivismusbegriffs zu besinnen, von dem zuweilen behauptet wird, es handele sich um die früheste Okkurenz dieses Wortes überhaupt. Die Rede ist vom sogenannten "literarischen Aktivismus", auf den auch Henning Trüper in seinem Blogbeitrag zum ZfL-Jahresthema anspielt, wenn er vom "Umfeld des Expressionismus" spricht, in dem der "Aktivismusbegriff nach dem Ersten Weltkrieg erstmals politisch Fuß fasste". Was hat es hiermit auf sich? Tatsächlich ist es so, dass Kurt Hiller (1885–1972) - deutsch-jüdischer Publizist, expressionistischer Impresario und pazifistischer Aktivist - diese Wortprägung für sich beansprucht. So soll bei einem Treffen seines Berliner Kreises anno 1914 "Literarischer Aktivismus" als Name der von ihm gegründeten, "ethisch-politischen" Bewegung beschlossen worden sein. Die Organe dieses Aktivismus waren vorrangig Periodika, allen voran die ab 1916 von Hiller und seinem Kreis herausgegebene Zeitschrift "Das Ziel: Aufrufe zu tätigem Geist", in deren Namen sich bereits eine gewisse Vorstellung von Aktivität ankündigt.
Soziodizee des Kapitalismus
(2024)
Das radioaktive Edelgas Radon und seine ebenfalls radioaktiven Zerfallsprodukte machen den größten Teil der natürlichen Strahlenbelastung in Deutschland aus. Trotz der Einstufung als krebserregend für Lungenkrebs wird es zur Therapie entzündlicher Krankheiten eingesetzt. Der hauptsächliche Aufnahmemechanismus ist dabei die Inkorporation über die Atmung, wobei Radon auch über die Haut aufgenommen werden kann. Radon wird dabei über das Blut im gesamten Körper verteilt und kann in Gewebe mit hoher Radonlöslichkeit akkumulieren. Die Zerfallsprodukte verbleiben jedoch in der Lunge, zerfallen dort, bevor sie abtransportiert werden können und schädigen das dortige Gewebe.
Die Lungendosis wird laut Simulationen zum größten Teil durch die kleinsten Radon-Zerfallsprodukte (< 10 nm) bestimmt, die besonders effektiv im Respirationstrakt anheften. Die erzeugte Dosis ist dabei aufgrund der inhomogenen Anlagerung der Zerfallsprodukte lokal stark variabel. In Simulationen wurden Bifurkationen als Ort besonders hoher Deposition identifiziert, wobei die experimentelle Datenlage zur Deposition kleinster Radon-Zerfallsprodukte eingeschränkt ist. Aufgrund des Anstiegs der Komplexität von Simulationen oder Experimenten wird in den meisten Betrachtungen nicht der oszillatorische Atemzyklus berücksichtigt, sondern lediglich ein einseitig gerichteter Luftstrom betrachtet. Im Rahmen dieser Arbeit wurde ein experimentelles Modell entwickelt und etabliert, das die Messung der Deposition von Radon-Zerfallsprodukten ermöglicht und zwischen drei Größenfraktionen (Freie Zerfallsprodukte: < 10 nm, Cluster: 20-100 nm, Angelagerte Zerfallsprodukte: > 100 nm) unterscheiden kann. Der Luftfluss durch das Modell bildet sowohl die Inhalation als auch die Exhalation ab. Erste Experimente mit dem neu entwickelten Messaufbau konnten die aus Simulationen bekannte erhöhte Deposition der freien Zerfallsprodukte in einer Bifurkation abbilden. Die Vergrößerung des Bifurkationswinkels von 70° auf 180° zeigte lediglich einen minimalen Anstieg in der Größenordnung des Messfehlers. Der dominierende Prozess der Anlagerung der freien Zerfallsprodukte ist die Brown'sche Molekularbewegung, die unabhängig vom Bifurkationswinkel ist. Dennoch kann ein veränderter Winkel die Luftströmung und entstehende Turbulenzen verändern, wodurch die Deposition beeinflusst werden kann. Dies lässt sich jedoch mit dem hier benutzten Messaufbau nicht auflösen. Entgegen der Beobachtungen in der Literatur führte die Erhöhung der Atemfrequenz von 12 auf 30 Atemzüge pro Minute, in den im Rahmen dieser Arbeit durchgeführten Experimenten, zu keiner messbaren Veränderung der Deposition. Diese Beobachtung ist auf die Entstehung gegensätzlicher Effekte zurückzuführen. Einerseits führt eine schnellere Luftströmung zu kürzeren Aufenthaltszeiten der freien Zerfallsprodukte im Modell, wodurch die Deposition unwahrscheinlicher wird. Andererseits entstehen vermehrt sekundäre Strömungen und absolut betrachtet werden mehr Partikel durch das Modell gepumpt. Es ist davon auszugehen, dass sich diese Effekte im hier getesteten Bereich aufheben.
Als potentielle Schutzmaßnahme zur Reduktion der Lungendosis konnte im Rahmen dieser Arbeit die Filtereffzienz von Gesichtsmasken (OP-Masken, FFP2 Masken) gegenüber Radon und seinen Zerfallsprodukten bestimmt werden. Während Radon nicht gefiltert wird, wurden die freien Zerfallsprodukte fast vollständig (> 98%) und die Cluster zum größten Teil (≈ 80 %) zurückgehalten.
Radon selbst kann im gesamten Organismus verteilt werden und dort in Gewebe akkumulieren. Zur Bestimmung der Dosis wird dabei auf biokinetische Modelle zurückgegriffen. Diese sind von der Qualität ihrer Eingabeparameter abhängig, wobei beispielsweise die Werte zur Verteilung von Radon zwischen Blut und Gewebe auf experimentell gewonnenen Löslichkeitswerten aus Mäusen und Ratten beruhen. Unbekannte Werte werden von der Internationalen Strahlenschutzkommission basierend auf der Gewebezusammensetzung als gewichteter Mittelwert berechnet. In dieser Arbeit wurde die Löslichkeit in humanen Blutproben und wässrigen Lösungen verschiedener Konzentrationen der Blutproteine Hämoglobin und Albumin bestimmt. Es löste sich mehr Radon in Plasma als in Erythrozytenkonzentrat und Vollblut. Die Protein-Lösungen zeigten keine Konzentrationsabhängigkeit der Löslichkeit, sondern lediglich in hitzedenaturiertem Hämoglobin wurde eine niedrigere Löslichkeit gemessen. Basierend auf diesen Beobachtungen, sollte die These überprüft werden, ob sich die Löslichkeit einer Mischung als gewichteter Mittelwert der einzelnen Löslichkeiten berechnen lässt. Daher wurden diese in einer Mischung aus zwei Flüssigkeiten (1-Pentanol, Ölsäure) bestimmt. Die experimentell bestimmte Löslichkeit war dabei fast doppelt so groß wie der berechnete Wert. Dieser Unterschied kann dadurch zustande kommen, dass bei einer Berechnung basierend auf der Zusammensetzung die Wechselwirkungen zwischen den Lösungsmitteln vernachlässigt werden. Dies verdeutlicht die Notwendigkeit experimenteller Daten zur Verteilung und Lösung von Radon in verschiedenem Gewebe.
Uni-Highlights April 2024 : Einladungen zu ausgewählten Veranstaltungen der Goethe-Universität
(2024)
Uni-Highlights März 2024 : Einladungen zu ausgewählten Veranstaltungen der Goethe-Universität
(2024)
ISOE-Newsletter Nr. 3/2024
(2024)
Ein Landkreis macht’s vor: So geht guter Umgang mit Grundwasser +++ Wie Kommunen nachhaltige Ernährung mit planetarer Gesundheit verbinden und fördern können +++ Ökosysteme im Klimawandel: Die Bedeutung von sozial-ökologischen Kipppunkten für die Savannen Namibias +++ Kunst erfahren – Biodiversität wertschätzen? Tanzperformance zur Bedeutung von Insekten in der Stadt +++ Kunststoffe in Lebensmittelverpackungen reduzieren +++ Aktuelle Beiträge im ISOE Blog +++ Aus dem ISOE +++ Das ISOE in den Medien +++ Termine +++ Publikationen
ISOE-Newsletter Nr. 2/2024
(2024)
Wissenschaftskommunikation zu Risiken von Ewigkeitschemikalien +++ Gemeinsam statt gegeneinander: Waldkonflikte konstruktiv lösen +++ Künstlerische Forschung: Projektstipendium „Insectopolis“ vergeben +++ Sommersemester 2024: Soziale Ökologie und Transdisziplinarität in der Lehre +++ Ökologische Kipppunkte in der mongolischen Steppe erkennen und vermeiden +++ Aktuelle Beiträge im ISOE Blog +++ Aus dem ISOE +++ Das ISOE in den Medien +++ Termine +++ Publikationen
Manfred Peter Hein, Jg. 1931
(2024)
Fröhliches Babylon : im Sprach-Welt-Café treffen Studierende auf ganz unterschiedliche Sprachen
(2024)
Leerstand und Utopie. Die Kämpfe um den Campus Bockenheim : eine Ausstellung geht auf Wanderschaft
(2024)
Entdecke die Geschichte und die umkämpfte Gegenwart des Campus Bockenheim. Das Areal ist ein Ort vielfältiger Funktionen und Interessen. Gleichzeitig ist es geprägt von Leerstand; einem Zustand aus einer »nichtmehr« universitären Kultur mit studentischem Leben und einer »noch-nicht« zukünftigen Nutzung.
Ausstellung im Schopenhauer-Studio:...
Am 18. Juni wird Jürgen Habermas, der die Geistes- und Sozialwissenschaften der Goethe-Universität nachhaltig geprägt hat, 95 Jahre alt, und dazu sendet unsere wissenschaftliche Community, der er nach wie vor aktiv angehört, die herzlichsten Glückwünsche. Bis heute ist Habermas’ wissenschaftliche und intellektuelle Stimme national und international eine der meistgehörten, und wir wünschen von Herzen, dass es noch lange so bleiben möge.
Die Physikerin Prof. Laura Sagunski, die Sprachwissenschaftlerin Dr. Mariam Kamarauli und der Biochemiker PD. Dr. Rupert Abele sind mit dem begehrten 1822-Universitätspreis für exzellente Lehre ausgezeichnet worden. Zum 23. Mal bereits hat die Goethe-Universität gemeinsam mit der Stiftung der Frankfurter Sparkasse verdiente Lehrende gewürdigt.
Zehn Jahre Mitmenschlichkeit
(2024)
Neuer Open-Access-Publikationsfonds für die Allgemeine und Vergleichende Literaturwissenschaft
(2024)
[Nachruf] Großer Historiker mit breiter Wirkung Lothar Gall * 3. November 1937 † 22. Mai 2024
(2024)
"Mir ist so digk vor gesait" : Studien zur erzählerischen Gestaltung des "Meleranz" von dem Pleier
(2024)
In der germanistischen Mediävistik richtet sich das Forschungsinteresse vornehmlich auf die höfische Literatur und dabei insbesondere auf die frühen und späten Artusromane. Vor allem die Werke von Hartmann von Aue und Wolfram von Eschenbach sind zentrale Forschungsobjekte, während Texte wie Pleiers ‚Meleranz‘ bisher nur begrenzt Beachtung fanden.
Die Forschungslücke, die die vorliegende Arbeit adressiert, liegt in der detaillierten Analyse der spezifischen Erzähltechniken des pleierschen Textes, die sich sowohl durch die Verwendung traditioneller arthurischer Motive als auch durch innovative narrative Ansätze auszeichnen. Ausgehend von dem Befund eines stark zurückgenommenen Erzählers wird untersucht, welche narrativen Strategien und Verfahren der Pleier im ‚Meleranz‘ anwendet, um trotz dieser Abkehr von der implizierten poetischen Regelhaftigkeit einer dominanten Erzählerfigur das Erzählen vom Ritter ‚Meleranz‘ gelingen und zugleich an einigen Stellen ausgesprochen konventionell wirken zu lassen.
Um aufzudecken, wie der Text ohne die Stimme eines deutlich hervortretenden Erzählers vermittelt wird, nutze ich im Verlauf der Arbeit eine Typologie der Stoffvermittlung durch (arthurische) Erzähler. In den Einzelstudien zum ‚Meleranz‘ werden seine Motive, Erzählmuster und Figurenkonstellationen in einem close reading erarbeitet und mit der Typologie abgeglichen, um bestimmen zu können, welche Vermittlungsformen im pleierschen Text genutzt werden. Mit Hilfe dieses Vergleichs kann das Erzählverfahren im ‚Meleranz‘ extrapoliert und gleichzeitig offengelegt werden. Mittels dieses Vorgehens wird verdeutlicht werden, dass es sich beim ‚Meleranz‘ um einen Text handelt, der arthurische Konventionen lediglich anders inszeniert, um die vermittelnde Funktion der Stimme des Erzählers zu substituieren oder ihr Fehler auszugleichen.
Unter Experten in Sachen Übersetzungsgeschichte ist Johann Diederich Gries kein Unbekannter. Er zählt z. B. zu den zehn "bedeutende[n] Übersetzerpersönlichkeiten von der frühen Neuzeit bis heute", deren Leben und Werk in der Europäischen Übersetzungsgeschichte von Jörn Albrecht und Iris Plack dargestellt wird. Friedmar Apels von Gottsched und Bode bis Dedecius und Enzensberger reichende "Leseliste zur Geschichte des Übersetzens in Deutschland" umfasst 60 Übersetzer, von Gries werden dessen Calderón- und Tasso-Übersetzungen zur Lektüre empfohlen.
Dorothea Gotfurt, 1907–1995
(2024)
Dorothea Gotfurt kam 1935 als Exilantin nach England. Dort wurde sie zur Übersetzerin. Zwischen 1955 und 1970 veröffentlichte sie vor allem im Scherz-Verlag (Bern), aber auch bei Fischer (Frankfurt/M.), Rowohlt (Reinbek) oder Szolnay (Wien) über dreißig von ihr ins Deutsche gebrachte Romane aus der zeitgenössischen englischsprachigen Literatur.
Die Bibliographie nennt alle in der Deutschen Nationalbibliothek vorhandenen Bücher Grete Fischers. Die Titel wurden mit Ausnahme der drei 1945/46 in Glasgow erschienenen Bücher autoptisch überprüft. Als Verlagslektorin hat sie durch mehrere Jahrzehnte an deutschen und englischen Übersetzungen mitgewirkt, die sich bisher jedoch bibliographisch nicht nachweisen ließen.
Auf Initiative des Schwerpunktes Ökotoxikologie im Masterstudiengang Umweltwissenschaften an der Justus-Liebig-Universität Gießen wurde eine neue Plattform für die Begegnung und Vernetzung der Studierenden untereinander eingerichtet, der sich nun zum ersten Mal jährt. Um mehr Einblicke in das praktische Versuchswesen und Studienangebote anderer Hochschulen zu geben, organisiert der Schwerpunkt Angebotsformate, die über die Vorlesungen hinausgehen. Der »Mittelhessische Tag der Ökotoxikologie« bringt Studierende der Technischen Hochschule Mittelhessen, der Goethe-Universität Frankfurt, der Philipps-Universität Marburg, jüngst auch der Universität Kassel und der JLU am FNU in Homberg (Ohm) zusammen und erlaubt ihnen Einblicke in die ökotoxikologische Forschung und Praxis.
Die Arbeitsgruppe Generative KI erforscht die Folgen von KI für die Goethe-Universität. Die beiden studiumdigitale-Mitarbeiter*innen der AG Julia Schmitt und Dr. David Weiß, der zugleich auch der Leiter der AG ist, geben Auskunft darüber, warum TechnologieAusrollen allein nicht reicht und es wichtig ist, im KI-Hype nicht die Ruhe zu verlieren.
In der Bibliographie sind alle bisher ermittelten Publikationen von und über Curt SigmarGutkind verzeichnet. Belegexemplare der von ihm verfassten Aufsätze und Zeitungsbeiträge(Rezensionen, Theaterkritiken usw.) befinden sich in seinem im Mannheimer Stadtarchivaufbewahrten Nachlass. Alle Einträge wurden autoptisch geprüft.
Buch des Monats Juli 2024
(2024)
Kurzvorstellung der folgenden Publikation:
Bilder-Atlas fuer Kaufleute und Fabrikanten : eine Gallerie von Abbildungen wichtiger und interessanter Gegenstaende aus der merkantilistischen Waarenkunde und Technologie ... ; mit erklaerendem Texte / Hrsg. Carl Noback. - Leipzig : Wigand, [1840-41]. - Getr. Pag. : Ill.; [120] Lithogr., davon 24 kolor.
Von A bis Å. (Fast) alles über die Frankfurter Skandinavistik. Ausgabe 8 ; Sommeremester 2024
(2024)
Kriminalität und deren Bekämpfung unterliegen seit jeher permanenten Veränderungen. Durch den gesellschaftlichen Wandel und die damit einhergehende Weiterentwicklung von technischen Möglichkeiten werden fortlaufend neue Modi Operandi ermöglicht, auf welche die Polizei mit teilweise ebenfalls neuen kriminalistischen Mitteln reagiert. Entwicklungen in der Kriminalität und der Kriminalistik können somit als sich gegenseitig beeinflussende Prozesse angesehen werden. Allerdings findet dieser Wandel nicht kontinuierlich statt, sondern tritt in Schüben auf, die in der Regel auf besonders kriminalitätsrelevante Ereignisse zurückzuführen sind. In diesem Zusammenhang verändert sich die Polizei, sowohl in ihrer Organisation als auch in ihren Analysen zur Entwicklung der Kriminalität und in ihren Methoden zu deren Bekämpfung, teilweise grundlegend.
In einem ersten, konzeptionellen Teil wird anhand von ausgewählten Kriminalitätsformen und den damit verbundenen Ermittlungspraktiken ein Überblick der gegenseitigen Beeinflussung von Kriminalität und Kriminalistik gegeben. Darauf aufbauend wird im zweiten Teil der aktuelle Stand dieses 'Evolutionsprozesses' anhand der Implementierung von Predictive-Policing-Systemen in die Polizeiarbeit diskutiert. Denn darin zeigt sich nahezu idealtypisch die gegenseitige Beeinflussung von Kriminalität und Kriminalistik wie auch der digitale Wandel und die damit verbundenen Gefahren. Polizeiarbeit scheint sich im Ergebnis dieser Veränderungsprozesse von einer ursprünglich eher auf den Einzelfall bezogenen, subjektiven Sichtweise auf Kriminalität und deren Verfolgung (zum Beispiel durch kriminalistische Taktik und List in der Vernehmung) auf eine nunmehr eher allgemeine, abstraktere Betrachtung zu verschieben ('Abstract Police').
Inwiefern schließen Open Source Investigations eine Revision des Indizienparadigmas ein? Der Aufsatz beantwortet diese Frage, indem er anhand von Fallbeispielen von Rechercheagenturen (bellingcat und Forensic Architecture) und investigativen Fotografen (Trevor Paglen und Edmund Clark) eine Verschiebung im Spurbegriff herausarbeitet: Im Rahmen digitaler Recherchen sind Spuren durch Datenverarbeitung hervorgebrachte mediale Artefakte, sie werden also nicht am Tatort vorgefunden, sondern rechnerisch produziert. In den Falldarstellungen und Methodenreflexionen der Akteur:innen können dabei verschiedene Modi der virtuellen Spur unterschieden werden.
Der Beitrag thematisiert die literarische Darstellung virtueller Investigationen, welche eine performativ-schauspielerische Wiederholung von Tatgeschehnissen beinhalten. Er analysiert insbesondere die Rolle von Zufallsmotiven und -aspekten in solchen Darstellungen und deren metapoetische Bedeutung im Rahmen einer Gattungspoetik des Kriminalromans. Als Fallbeispiele dienen hierfür Friedrich Dürrenmatts 'Requiem auf den Kriminalroman' "Das Versprechen" und Stanisław Lems Roman "Der Schnupfen". Im Vergleich der beiden Texte zeigt sich unter anderem, dass die Idee eines genauen 're-enactment' von Tathergängen auf der Grundlage virtueller Rekonstruktionen in beiden Romanplots nicht direkt zum gewünschten Ergebnis führt, dass aber in Lems Roman eine Integration des Faktors Zufall in virtuelle Ermittlungsprozesse und in die Poetik des Kriminalromans insgesamt sehr viel positiver gewertet wird, während der Einfluss des Zufalls bei Dürrenmatt ebenfalls als unhintergehbar, aber nicht als uneingeschränkt begrüßenswert perspektiviert wird.
Lange hat sich die Feststellung von Subjekten auf den menschlichen Körper gerichtet, auf dessen Spur, besonderes Merkmal, Fingerabdruck oder DNA-Profil. Derweil verliert sich dieser indexikalische Zusammenhang in digitalen Erkennungsverfahren, einerseits indem sie nicht länger ein Indiz auf einen unverwechselbaren Körper beziehen, sondern dessen Bild nunmehr mit den Pixel-Verteilungen in tausenden anderen Bilddateien abgleichen, andererseits weil sie, noch vor der Identifizierung einer Person, überhaupt erst einen "Körper" als solchen registrieren müssen. Damit aber verschieben sich all jene subversiven Praktiken, die den Menschen der Detektion zu entziehen trachten: Statt bloßer Maskierung gilt es jetzt, den Körper selbst zu tilgen - durch technische Verwischungen, Oberflächenmodulationen oder Bewegungsmuster außerhalb der KI-Trainingsraster. Derlei Strategien des Entzugs werden in der zeitgenössischen Videokunst erprobt, etwa in Hito Steyerls "How Not to Be Seen" oder Liam Youngs "Choreographic Camouflage". Damit stellt sich zudem die grundsätzliche Frage nach der Verfügbarkeit und Neuform(at)ierung des Körpers im Digitalen; hier nämlich verwandelt er sich vom Zeichen- und Faktenreservoir in Virtualität und stetes Werden, die ihr politisches Potential auch weit jenseits aller Überwachungstechnologie entfalten.
Der Beitrag konzentriert sich auf einen blinden Fleck in Carlo Ginzburgs Indizienparadigma. Ginzburg beschränkt die Ermittlung von Wissen im Bereich des Rechts auf die Erhebung materieller Indizien der Vergangenheit. Im größeren Zusammenhang der staatlichen Rationalität des 18. Jahrhunderts wird jedoch deutlich, dass bei Ginzburg die präventive und damit zukunftsgewandte Komponente der Guten Policey fehlt. Um potentielle Gefahren abzuwehren und bestenfalls unmöglich zu machen, werden im Dienste der Generalprävention Spuren einer möglichen Zukunft lesbar gemacht. Doch führt die bloße Virtualität einer potentiellen Zukunft zu einer Universalisierung des Verdachts und alle Menschen werden zu potentiellen Verbrechern. Mit Schiller und Fichte macht der Beitrag daher auch die Grenzen staatlicher Fürsorge namhaft. Im Bereich der Literaturwissenschaft entspricht den Investigationen der Guten Policey die rezeptionsästhetische Theorie. Sie ermittelt das Bedeutungspotential, das einem Werk immer schon innewohnt, aber erst in der späteren Rezeption entfaltet wird. Der Bedrohung einer Universalisierung des Verdachts entspricht bei der Rezeptionsästhetik die Gefahr, das Bedeutungspotential zu entgrenzen, womit die Lesart der Indizien beliebig würde.
Das ludische Dispositiv virtueller Investigationen : auf Spurensuchen in interaktiven Krimi-Formaten
(2024)
In interaktiven Kriminalerzählungen verknüpfen sich Medialität und Ästhetik, wobei Computer als Werkzeuge der Ermittlungsarbeit neue Perspektiven auf polizeiliche Effizienz und agency eröffnen. Narrative Spiele nutzen Technologie und Medien häufig auf innovative und selbstreflexive Weise, um immersive Spielwelten und ludische Herausforderungen für die Spielenden zu schaffen. Dieser Artikel verfolgt die historische Entwicklung von Kriminalspielen anhand einzelner Beispiele. Denn diese weisen bedingt durch ihr Erscheinungsdatum spezifische Formen technischer und ästhetischer Verfahren auf, werfen unterschiedliche Fragen zur Natur von Wissen, Medien und Wahrheit auf und eröffnen unterschiedliche Perspektiven auf die Wechselwirkungen zwischen virtueller und realer Kriminalität sowie auf mögliche Einflüsse auf reale kriminologische Praktiken.
Wenn im Rahmen von investigativen Recherchen auf öffentlich und digital verfügbare Daten zurückgegriffen wird, spielen Bilder der physischen Tatumgebung häufig eine wesentliche Rolle. Ins Internet gestellte Fotos und Videos von Ereignissen im öffentlichen Raum oder topographische Luftbilder im Vorher-Nachher-Vergleich gelten dabei oft als beste Beglaubigung eines Geschehens. Der technische Charakter und die Georeferenzierung verleihen den Bildern eine so hohe Überzeugungskraft, dass sie als Grundlage für rekonstruierende 3D-Modelle und Simulationen verwendet werden - auch wenn ihre Glaubwürdigkeit in den letzten Jahren durch die Möglichkeit der Bildmanipulation oder der gezielten Fehlinterpretation stark gelitten hat. Anhand von Fallstudien untersucht der Beitrag exemplarische Konfigurationen einer investigativen Architekturproduktion, um aufzuzeigen, welche raumkonstituierenden Verfahren der Evidenzerzeugung entwickelt und eingesetzt werden, welche Authentifizierungsstrategien sie prägen und worin sich ein hegemoniekritischer von einem staatlich-repressiven Bildgebrauch unterscheidet. Damit verbunden ist die Frage nach dem Status der virtuellen Rekonstruktion im Spannungsfeld von Zeugnis und Beweis, nach ihrem Wert als Erkenntnisquelle und ihrer politischen wie ethischen Dimension. Nicht zuletzt geht es um die paradox anmutende Frage, wie digitale Raumbilder trotz ihrer Konstruiertheit und Manipulierbarkeit eine realitätsbeglaubigende Kraft in der investigativen Arbeit entfalten können.
Heutige Diskussionen um 'Artistic Research' oder 'Investigative Aesthetics' reaktivieren die alte Frage nach den Wissens- und Erkenntnisdimensionen von künstlerischer Praxis. Auch in parallel entstehenden literarischen Texten kommt es zu verstärkten Auseinandersetzungen mit Praktiken und Begriffen außerliterarischer Wissensfelder wie den Medien, dem Recht oder den Wissenschaften. Ebenso lassen sich erhöhte Ansprüche ausmachen, mit dem eigenen literarischen Schreiben eine Art Wissen zu erzeugen. Der Beitrag stellt dies beispielhaft an deutschsprachigen Texten zum Jugoslawien-Krieg in den 1990er Jahren dar und diskutiert die literarische Hinwendung zu Formen des Wissens und Ermittelns als ein den forschenden oder investigativen Künsten verwandtes Phänomen.
In ihren Investigationen greifen Forensic Architecture auf Crowddaten zurück, die Umweltereignisse sensorisch erfassen und von Nutzer:innen auf digitalen Plattformen geteilt werden. Die Animationsvideos der Forschungsagentur lassen sich als Resultate einer kollektiven Intelligenz reflektieren, bei der datenbezogenen Praktiken der Repräsentation als Aneignungen vorangegangener Operationen mit mobilen Sensormedien 'in the field' erscheinen. Der Beitrag fragt nach den ästhetischen Darstellungsweisen der Ereignisrekonstruktion mittels sensorischer Crowddaten. Am Beispiel der Investigation "The Beirut Port Explosion" (2020) wird gezeigt, wie unterschiedliche, an einer objektiven Darstellung orientierte Visualisierungskonventionen produktiv ineinandergreifen. Um eine kohärente Beweisführung zu gewährleisten, werden die Sensordaten in den Kontext eines Raumsimulationsmodells eingefügt. Das Modell fungiert als Ersatzobjekt für die Stadt Beirut und ist somit konstitutiv für die Virtualisierung der Investigation. Dabei rückt in der ästhetischen Analyse jedoch das zirkuläre Verhältnis zwischen Raummodell und Crowddaten in den Fokus, das vor dem Hintergrund produktionsspezifischer und infrastruktureller Fragestellungen problematisiert wird.
Als Carlo Ginzburg die These formulierte, dass die Geisteswissenschaften wie die Kriminalliteratur im sog. "Indizienparadigma" gründeten, hatte er mit Sherlock Holmes einen Detektiv vor Augen, der persönlich den Tatort besichtigte. Dort erhob er Spuren, kombinierte sie und kam in oftmals ingeniösen, aber auch höchst spekulativen Schlussfolgerungen zur Lösung seines Falls. Vor dem Hintergrund aktueller Entwicklungen in Forschung und Fahndung muss dieses materiell und empirisch grundierte "Indizienparadigma" jedoch einer Revision unterzogen werden. Denn seit der Privatdetektiv von "Kommissar Computer" Konkurrenz bekommen hat, haben sich die Investigationspraktiken grundlegend gewandelt: So können computergestützte Fahndungs- und Aufklärungsmethoden eine Besichtigung des Tatorts ersetzen, während algorithmische Wahrscheinlichkeitsrechnung vergangene wie zukünftige Fälle erhellt. Der vorliegende Sammelband mit Beiträgen aus der Literatur-, Medien- und Designwissenschaft untersucht, inwiefern solche "virtuellen Investigationen" in Literatur und Kunst der Gegenwart eine Revision des Indizienparadigmas einschließen - und inwiefern Begriffe der Virtualität bereits die Investigativarbeit im 19. Jahrhundert prägten
Indizien zu lesen, gehört zu den Plausibilisierungspraktiken in alltäglichen wie wissenschaftlichen Kontexten. Über indexikalische Techniken des Schließens ist Wissen semiologisch wie hermeneutisch dynamisiert. Zentral gilt dies für Disziplinen wie Recht, Medizin, Psychologie, Archäologie, Philologie u.a.m. - sie alle folgen Indizien als eine Art 'Allegorie des Verweisens'. Das Indiz als der Zeichentypus, der sich selbst zeigt und zugleich etwas anderes an-zeigt (indicare), changiert dabei stets zwischen Evidenz und Lektüre - das weiß bereits die Antike, doch epistemologisch und semiologisch prominent diskutiert wird es im 18. Jahrhundert.
Finanzielle Armut prägt Mobilitätspraktiken und kann dabei zum Prozess von mobilitätsbezogener sozialer Exklusion beitragen. Zu den Personen, deren Armutsrisiko besonders hoch ist, zählen in Deutschland Haushalte mit Kindern, insbesondere Alleinerziehende. Ältere Menschen haben nicht die höchste Armutsgefährdung, jedoch besteht bei ihnen das Risiko von Verharrung in Armut, da die Möglichkeiten, die finanzielle Situation aus eigener Kraft zu ändern mit zunehmendem Alter sinken.
Um ein tieferes Verständnis davon zu erhalten, wie finanzielle Armut die Mobilitätspraktiken und soziale Teilhabe von Haushalten mit Kindern sowie älteren Menschen prägt, wurden mit diesen beiden Personengruppen problemzentrierte Interviews in Ronnenberg (Region Hannover) geführt und analysiert. Die Ergebnisse belegen, dass, wenngleich alle Befragten mit ähnlich geringen finanziellen Ressourcen haushalten und Verzicht sowie Abwägungsprozesse notwendig sind, sich ihre Mobilitätspraktiken und Alltagsbewältigungsstrategien unterscheiden, was sich in zwei Typologien widerspiegelt. Erstens, eine Typologie der Mobilitätspraktiken von Haushalten mit Kindern: (i) autozentriert, (ii) autoreduziert, (iii) ÖPNV-orientiert und (iv) nichtmotorisiert. Zweitens, eine Typologie älterer Menschen anhand ihrer Mobilitätspraktiken: (i) aktive ältere Menschen mit vielseitigen sozialen Interaktionen, (ii) nachbarschaftsorientierte ältere Menschen mit lokalen Kontakten und (iii) ältere Menschen, die überwiegend zu Hause sind und wenig soziale Kontakte haben.
Um herauszufinden, inwiefern mobilitätsbezogene Barrieren der sozialen Teilhabe reduziert werden können, wurden fünf Maßnahmen bezüglich ihrer Wirkung auf die Mobilitätspraktiken einkommensarmer Haushalte mit Kindern untersucht: einerseits die Wirkung des 9-Euro-Tickets anhand von problemzentrierten Interviews mit einkommensarmen Haushalten mit Kindern, andererseits anhand von Expert:inneninterviews die Wirkung von Radlernkursen für Frauen mit Migrationshintergrund, eines Mietertickets, eines Quartierstickets und der Verbesserung der Nahraum- und Aufenthaltsqualität am Beispiel von Tempo 30. Die Ergebnisse zum 9-Euro-Ticket belegen, dass ein erschwingliches ÖPNV-Ticket erheblich zur Reduzierung mobilitätsbezogener Barrieren der sozialen Teilhabe im Armutskontext beiträgt. Die Expert:inneninterviews zeigen auf, dass eine Förderung des Umweltverbunds zielführend ist, um zu einer sozial-ökologischen Verkehrswende beizutragen und insbesondere Maßnahmenbündel Wirkung auf die Reduzierung von mobilitätsbezogenen Barrieren der sozialen Teilhabe entfalten.
Die Erkenntnisse dieser Dissertation ergänzen den wissenschaftlichen Forschungstand um ein tiefergehendes Verständnis der Wirkung von finanzieller Armut auf die Mobilitätspraktiken und soziale Teilhabe von Haushalten mit Kindern und älteren Menschen und helfen dabei, Maßnahmen zur Reduzierung mobilitätsbezogener Barrieren der sozialen Teilhabe zu konzipieren und umzusetzen.
Der Artikel bietet eine Analyse von John A. Williams' Roman "Clifford's Blues" (1999), der in der Form eines fiktiven, von einem afroamerikanischen Jazz-Musiker geschriebenen Tagebuchs von der Inhaftierung im Konzentrationslager Dachau erzählt. Der Roman lässt sich nicht nur als mit den Mitteln der Fiktion arbeitender Beitrag zur Geschichte der Verfolgung Schwarzer Menschen im Nationalsozialismus verstehen, sondern auch als selbst transatlantisches, vermeintlich historisches Zeitzeugnis, das aus einer ungewöhnlichen Perspektive die Thematik eines unsteten Archivs verflochtener Gewalt- und Exilerfahrungen beleuchtet. Das Augenmerk der Analyse liegt einerseits auf den Chancen eines solchen Archivs: Der Roman zeigt Möglichkeiten diasporischer Gemeinschaftsbildung und beschreibt die transatlantische Perspektive des Protagonisten als Ressource für das Erkennen von Kontinuitäten der Unterdrückung wie auch für das Ableiten von alltäglichen Widerstandsstrategien. Andererseits werden ausgehend vom Kunstgriff der Herausgeberfiktion und von Dokumenten aus dem Nachlass Risiken und Widersprüche des hier entworfenen Archivs diskutiert. Es wird gezeigt, dass dieses zwar auf Transnationalität zielt, jedoch teilweise der Rückbindung an ein lokales Moment bedarf.
Der Natrium-abhängige Kaliumkanal Slack (KNa1.1, Slo2.2, KCNT1) nimmt eine Schlüsselrolle in der Regulation neuronaler Erregbarkeit ein, indem er die Ausbildung und Feuerungsfrequenz von Aktionspotentialen kontrolliert. Sowohl in Mäusen als auch in Menschen wird Slack besonders hoch in nicht-peptidergen C-Faser-Neuronen exprimiert. Wissenschaftliche Erkenntnisse der letzten Jahre konnten die Beteiligung von Slack-Kanälen in der Signalverarbeitung neuropathischer Schmerzen, aber auch in verschiedenen Arten von Pruritus, feststellen. Dabei zeigen Slack-defiziente Mäuse ein verstärktes mechanisches Schmerzverhalten nach einer peripheren Nervenverletzung und ein erhöhtes Kratzverhalten in akuten Juckreiz-Modellen. Das als Slack-Aktivator identifizierte trizyklische Neuroleptikum Loxapin zeigt sowohl analgetische als auch antipruritische Effekte in Mäusen, jedoch ist sein klinischer Einsatz auf Grund schwerwiegender antipsychotischer Nebenwirkungen limitiert. Basierend auf Loxapins Leitstruktur wurden daher in dieser Arbeit neue Slack-Aktivatoren mit einem verbesserten pharmakologischen Profil designed und ihr Potential für die Therapie von Schmerzen sowie akutem und chronischem Pruritus in vivo untersucht.
Einleitung: Die Zentrale Notaufnahme (ZNA) stellt eine Schnittstelle zwischen prä- und innerklinischer Versorgung dar. Das Spektrum der Krankheitsbilder erstreckt sich über jegliche Fachrichtungen und variiert von harmlosen Banalitäten bis zu akuten Notfällen. Eine sichere und suffiziente Primärversorgung ist die Basis eines qualitativ-hochwertigen Gesundheitssystems.2 Verspätete oder falsche Diagnosen in der ZNA sind mit 10-30 % keine Seltenheit.
Dies ist nicht nur für den individuellen Patienten belastend, es bedeutet auch einen zusätzlichen Ressourcenverbrauch und eine finanzielle Belastung für das Gesundheitssystem. Clinical Decision Support Systems (CDSS) haben das Potenzial, sowohl professionelle Anwender als auch Laien bei ihrer Diagnosefindung zu unterstützen. Fragestellung: Ziel der Arbeit ist es herauszufinden, welchen Einfluss der Diagnosezeitpunkt auf das Outcome von Patienten mit Abdominalschmerzen in der ZNA hat und inwiefern ein CDSS das Potenzial hat, die genannten Punkte zu beeinflussen.
Methoden: Es handelte sich um eine prospektive, doppelt verblindete Beobachtungsstudie. Patienten, die sich mit Abdominalschmerzen in der Notaufnahme vorstellten, gaben ihre Symptome in die Ada-App ein. Sowohl die Diagnosevorschläge der App als auch die Verdachtsdiagnosen des behandelnden Arztes wurden dokumentiert und verglichen. Weitere erhobene Parameter waren die Verwendung von apparativer Diagnostik, die vergangene Zeit bis zur endgültigen Diagnosestellung, das Auftreten von Komplikationen, die Komorbidität und Mortalität sowie die Länge des Krankenhausaufenthalts. Das Follow-Up erfolgte zu verschiedenen Zeitpunkten bis zu Tag 90. Für die Analyse wurden die 450 Patienten anhand des Zeitpunkts ihrer Diagnosestellung in Gruppen "früh" (Tag 0) und "spät" (Tag 1-24) eingeteilt.
Ergebnisse: Im Vergleich zur „frühen“ Gruppe, hatte die Gruppe der „spät“ diagnostizierten Patienten einen höheren Anteil von Männern (45.2% (n=168/372) versus 60.3 % (n=47/78); p=0.018), im Schnitt einen höheren Charlson Comorbidity Index (0.7 versus 1.1; p=0.045) und im Schnitt einen höheren RAI-C Score (8.06 versus 9.9; p<0.001) am Tag ihrer Vorstellung. Bei den „spät“ diagnostizierten blieben weniger Patienten komplikationsfrei (57.0 % 49 (n=212/372) versus 17.9% (n=14/78); p<0.001), es traten mehr Major-Komplikationen auf (8.9% (n=33/372) versus 17.9% (n=14/78); p=0.024), analog dazu war der Comprehensive Complication Index höher (13.1 versus 25.6; p<0.001) und sie verweilten länger im Krankenhaus (2.6 Tage versus 6.7 Tage; p<0.001). Zudem nahmen sie signifikant mehr apparative Diagnostik in Anspruch.
Die behandelnden Ärzte konnten in 82.6% der Fälle (n=372/450) am Tag der Vorstellung die korrekte Diagnose stellen. Die Ada-App konnte in insgesamt 52% der Fälle (n=234/450) die korrekte Diagnose unter ihren Diagnoseverschlägen nennen.
Schlussfolgerung: Multimorbide Patienten scheinen anfälliger zu sein für falsche und verspätete Diagnosen. Ein später Diagnosezeitpunkt korreliert mit der vermehrten Nutzung apparativer Diagnostik, einem komplikationsreicheren Verlauf, einer höheren Komorbidität und einem längeren Krankenhausaufenthalt.
Die Ada-App ist den Ärzten zwar unterlegen, dennoch ist Potenzial vorhanden.
Für Ärzte kann die Ada-App eine Unterstützung im Rahmen der Diagnosefindung darstellen. Neben der Ressourcenentlastung kann sie vor Fehlannahmen und frühzeitigen Schlussfolgerungen schützen und auf weitere mögliche Differentialdiagnosen hinweisen. Die Ada-App stellt für Laien mit Sicherheit eine Weiterentwicklung gegenüber der simplen Symptomsuche über das Internet dar, dennoch sollten weitere Studien den Nutzen und die Sicherheit der App überprüfen.
In Deutschland leidet ca. jeder zehnte Mensch über 40 Jahren an einer chronischen Einschränkung seiner Nierenfunktion. Nicht wenige davon sind im Laufe der Erkrankung auf eine Nierenersatztherapie angewiesen. Die Ursachen für eine Nierenschädigung sind vielfältig. Als neuartiger und vielversprechender Therapieansatz werden aktuell Mesenchymale Stamm-/Stromazellen (MSC) als Therapeutikum für diverse Nierenerkrankungen getestet. Erste Ergebnisse klinischer Phase-I-Studien zeigen, dass MSC sicher als Immunsuppressivum nach Nierentransplantation angewendet werden können. Auch für weitere Erkrankungen der Niere sind erste klinische Studien am Laufen. MSC gelten als regenerativ, immunsupprimierend und antientzündlich. Dennoch gibt es noch einige Limitationen. Nach der Transplantation der Zellen ist das Wachstum der Zellen oft eingeschränkt und es kommt zur vermehrten Apoptose. Auch wird immer wieder ein paradoxes und entzündungsförderndes Verhalten der MSC am Wirkort beobachtet. Ein wichtiger Lösungsansatz ist eine in vitro Vorbehandlung der MSC zur Modulierung der zellulären Eigenschaften. In dieser Arbeit wurden drei Substanzen und Arzneimittel auf ihre Fähigkeit untersucht, die entzündungshemmenden Eigenschaften der MSC zu verbessern und die entzündungsfördernden zu unterdrücken. Der Fokus lag hierbei auf dem Arzneimittel Niclosamid und den beiden bisher noch nicht zugelassenen Substanzen Berberin und Gedunin, die alle in vitro und in vivo bereits erste vielversprechende antientzündliche Wirkungen bewiesen haben. Für diese Arbeit wurden MSC aus Fettgewebe isoliert (ASC) und mit LPS oder einem Cytokin-Mix (Mischung aus TNF-α, IFN-γ und IL-1β) sowie den drei Substanzen stimuliert. Untersucht wurden im Anschluss die mRNA-Expressionen der gängigsten proinflammatorischen (TNF-α, IL-6, TLR-4, ICAM-1, HLA-DR) und antiinflammatorischen Marker (IDO, IL-10), sowie mittels ELISA die Protein-Freisetzung von IL-6 und IL-8. Die vielversprechendsten Ergebnisse ließen sich durch Berberin hervorrufen. Hier zeigte sich eine deutliche Senkung der IL-8-Konzentration im ELISA. Die Anwendung des Gedunin hatte keine signifikante Wirkung auf die ASC. Niclosamid hingegen scheint widererwarten sogar entzündungsfördernd zu wirken, in dem es die IL-6-, ICAM-1-mRNA-Expression steigerte und die IDO-mRNA-Expression absenkte. Unter den drei getesteten Subtanzen hat Berberin die beste Wirkung bewiesen. Nach weiterer Testung könnte eine Anwendung mit Berberin als in vitro Präkonditionierung von MSC vielversprechend sein. Die Verwendung von Niclosamid hingegen sollte vermieden werden, die Wirkung von Gedunin müsste genauer untersucht werden.
Die Appendizitis stellt mit einer Inzidenz von 115 pro 100000 Einwohnern in Deutschland eine der häufigsten Ursachen für ein akutes Abdomen dar. Bakterielle Infektionen sind ein wesentlicher Faktor für die postoperative Morbidität nach Appendektomie.
Ziel dieser prospektiven Studie war es, das Keimspektrum und insbesondere die Prävalenz resistenter Keime bei der akuten Appendizitis zu bestimmen und die Auswirkungen resistenter Keime auf das Auftreten infektiöser Komplikationen zu analysieren. Alle erwachsenen Patient*innen mit akuter Appendizitis, die zwischen April 2022 und Juli 2023 am Universitätsklinikum Frankfurt operativ behandelt wurden, wurden prospektiv eingeschlossen. Das Keimspektrum der Appendix und die Häufigkeit von MRE in Rektalabstrichen wurden analysiert. Die klinischen Daten wurden extrahiert, um die Korrelation des Keimspektrums mit dem Auftreten von postoperativen Komplikationen, Dauer und Art der Antibiotikatherapie und dem postoperativen Verlauf zu evaluieren. 30 Tage nach der Operation wurde ein Follow-up durchgeführt. Insgesamt wurden 105 Patient*innen in die Studie eingeschlossen.
In den Appendixabstrichen gelang ein Erregernachweis bei 67,6 % aller Fälle. Hierbei betrug die Prävalenz von Keimen mit Antibiotikaresistenz 43,8 %, Multipler-Antibiotikaresistenz (MAR) 27,6 % und bei 5,7 % der Fälle gelang ein MRE-Nachweis nach CDC im Appendixabstrich. Beim MRE-Screening konnten im Rektalabstrich bei 11,4 % der Patient*innen ein MRE nachgewiesen werden. In vier Fällen zeigte sich eine Übereinstimmung zwischen rektalen und appendikulären Abstrich, somit betrug die Sensitivität des MRE-Screenings für einen Nachweis multiresistenter Keime in der Appendix lediglich 33,3 % bei einer Spezifität von 86,7 %. In einer univariaten Analyse konnte das Vorliegen eines Diabetes mellitus als Risikofaktor für das Auftreten von Keimen mit Cefuroxim- Resistenz, Multipler-Antibiotikaresistenz (MAR) und MRE identifiziert werden.
Insgesamt erhielten 47,6 % aller Patient*innen postoperativ eine Antibiotikatherapie, von denen erfolgte bei 46 % eine Umstellung der empirischen Antibiose auf eine antibiogramm-gerechte Therapie nach Erhalt des mikrobiologischen Befundes. Insbesondere Patient*innen mit komplizierter Appendizitis erhielten postoperativ eine Antibiotikatherapie, wobei 28 % eine Antibiotikaeskalation benötigten.
Patient*innen, deren Appendixabstriche eine Resistenz gegen maximal ein Antibiotikum aufwiesen, wurden als nicht multiple Resistenz (Nicht-MAR) definiert und mit Patient*innen verglichen, deren Keime mit multipler Antibiotikaresistenz (MAR) waren. Die MAR-Gruppe zeigte im Vergleich zur Nicht-MAR-Gruppe eine höhere Inzidenz postoperativer Komplikationen, insbesondere eine erhöhte Inzidenz von Clavien-Dindo Grad 3 Komplikationen sowie von tiefen postoperativen Wundinfektionen (CDC Grad A3). Weiterhin benötigten Patient*innen der MAR-Gruppe häufiger eine postoperative Antibiotikatherapie und es erfolgte häufiger eine Eskalation der antibiotischen Therapie. Dies ging auch mit einem signifikant verlängerten Krankenhausaufenthalt einher.
Zusammenfassend kann festgestellt werden, dass eine bakterielle Infektion mit Multipler Antibiotikaresistenz bei der akuten Appendizitis häufig auftritt und die Morbidität nach Appendektomie beeinflusst. Die mikrobiologische Untersuchung mittels Appendixabstrich bei operativ behandelten Fällen von akuter komplizierter Appendizitis, die eine postoperative Antibiotikatherapie erfordern, könnte somit eine gezielte und kürzere Antibiotikatherapie ermöglichen. Dies könnte dazu beitragen, längere Krankenhausaufenthalte zu vermeiden, den unnötigen Einsatz unwirksamer Antibiotika zu reduzieren und die Kosten im Gesundheitswesen zu senken.
Hidradenitis suppurativa ist eine multifaktoriell-bedingte chronisch entzündliche Hauterkrankung, die durch eine Okklusion der Talgdrüseneinheit des Haarfollikels entsteht. Aus der anschließend mit Entzündung einhergehenden Ruptur des Haarfollikels entwickeln sich entzündliche Knoten, Abszesse und Fistelgänge. (39–41) In der weiteren Progression der Erkrankung kommt es zur Störung der Hautarchitektur und fibrotischen Narbenbildungen. (52) Durch Untersuchungen des entzündlichen Infiltrates konnte bereits die Beteiligung einer Reihe von Immunzellen und Entzündungsmediatoren identifiziert werden. Hierzu zählen Makrophagen, neutrophile Granulozyten, Dendritische Zellen, Lymphozyten, IL-1β sowie TNF-α. (41,45,46,51,53) Da die genaue Pathophysiologie der Hidradenitis suppurativa bislang unzureichend aufgeklärt ist, gibt es aktuell keine kausale Therapiemöglichkeit für die Betroffenen. (52) Die Wahl der Therapie wird anhand der Bewertung des Schweregrades nach Hurley getroffen. (25) Obwohl meisten Patientinnen und Patienten von der milden bis mittelschweren Form der Hidradenitis suppurativa (Hurley I und Hurley II) betroffen sind (98), werden die meisten Arzneimittel für die Behandlung von Hurley II und Hurley III von den Leitlinien empfohlen. Zu den empfohlenen Medikamenten gehören u. a. Rifampicin, meist in Kombination mit Clindamycin, sowie der TNF-α-Inhibitor Adalimumab (18,85), welche effektiv und systemisch wirken. Durch die entstehenden Nebenwirkungen wäre die Behandlung der milden bis mittelschweren Hidradenitis suppurativa mit diesen Medikamenten allerdings unverhältnismäßig. Um jedoch den im Verlauf der Krankheit entstehenden Hautdestruktionen vorbeugen zu können, müssten die Medikamente möglichst früh eingesetzt werden. (228) Vor diesem Hintergrund sollte in Kooperation mit dem Institut für Pharmazeutische Technologie der Goethe Universität Frankfurt eine Rifampicin-Nanoformulierung zur Behandlung milder bis mittelschwerer Hidradenitis suppurativa entwickelt und im Labor der dermatologischen Klinik präklinisch validiert werden.
Daher wurde im ersten Teil der vorliegenden Arbeit ein Epidermismodell aus der Haut betroffener Patientinnen und Patienten generiert, um die Rifampicin-Nanoformulierung validieren zu können. Dieses wies eine mehrschichtige Epidermis mit allen wichtigen Differenzierungsmarkern ähnlich der läsionalen Hidradenitis suppurativa auf und schüttete die proinflammatorischen Zytokine IL-1β und TNF-α aus. Als weiteres Modell wurden ex vivo Explantate aus läsionaler Hidradenitis suppurativa Haut etabliert. Für die Bewertung der Validität der Explantatkulturen wurde die Morphologie und Integrität der Epidermis mittels Hämatoxylin-Eosin sowie der Proliferationsmarker Ki-67 näher beleuchtet. Im zweiten Teil dieser Arbeit wurden Untersuchungen für die Festlegung eines Konzentrationsbereichs, unter Verwendung von Rifampicin in DMSO gelöst als in vitro Behandlung, durchgeführt.
Hierbei wurde gezeigt, dass die eingesetzten Konzentrationen keine negativen Effekte bezüglich Proliferationsfähigkeit der Keratinozyten oder Apoptoseinduktion ausüben. Die Behandlung von nicht entzündlichen Epidermismodellen sowie Explantatkulturen mit der Rifampicin-Nanoformulierung mit einem Wirkstoffgehalt von 0,3 % führte ebenfalls zu keinen Proliferationsverlusten, induzierte keine Apoptose oder Zytotoxizität und hatte keinen Einfluss auf die Differenzierung der Keratinozyten. Im letzten Teil der Arbeit sollte die Wirksamkeit der Rifampicin-Nanoformulierung näher beleuchtet werden. Als Antibiotikum inhibiert Rifampicin die DNA-abhängige RNA-Polymerase von Bakterien (107,108), weshalb es bei der Behandlung der Tuberkulose eingesetzt wird. (111–113) Die Hidradenitis suppurativa ist aber primär keine Infektionskrankheit, sondern eine von Bakterien getriggerte, entzündliche Erkrankung. (19,52,82) Aus diesem Grund ist der positive Effekt der systemischen Rifampicintherapie vermutlich vielmehr auf eine antiphlogistische Wirkung zurückzuführen. Diese Überlegung wird durch mehrere Artikel gestützt, die zeigten, dass Rifampicin die Ausschüttung von IL-1β und TNF-α in unterschiedlichen in vitro und in vivo Modellen hemmt. (89–91,96,97) Die anschließenden Untersuchungen zur Wirksamkeit einer in vitro Rifampicinbehandlung bestätigten die antientzündliche Wirkung in den Explantatkulturen indem es die Sekretion von IL-1β, IL-6, IL-8, IL-10 und TNF-α verminderte. Ebenso senkte die Rifampicin-Nanoformulierung die Ausschüttung von IL-1β in den ex vivo Explantaten, was somit die in der klinischen Praxis beobachteten antiinflammatorischen Wirkung von Rifampicin belegt. Des Weiteren stellte sich in Untersuchungen heraus, dass Rifampicin zu einer reduzierten Zahl CD4(+)-T-Zellen führte, aber auf die CD3(+)-T-Zellen keine Auswirkungen hatte, was auf eine Veränderung des T-Zell Phänotyps hinweist.
Aufgrund der vorliegenden Ergebnisse zur Validierung der Rifampicin-Nanoformulierung, spricht nichts gegen die Testung der Rifampicin-Nanoformulierung in einem individuellen Heilversuch am Menschen.
Buch des Monats März 2024
(2024)
Kurzvorstellung der folgenden Publikation:
Fischbuechlein oder die Kunst: Forellen, Hechte, Asche, Barben, Barsche, Birstlinge, Alten, Rothaugen, Weisslinge etc. zu fangen : mit 8 Abbildungen / auss practischer Erfahrung zusammengestellt von einem Fisch-Freund. - Zweite verbesserte Auflage. - Augsburg : In George Jaquets Verlagsbuchhandlung, 1852. - 16 Seiten, 1 ungezaehltes gefaltetes Blatt Tafel : Illustration.
Buch des Monats Mai 2024
(2024)
Kurzvorstellung der folgenden Publikation:
Richter, C. F. W.: Beschreibung und illuminirte Abbildungen in- und auslaendischer Schmetterlinge : XL Stuecke / C.F.W. Richter. - Breslau : [Verlag nicht ermittelbar], 1805-1806. - 160 ungezaehlte Seiten, 40 Blaetter Tafeln : Illustrationen. Die Illustrationen sind handkolorierte Kupferstiche.
Buch des Monats April 2024
(2024)
Kurzvorstellung der folgenden Publikation:
Jagd-Album : Seiner Koeniglichen Hoheit dem Prinzen Friedrich Carl in tiefster Ehrfurcht zugeeignet / von G. Reubke nach Aquarellen von A. Rohlfs und W. Riefstahl. - Berlin : Verlag von E. Schotte & Co., [1870?]. - 1 ungezaehltes Blatt, 12 ungezaehlte Blaetter Tafeln.
Buch des Monats Februar 2024
(2024)
Buch des Monats Januar 2024
(2024)
Polygene Risikoscores (PRS) integrieren zahlreiche Einzelnukleotid-Polymorphismen (SNP) von meist geringer Effektstärke, um Auskunft über das Erkrankungsrisiko bestimmter Krankheiten zu geben. In dieser Arbeit wurde der PRS zur genetisch generalisierten Epilepsie (GGE) von Leu et al. aus dem Jahr 2019 untersucht, um festzustellen, ob über das Erkrankungsrisiko hinaus noch Korrelationen mit weiteren phänotypischen Eigenschaften von Patienten bestehen. Der Nachweis solcher Zusammenhänge würde eine Prädiktionsfähigkeit des GGE-PRS demonstrieren, die perspektivisch ein Potential für dessen klinische Anwendbarkeit, beispielsweise im Sinne der personalisierten Medizin, aufzeigen könnte.
Die Identifizierung neuer Korrelationen sollte durch Vergleich der Phänotypen von zwei Gruppen von GGE-Patienten mit extrem hohen, beziehungsweise extrem niedrigen PRS-Werten erfolgen. Hierfür wurden von 2256 Patienten aus der Datenbank von Epi25, einem internationalen Forschungskollaborativ zur Erforschung der Relevanz genetischer Faktoren bei der Entwicklung von Epilepsie, die Patienten mit den höchsten (n=59) und den niedrigsten (n=49) GGE-PRS-Werten ausgewählt. Für diese 108 Patienten wurden retrospektive klinische Daten von den jeweiligen Behandlungszentren akquiriert. Hierzu wurde den Studienleitern der Zentren ein Questionnaire mit Fragen zu zahlreichen phänotypischen Parametern der Patienten übermittelt. Die Rücklaufrate war mit 54% gut.
Die so eingeholten Patientendaten wurden anschließend mittels Exaktem Test nach Fisher und Wilcoxon-Rangsummentest statistisch analysiert, um Unterschiede zwischen den Phänotypen beider Gruppen nachzuweisen. Im Falle der Pharmakoresistenz zeichneten sich hierbei zunächst signifikante Unterschiede ab, die ein selteneres Auftreten dieser Eigenschaft für Patienten mit hohen GGE-PRS-Werten implizierten. Diese Ergebnisse waren jedoch nach einer Bonferroni-Korrektur und bei Validierung in einer größeren Kohorte (n=825) nicht mehr signifikant. Für die anderen untersuchten Parameter waren ebenfalls keine signifikanten Unterschiede nachweisbar.
Das Ergebnis, dass für keinen der untersuchten Parameter signifikante Differenzen bestanden, obwohl zwei Kohorten mit extrem gegensätzlichen PRS-Werten untersucht wurden, spricht gegen eine Verwendung des aktuell verfügbaren GGE-PRS als prädiktiver Biomarker über das Erkrankungsrisiko hinaus und somit gegen dessen klinische Anwendbarkeit. Jedoch können die nicht-signifikanten Korrelationen im Falle der Pharmakoresistenz als Hinweis verstanden werden, dass im Bereich der Pharmakotherapie Zusammenhänge zwischen Score und Phänotyp bestehen könnten, die weiterer Untersuchungen in zukünftigen Studien bedürfen. Bei Verwendung eines verbesserten GGE-PRS mit zusätzlichen risikoassoziierten SNP und verfeinerter Wichtung der Effektstärken sowie größerer Kohorten könnten in diesem Bereich möglicherweise auch signifikante Zusammenhänge nachweisbar werden.
Kinder und Jugendliche beschäftigen sich gerne mit audiovisuellen, auditiven und interaktiven Medien. Das Buch gerät im Mediengeflecht zunehmend in den Hintergrund. Um für die junge Zielgruppe attraktiv zu sein, setzen Verlage auf Bücher, die Themen, Geschichten und Darstellungsweisen aus anderen Medien aufgreifen. Dazu gehören auch die sogenannten Medienbegleitbücher, die in Bezug zu einem Film, einer Serie, einem Hörspiel oder einem digitalen Spiel stehen. Diese Bücher ermöglichen Kindern aufgrund der bereits bekannten Geschichten, Charaktere und Dialoge einen erleichterten Zugang zu Literatur und locken mit besonderen Gratifikationen, die vorlagenfreie Bücher nicht zu bieten haben. Daher sind sie als Lesestoffe auch für die Leseförderung interessant.
Diese Arbeit untersucht daher, welche Stellung Medienbegleitbücher im Kinder- und Jugendbuchmarkt sowie in der Leseförderung haben. Im ersten Teil liegt der Fokus auf der Produktion und Distribution von Begleitbüchern. Mithilfe einer Recherche im Katalog der Deutschen Nationalbibliothek wurden das Marktangebot erarbeitet und Rückschlüsse auf die Entwicklung des Genres gezogen. Jahresbestsellerlisten des Buchreport geben einen Eindruck vom Verkauf der Bücher. Forschungsliteratur zum Thema Lizenzen und Kommunikationspolitik in Verlagen ergänzt den Marktüberblick durch die Perspektive von Handel und Herstellung.
Im folgenden Kapitel werden unter Zuhilfenahme von Forschungsliteratur und Studien die Potenziale der Begleitbücher geschildert. Rezensionen und Bewertungen zu Medienbegleitbüchern auf LovelyBooks und Amazon geben Aufschluss über die Einstellung der Leser*innen und Beiträge in Zeitschriften der Kinder- und Jugendliteratur zeigen die Meinung der Vermittler*innen zu Begleitbüchern.
Der letzte Abschnitt der Arbeit beschäftigt sich mit dem Einsatz der Medienbegleitbücher in der Leseförderung. Stellvertretend für Angebote in der Familie und in Kindertagesstätten wurde die Arbeit der Stiftung Lesen Mainz betrachtet. Eine Analyse der Angebote und ein Experten-Interview geben nähere Einblicke in die Einbindung von Medienbegleitbüchern. Die Didaktik-Forschung gibt Auskunft über die Integration von Medienbegleitbüchern und Medienverbünden in den Unterricht. Im Bereich der außerschulischen Leseförderung wurde der Einsatz von Medienbegleitbüchern in den Lesestunden von Mentor e.V. Mainz mit einer Online-Umfrage unter den Mentor*innen untersucht. Der Katalog der Anna Seghers Bücherei Mainz zeigt das Angebot an Medienbegleitbüchern in Büchereien auf. Der Instagram-Account der Bücherei lässt Rückschlüsse über den Einsatz von Begleitbüchern in Aktionen zu.
Zusammenfassend konnte festgehalten werden, dass Medienbegleitbücher ein wichtiges Segment des Kinder- und Jugendbuchmarktes darstellen, hohe Umsätze generieren können und für den Handel von Bedeutung sind. Aufgrund des vielfältigen Angebots und der verschiedenen Vertriebswege können viele Zielgruppen angesprochen und erreicht sowie Barrieren zum Medium Buch abgebaut werden. Obwohl die Erfahrungen von Familienangehörigen und Mentor*innen belegen, dass sich Begleitbücher positiv auf die Lesemotivation und das Leseverhalten von Kindern und Jugendlichen auswirken können, werden sie in der Leseförderung bislang eher am Rande berücksichtigt. Sie werden zwar empfohlen, aber Konzepte für und Evaluationen von Projekten fehlen. Die Potenziale der Medienbegleitbücher und ihrer Medienverbünde werden daher nicht ausgeschöpft. Medienbegleitbücher sollten zunehmend in den Fokus gerückt und als Chance wahrgenommen werden, Heranwachsende für Bücher zu begeistern und ihre Lesefreude zu wecken.
Arbeit und Spiel fungieren im allgemeinen Sprachgebrauch als Gegensätze. Spielen wird im Kontext dieser Oppositionsbeziehung als autotelische Handlung, also als eine freiwillige Beschäftigung mit unproduktivem Charakter, definiert, die primär der Freude oder Entspannung dient. Arbeiten hingegen wird als zweckorientierte Tätigkeit gefasst, die mit Ernsthaftigkeit und Mühsal assoziiert wird. In einer sich verändernden Arbeitswelt lösen sich diese binären Zuordnungen, sofern sie in dieser Schärfe überhaupt jemals bestanden haben, jedoch zunehmend auf. Arbeit und Spiel verschränken sich, sie bilden Hybridformen aus, bei denen sich Verschiebungen von Spielenden zu Arbeitenden und umgekehrt beobachten lassen. Die Etablierung der Spieleindustrie als Wirtschaftsbranche oder die Professionalisierung des Wettkampfsports bringen beispielsweise Formen des Play-as-Work hervor: "Sämtliche Tätigkeiten mit einer unterstellten Wirkabsicht können demnach als Arbeit begriffen werden. Daher können auch aus traditionellen Gründen oder aus Unterhaltungs- und Zerstreuungsgründen ausgeführte Tätigkeiten nunmehr als Arbeit verstanden werden, wenn ihnen eine Wirkabsicht unterstellt werden kann." Zudem werden in Arbeitsbereichen der postfordistischen Wissensökonomie ludische Elemente wie Kreativität, Improvisation oder Risikobereitschaft in einer Abwendung von der normierten Rationalisierung von Arbeit des Taylorismus aufgewertet und spielhaftes Arbeiten ohne kodifizierte Regeln (wieder) als Mittel wirtschaftlicher Produktivität erkannt. Seit den 1990er Jahren lassen sich ferner Tendenzen einer zunehmenden Entgrenzung und Subjektivierung von Erwerbstätigkeit ausmachen; hierbei wird die mit der Industrialisierung entstandene Trennung von Arbeit und Leben abgeschwächt und das Konzept Arbeit neu definiert, denn diese wird nun nicht mehr vornehmlich negativ als Plage oder göttliche Strafe gerahmt, sondern positiv als Mittel der Selbstverwirklichung konnotiert. Arbeit soll infolgedessen spielend von der Hand gehen und Vergnügen bereiten. Auf diese Weise wird eine work-as-play-Mentalität erzeugt, die die Differenz von Ernst und Spiel in der Betrachtungsweise der Handlung festmacht: Es hängt vom Ausführenden ab, ob eine Tätigkeit als Spiel oder als Arbeit klassifiziert wird. So kann letztlich jede Aktivität einfach zum Spiel erklärt werden. [...] Im Fokus dieses Artikels soll jedoch eine andere Form der Hybridisierung von Arbeit und Spiel stehen: die Repräsentation von Büroarbeit im Computerspiel. [...] Untersucht werden soll im Folgenden, welche Inszenierungsstrategien und Spielmechaniken eingesetzt werden, um das Büro spielbar zu machen. Wie wird das Setting für das Gameplay funktionalisiert und wie werden Arbeitsprozesse ludifiziert? Zu welcher Form des Spiels lädt das Büro ein? Welche Aspekte des Büroalltags werden aufgegriffen und welche Erzählungen sowie Figuren werden mit dem Schauplatz verbunden? Des Weiteren soll analysiert werden, wie über die räumliche Ästhetik inhaltliche Aussagen über die kulturelle Bedeutung und gesellschaftliche Wahrnehmung des Büros transportiert werden.
Der Begriff der Verblendung, ein oft implizit immer wiederkehrendes Thema in der Literatur, Philosophie, und auch in der Religion, hat eine komplexe Bedeutungsebene, die es vielleicht wohl zu bewahren gilt, anstatt sie zu fixieren und damit die Lesemöglichkeiten, die er eröffnen kann, zu reduzieren. Das Wort, das Offenes (etwa eine Hingabe an einen Glauben, die auch eine Selbsttäuschung, ein Fehler sein kann, aber auch Mut bedeuten kann) und Verborgenes (eine mehr oder weniger bewusste Täuschung anderer) zugleich andeutet, entzieht sich durch diese doppelte Struktur von 'Oberfläche' und 'Hintergrund' in gewisser Weise, ohnehin einer festen BeDeutungsgebung. In besonderer Weise bleibt der Begriff mit dem als 'Verliebtheit' umschriebenen Zustand als einer ambivalenten un/wahren, irrational und affektiv besetzten, relationalen, inneren Vorstellung und äußeren Projektion des Selbst und eines Anderen verbunden. Der Begriff kann die Hingabe an eine (trügerische) Romantik oder eine (trügerische) Hingabe an eine Romantik meinen, der ein Selbst und ein Anderes in eine affektive Beziehung zueinander setzt, und so auch die Möglichkeit des Unheimlichen, das Hineinbrechen eines Trug(-Bild)-es kennzeichnen. Dies wiederum ist engstens mit Angst und Wut, den oft als destruktiv dargestellten Affekten und affektiv besetzten Effekten verbunden. Verblendung ist somit auch ein Begriff, der Vorstellungen von 'Rationalität' und (affektiv-besetzter) 'Irrationalität', von 'Richtigkeit' und 'Falschheit' beinhaltet.
E.T.A. Hoffmanns Erzählung "Der Sandmann" ist dank Freuds Interpretation zu einem seiner wichtigsten Werke geworden. Die Novelle, die die Leser mit dem jungen Studenten Nathanael, der mit sich ein Kindheitstrauma trägt, bekannt macht, ist ein komplexes Werk, das auch den weltbekannten Mediziner fasziniert hat. Diese Arbeit befasst sich mit der schon erwähnten Novelle, mit Freuds Artikel "Das Unheimliche" und mit der sehr relevanten Verfilmung aus dem Jahr 2012. Das Motiv des Unheimlichen kommt in dieser Arbeit als eine Kontaktstelle vor, die auf drei verschiedenen Ebenen interpretiert wird: aus der Perspektive des Unheimlichen in der Novelle, aus Sigmund Freuds Perspektive und wie es im Film auftaucht. Ziel dieser Arbeit ist es zu beweisen, dass das Motiv des Unheimlichen in der Verfilmung anders als im Buch begriffen werden kann, d.h. dass Freuds Motiv des Unheimlichen im Text als gruseliger und verwirrender empfunden werden kann.
Der interdisziplinäre Sammelband eröffnet neue Perspektiven auf den Stil als bislang unterkonturierte literaturwissenschaftliche Leitkategorie unter transnationalen, wissens-, gattungs- und sprachgeschichtlichen Gesichtspunkten. Im 18. Jahrhundert zeichnet sich im Nachdenken über Schreibarten eine Neujustierung der Stilkategorie ab, die den Stil zur Reflexionsgröße für ästhetische Diskurse macht. Der Band sondiert die Pluralisierung, Historisierung und Individualisierung der Stilkategorie, die ihr neue literatur- und kulturtheoretische Anwendungsbereiche eröffnet. Die Bewegungen zwischen den Sprachen, Literaturen, Medien und semantischen Feldern erschließt die Publikation, indem sie europäische Vergleichshorizonte eröffnet und literatur- ebenso wie sprachwissenschaftliche Ansätze präsentiert. Damit leistet sie einen Beitrag zum Feld der komparatistisch ausgerichteten Germanistik, insbesondere der Literatur- und Kulturgeschichte des 18. Jahrhunderts und des europäischen Kulturtransfers.
Dass das ZfL ihn seit Kurzem als Senior Fellow führt, passt so gar nicht zu der ungestümen Neugierde und den kreativen Energien, die sich Detlev Schöttker nicht nur bewahrt hat, sondern die jüngst über der Beschäftigung mit einem neuen Gegenstand eine neue Qualität gewonnen haben. Instantan, vehement und bedingungslos hat er sich nach dem Umzug des ZfL nach Wilmersdorf in ein neues Forschungsprojekt weniger vertieft als gestürzt. Doch recht besehen ist es kein neuer Gegenstand, sondern es sind seine alten Bekannten, die ihm rund um den Fasanenplatz wiederbegegnen. Ein größeres Geschenk als diese Nachbarschaft hätte man ihm vielleicht nicht machen können: Die literarische und kulturelle Moderne entstand hier! Der Fasanenplatz ist ein 'Freilichtmuseum' der Moderne mit Hauptmann, Brecht, Benjamin und vielen anderen. Und Detlev Schöttker wäre nicht Detlev Schöttker, wenn er die Öffentlichkeit nicht sogleich über einige seiner Funde und Entdeckungen informiert hätte. In der FAZ sind bereits mehrere Artikel von ihm über die erstaunliche Bedeutung unseres Kiezes für die Moderne erschienen.
Das Fach "Allgemeine und vergleichende Literaturwissenschaft (AVL)" beschäftigt sich mit dem Vergleich von Literatur aus verschiedenen Kulturen, Epochen und Gattungen. Der Begriff "Komparatistik" wird weitgehend synonym verwendet, legt aber einen noch stärkeren Schwerpunkt auf den Vergleich als allgemeine epistemologische Praxis, vor dem der Fokus auf Literatur in den Hintergrund geraten kann. Die Geschichte des Fachs in Deutschland reicht bis in das 19. Jahrhundert zurück, in dem es - in etwa zeitgleich mit den "Nationalphilologien" (hier also Germanistik) - vor allem im Sinne einer vergleichenden Literaturgeschichte entstand. Während in den Anfängen Einflussforschung und Gattungsgeschichte im Vordergrund standen, hat das Fach im 20. Jahrhundert mehrere Ausweitungen erfahren. So zählen beispielsweise auch die allgemeine Literatur- und Kulturtheorie, die Ästhetik und der Vergleich von Literatur mit anderen Medien zu den Forschungsgebieten der AVL. Schon früh wurde der grenzüberschreitende Anspruch der AVL über den von J.W. Goethe lancierten Begriff "Weltliteratur" bestimmt. Entsprechend gehört auch die Frage, wie der Begriff historisch verstanden wurde und wie er im Zeitalter beschleunigter Globalisierung zu denken ist, zu den prominentesten Debatten im Rahmen der AVL. In der ursprünglichen Konzeption von Goethe war "Weltliteratur" als Dialog zwischen den Nationalliteraturen gedacht, wobei sowohl Rezeption (des kulturell Fremden) als auch Widerspiegelung (des Eigenen in der Rezeption durch Andere) im Vordergrund standen. Heute wird die eurozentrische Orientierung des Begriffs problematisiert, aber die Frage bleibt virulent, ob und wie Literatur aus verschiedenen Kulturen und Sprachen auf eine universelle Ebene gehoben werden kann, ohne ihre spezifischen Kontexte zu verlieren.