Refine
Year of publication
Document Type
- Article (13032)
- Part of Periodical (8505)
- Book (5978)
- Doctoral Thesis (3642)
- Part of a Book (2617)
- Review (2516)
- Contribution to a Periodical (2366)
- Working Paper (1015)
- Report (998)
- Conference Proceeding (515)
Language
- German (42629) (remove)
Is part of the Bibliography
- no (42629) (remove)
Keywords
- Deutsch (752)
- Literatur (693)
- Rezension (414)
- Deutschland (382)
- Frankfurt <Main> / Universität (341)
- Rezeption (268)
- Geschichte (251)
- Vorlesungsverzeichnis (224)
- Hofmannsthal, Hugo von (218)
- Film (208)
Institute
- Präsidium (5160)
- Medizin (2389)
- Extern (1695)
- Gesellschaftswissenschaften (1384)
- Rechtswissenschaft (1036)
- Geschichtswissenschaften (916)
- Biochemie und Chemie (888)
- Neuere Philologien (831)
- Wirtschaftswissenschaften (788)
- Physik (696)
Das Hepatoblastom ist ein embryonaler Lebertumor, dessen Zellen unterschiedliche unreife Stadien aufweisen. Aufgrund dieser Unreife ist die Identifizierung von Krebsstammzellen erschwert, die in diesem Tumor vermutet und für Rückfälle verantwortlich gemacht werden. In Vorarbeiten konnte eine Krebsstammzellpopulation mit der Kombination der hämatopoetischen Stammzellmarker CD90 und CD34 sowie dem „oval cell“ OV-6-Antikörper in den etablierten Hepatoblastomzelllinien HuH6 und HepG2 detektiert werden. Diese CD34+OV-6+CD90+ Zellen wiesen eine erhöhte Expression von Pluripotenzfaktoren auf und zeichneten sich durch ein erhöhtes Migrationsverhalten aus.
In der hier vorgelegten Arbeit wurden zunächst Tumor-Sphäroid-Assays durchgeführt um diese Population als Krebsstammzellen zu bestätigen, da nur Krebsstammzellen unter den gegebenen Umständen wachsen können. Diese waren im Anschluss wieder in der Lage, in „normalem Medium“ zu differenzieren. Des Weiteren wurden die Zelllinien mit dem Standardtherapeutikum Cisplatin behandelt. Da Krebsstammzellen als chemoresistent gelten, konnte in der überlebenden Zellpopulation auch eine Anreicherung der CD34+OV-6+CD90+ Zellen beobachtet werden. Zusätzlich ließ sich eine weitere CD34+OV-6+CD90+ Population identifizieren, deren Expression aller drei Marker schwächer war und die bei steigenden Cisplatin-Konzentrationen den Großteil der CD34+OV-6+CD90+ Population ausmachte.
Neben den erhöhten Transkriptmengen der Pluripotenzmarker Oct4 und Nanog zeichneten sich die CD34+OV-6+CD90+ Krebsstammzellen durch eine verstärkte Expression der aktivierungsinduzierten Zytidin-Desaminase AID aus. AID wirkt induzierend auf die Transkription beider Pluripotenzmarker. Daher könnte es auch bei Krebsstammzellen eine Rolle bei der Induktion von Pluripotenz und bei ihrer langfristigen Erhaltung spielen. Dies unterstützend legten die verminderten Transkriptmengen der Pluripotenzgene nach einem AID siRNA Knock-Down eine Abhängigkeit des Stammzellcharakters von diesem Faktor nahe. Um einen Effekt von Therapeutika, die inhibitorisch auf AID wirken, auf Krebsstammzellen zu untersuchen, wurden die Zellen mit den DNMT-Inhibitoren Decitabine und Zebularine sowie dem HSP90-Inhibitor Tanespimycin behandelt. Tatsächlich konnte vor allem in den HuH6-Zellen ein verminderter Anteil der Krebsstammzellpopulation durch die drei Substanzen beobachtet werden. Wurden die Zellen im Anschluss mit dem Standardzytostatikum Cisplatin behandelt, führte allerdings eine Vorbehandlung mit Zebularine oder Decitabine zu einer starken Anreicherung von Krebsstammzellen. Dies war vor allem auf Zellen mit dem schwach positiven CD34+OV-6+CD90+ Expressionsprofil zurückzuführen, die chemo-induziert zu sein scheinen. Zwar erscheint die Mehrheit der Tumorzellen eliminiert zu werden, jedoch lassen diese Ergebnisse die Entstehung von chemo-induzierten Krebsstammzellen vermuten, die langfristig für einen Rückfall verantwortlich sein könnten. Daher ist von einer Ergänzung der Therapie mit diesen Substanzen abzusehen. Eine Vorbehandlung mit Tanespimycin hingegen konnte im Vergleich zur alleinigen Cisplatin-Behandlung wirksam den Anteil der Krebsstammzellen reduzieren. Interessanterweise war dies nicht auf einen verstärkten Zelltod der Krebsstammzellen, sondern vielmehr auf eine durch Tanespimycin bewirkte Differenzierung derselben zurückzuführen. Diese spiegelte sich auch in einer verminderten Expression von Pluripotenzmarkern auf mRNA-Ebene im Vergleich zur alleinigen Cisplatin-Behandlung wider.
Somit präsentierte sich Tanespimycin als potenter Inhibitor von Krebsstammzellen. Auch wenn weitere vorklinische und klinische Tests und Untersuchungen erfolgen müssen, stellt Tanespimycin bzw. die Substanzklasse der HSP90-Inhibitoren einen interessanten und vielversprechenden Kandidaten für eine Ergänzung der Standardtherapie vor allem bei behandlungsresistenten und rekurrenten High-Risk-Hepatoblastomen dar.
Die theoretische Vorstellung von Berührung als einer Verbindung durch Trennung, wird, wie Karin Harrasser herausstellt, im Rahmen der politischen Nähe- und Distanzreglementierung der Corona-Pandemie zu einer alltäglichen Erfahrung, die dazu veranlasse, noch einmal neu über das Verhältnis von Berührung und Grenze nachzudenken. Harrassers Beitrag beschäftigt sich mit einem Denken des Halbdurchlässigen in drei Episoden aus Ovids "Metamorphosen" (Arachne, Marsyas und Niobe). Ihre Analyse, in der auch Diego Velázquez' Gemälde "Die Fabel der Arachne" und Tizians "Die Häutung des Marsyas" eine zentrale Rolle spielen, plädiert für das Denken eines "taktvollen Berührbarmachens" und einer Annäherung jenseits von harten Grenzen.
Test-Retest-Reliabilität der Präpulsinhibition (PPI) und PPI-Korrelation mit dem Arbeitsgedächtnis
(2023)
Sensomotorisches Gating – ein Mechanismus zur Filterung des sensorischen Inputs und zur Regulierung des motorischen Outputs – wird experimentell durch die Präpulsinhibition (PPI) der akustisch ausgelösten Schreckreaktion (ASR) operatio-nalisiert. Frühere Studien deuten auf eine hohe Test-Retest-Reliabilität der PPI und eine mögliche Korrelation mit dem Arbeitsgedächtnis (engl. Working Memory (WM)) hin. Ziel dieser Studie war es, die Test-Retest-Reliabilität der PPI bei ge-sunden Menschen und ihre Korrelation mit der Leistung des WM zu überprüfen. Hier wurde ein akustisches Schreckreiz-PPI-Paradigma mit vier verschiedenen Präpuls-Intensitäten (64, 68, 72 und 76 dB(A)) und zwei verschiedene WM-Aufgaben (n-back, Change-Detection-Task (CDT)) verwendet. Es konnte eine ho-he Retest-Reliabilität der PPI mit einer mittleren Intraklassenkorrelation (engl. In-traclass Correlation (ICC)) von >.80 und eine signifikante positive Korrelation der PPI mit der n-back-, aber nicht mit der CDT-Leistung bestätigt werden. Eine detail-lierte Analyse zeigte, dass die PPI über alle Präpulsintensitäten hinweg sowohl mit den 2-back- als auch mit den 0-back-Bedingungen signifikant korrelierte, was auf eine Regulation durch konditionsübergreifende Prozesse (z. B. Aufmerksamkeit) schließen lässt. Wird jedoch die 0-back-Komponente aus den 2-back-Daten aus-partialisiert, sind spezifische und signifikante Korrelationen mit der Arbeitsgedächt-nisleistung für die 76 dB(A) PPI-Bedingung zu finden. Mit der vorliegenden Studie konnte die hohe Test-Retest-Reliabilität der PPI beim Menschen bestätigt und die Korrelation mit der Arbeitsgedächtnisleistung validiert und erweitert werden.
Dass das ZfL ihn seit Kurzem als Senior Fellow führt, passt so gar nicht zu der ungestümen Neugierde und den kreativen Energien, die sich Detlev Schöttker nicht nur bewahrt hat, sondern die jüngst über der Beschäftigung mit einem neuen Gegenstand eine neue Qualität gewonnen haben. Instantan, vehement und bedingungslos hat er sich nach dem Umzug des ZfL nach Wilmersdorf in ein neues Forschungsprojekt weniger vertieft als gestürzt. Doch recht besehen ist es kein neuer Gegenstand, sondern es sind seine alten Bekannten, die ihm rund um den Fasanenplatz wiederbegegnen. Ein größeres Geschenk als diese Nachbarschaft hätte man ihm vielleicht nicht machen können: Die literarische und kulturelle Moderne entstand hier! Der Fasanenplatz ist ein 'Freilichtmuseum' der Moderne mit Hauptmann, Brecht, Benjamin und vielen anderen. Und Detlev Schöttker wäre nicht Detlev Schöttker, wenn er die Öffentlichkeit nicht sogleich über einige seiner Funde und Entdeckungen informiert hätte. In der FAZ sind bereits mehrere Artikel von ihm über die erstaunliche Bedeutung unseres Kiezes für die Moderne erschienen.
Das radioaktive Edelgas Radon und seine ebenfalls radioaktiven Zerfallsprodukte machen den größten Teil der natürlichen Strahlenbelastung in Deutschland aus. Trotz der Einstufung als krebserregend für Lungenkrebs wird es zur Therapie entzündlicher Krankheiten eingesetzt. Der hauptsächliche Aufnahmemechanismus ist dabei die Inkorporation über die Atmung, wobei Radon auch über die Haut aufgenommen werden kann. Radon wird dabei über das Blut im gesamten Körper verteilt und kann in Gewebe mit hoher Radonlöslichkeit akkumulieren. Die Zerfallsprodukte verbleiben jedoch in der Lunge, zerfallen dort, bevor sie abtransportiert werden können und schädigen das dortige Gewebe.
Die Lungendosis wird laut Simulationen zum größten Teil durch die kleinsten Radon-Zerfallsprodukte (< 10 nm) bestimmt, die besonders effektiv im Respirationstrakt anheften. Die erzeugte Dosis ist dabei aufgrund der inhomogenen Anlagerung der Zerfallsprodukte lokal stark variabel. In Simulationen wurden Bifurkationen als Ort besonders hoher Deposition identifiziert, wobei die experimentelle Datenlage zur Deposition kleinster Radon-Zerfallsprodukte eingeschränkt ist. Aufgrund des Anstiegs der Komplexität von Simulationen oder Experimenten wird in den meisten Betrachtungen nicht der oszillatorische Atemzyklus berücksichtigt, sondern lediglich ein einseitig gerichteter Luftstrom betrachtet. Im Rahmen dieser Arbeit wurde ein experimentelles Modell entwickelt und etabliert, das die Messung der Deposition von Radon-Zerfallsprodukten ermöglicht und zwischen drei Größenfraktionen (Freie Zerfallsprodukte: < 10 nm, Cluster: 20-100 nm, Angelagerte Zerfallsprodukte: > 100 nm) unterscheiden kann. Der Luftfluss durch das Modell bildet sowohl die Inhalation als auch die Exhalation ab. Erste Experimente mit dem neu entwickelten Messaufbau konnten die aus Simulationen bekannte erhöhte Deposition der freien Zerfallsprodukte in einer Bifurkation abbilden. Die Vergrößerung des Bifurkationswinkels von 70° auf 180° zeigte lediglich einen minimalen Anstieg in der Größenordnung des Messfehlers. Der dominierende Prozess der Anlagerung der freien Zerfallsprodukte ist die Brown'sche Molekularbewegung, die unabhängig vom Bifurkationswinkel ist. Dennoch kann ein veränderter Winkel die Luftströmung und entstehende Turbulenzen verändern, wodurch die Deposition beeinflusst werden kann. Dies lässt sich jedoch mit dem hier benutzten Messaufbau nicht auflösen. Entgegen der Beobachtungen in der Literatur führte die Erhöhung der Atemfrequenz von 12 auf 30 Atemzüge pro Minute, in den im Rahmen dieser Arbeit durchgeführten Experimenten, zu keiner messbaren Veränderung der Deposition. Diese Beobachtung ist auf die Entstehung gegensätzlicher Effekte zurückzuführen. Einerseits führt eine schnellere Luftströmung zu kürzeren Aufenthaltszeiten der freien Zerfallsprodukte im Modell, wodurch die Deposition unwahrscheinlicher wird. Andererseits entstehen vermehrt sekundäre Strömungen und absolut betrachtet werden mehr Partikel durch das Modell gepumpt. Es ist davon auszugehen, dass sich diese Effekte im hier getesteten Bereich aufheben.
Als potentielle Schutzmaßnahme zur Reduktion der Lungendosis konnte im Rahmen dieser Arbeit die Filtereffzienz von Gesichtsmasken (OP-Masken, FFP2 Masken) gegenüber Radon und seinen Zerfallsprodukten bestimmt werden. Während Radon nicht gefiltert wird, wurden die freien Zerfallsprodukte fast vollständig (> 98%) und die Cluster zum größten Teil (≈ 80 %) zurückgehalten.
Radon selbst kann im gesamten Organismus verteilt werden und dort in Gewebe akkumulieren. Zur Bestimmung der Dosis wird dabei auf biokinetische Modelle zurückgegriffen. Diese sind von der Qualität ihrer Eingabeparameter abhängig, wobei beispielsweise die Werte zur Verteilung von Radon zwischen Blut und Gewebe auf experimentell gewonnenen Löslichkeitswerten aus Mäusen und Ratten beruhen. Unbekannte Werte werden von der Internationalen Strahlenschutzkommission basierend auf der Gewebezusammensetzung als gewichteter Mittelwert berechnet. In dieser Arbeit wurde die Löslichkeit in humanen Blutproben und wässrigen Lösungen verschiedener Konzentrationen der Blutproteine Hämoglobin und Albumin bestimmt. Es löste sich mehr Radon in Plasma als in Erythrozytenkonzentrat und Vollblut. Die Protein-Lösungen zeigten keine Konzentrationsabhängigkeit der Löslichkeit, sondern lediglich in hitzedenaturiertem Hämoglobin wurde eine niedrigere Löslichkeit gemessen. Basierend auf diesen Beobachtungen, sollte die These überprüft werden, ob sich die Löslichkeit einer Mischung als gewichteter Mittelwert der einzelnen Löslichkeiten berechnen lässt. Daher wurden diese in einer Mischung aus zwei Flüssigkeiten (1-Pentanol, Ölsäure) bestimmt. Die experimentell bestimmte Löslichkeit war dabei fast doppelt so groß wie der berechnete Wert. Dieser Unterschied kann dadurch zustande kommen, dass bei einer Berechnung basierend auf der Zusammensetzung die Wechselwirkungen zwischen den Lösungsmitteln vernachlässigt werden. Dies verdeutlicht die Notwendigkeit experimenteller Daten zur Verteilung und Lösung von Radon in verschiedenem Gewebe.
Mit Berührung als Phänomen der Grenze und Entgrenzung befasst sich Sandra Fluhrer, und zwar in Texten, die Erscheinungen der Pflanzenwelt in Verbindung mit dem taktilen Sinnesvermögen des Menschen bringen. Ihr Beitrag untersucht Berührung als "exzentrische Denkfigur" in Johann Wolfgang von Goethes Morphologie, Emanuele Coccias "Philosophie der Pflanzen" und in der politischen Anthropologie Helmuth Plessners. Der "Metaphysik der Mischung" in Coccias Pflanzenlehre, die Fluhrer als Aktualisierung der Goethe'schen Metamorphosen und als Gegenwehr zu einem aktuellen Identitäts- und Grenzdenken liest, stellt sie Plessners auch gesellschaftliches Interesse an einem "Berühren auf Distanz" und "exzentrischer Positionalität" zur Seite, das ebenso statische Identitätsvorstellung zurückweise.
Vera Kaulbarsch findet in zwei Gedichten Rilkes, in "Die Rosenschale" und "Das Rosen-Innere", Berührung nach Novalis' Vorbild, als eine Bewegung der Annäherung und Zuwendung, der Distanz eingeschrieben bleibt. Rilke nähert sich in Kaulbarschs Lesart der Berührung nicht von außen, etwa mit männlichem Blick; die Berührungen vollziehen sich als Berührungen des Rilke'schen Dings mit sich selbst, nicht nur der Blütenblätter, sondern auch als lautliche Selbstberührungen des Kunstdings Gedicht.
Sula Textor nimmt sich Rilkes Rodin-Buch vor und rekonstruiert darin eine "Sprache der Hände": Diese präge die Studie nicht nur als Charakterisierung der Kunst des von Rilke bewunderten französischen Bildhauers und Zeichners. Textor analysiert den Übergang der "Sprache der Hände" von der Beschreibung des Rodin'schen Werks, also von der Objektebene, auf Rilkes Schreiben selbst, das, präzise modelliert an Rodin, ein "plastisches" wird.
Aus Close Readings von drei Gedichten Rilkes ("Der Ball", "Tanagra" und "Jugend-Bildnis meines Vaters") generiert der Beitrag von Johannes Ungelenk ein Konzept von Figur, dessen 'modus operandi' in mehrfacher Hinsicht das Berühren ist. Begriffliche Resonanzen ergeben sich dabei zum Denken der Figur bei Erich Auerbach, Gilles Deleuze und Walter Benjamin. In metapoetischer Lesart, also übertragen auf das Kunstwerk als 'Figur', wird so auch von den Rezipient*innen eine berührende Näherung eingefordert.
Emmanuel Alloa stellt mit Alois Riegl einen Pionier des kunsthistorischen Umgangs mit materiellen Objekten - Textilien, Schmuck- und Gebrauchsgegenstände aus aller Welt - vor. Diese bedürfen, so die These, eines eigenen, anderen Modus der Rezeption, als ihn die Kunstgeschichte für ihre klassischen Gegenstände, vor allem Gemälde und Skulptur, entwickelt hat: eines haptischen Sehens. Alloa rekonstruiert diese komplexe, weil eben nicht einen Sinn durch einen anderen ersetzende, Näherungsweise und diskutiert sie vor dem Hintergrund der altmeisterlichen niederländischen Malerei.
Anatol Heller vermittelt zwischen den Annäherungen von Phänomenologie und Kunst. Sein Aufsatz untersucht die Funktion der Selbstbetastung bei Hofmannsthal und Palágyi und greift hierbei auf Husserls Berührungsszene der Hände zurück. Heller geht es vor allem um die tastende Realitäts- und Selbstversicherung, etwa an der Grenze von Traum und Wirklichkeit. In seiner Lektüre stabilisiert das Tasten jedoch nicht die Hierarchie von 'echter' Realität und bloßem Traum oder Fiktion, sondern zeigt im Gegenteil, wie auch das 'Handfeste' auf Fiktionalität und Inszenierungsstrategien aufbauen muss.
Alexander Waszynski argumentiert, dass sich im Medium der Sprache höchstens indirekt thematisieren lässt, was unter 'Berühren' zu verstehen ist, nämlich in der Unhaltbarkeit absoluter Distanz, die das Methodenideal objektiver Wissenschaft jedoch voraussetzt. Anhand von Hans Blumenbergs, Siegfried Kracauers und Jacques Derridas Wiederaufnahmen von Edmund Husserls Krisis-Schrift wird rekonstruiert, wie im 20. Jahrhundert methodologische Instabilität, für die schon bei Husserl die Figur des 'Zickzack' einsteht, programmatisch operationalisiert und mit dem Problem des Berührens verbunden wird.
Nicola Zambon beschäftigt sich mit einer Phänomenologie der Berührung. Er verfolgt die Rolle von Taktilität in den Philosophien Edmund Husserls und Maurice Merleau-Pontys und fragt danach, inwieweit insbesondere Husserl einem Okularzentrismus verbunden bleibt. In Auseinandersetzung mit Husserls berühmter Beschreibung einer Selbstberührung der Hände und deren Modifikationen durch Merleau-Ponty macht der Beitrag einen Vorschlag für eine zukünftige Phänomenologie der Taktilität, die insbesondere die Fremdhautwahrnehmung zu berücksichtigen hätte.
Alma Magdalene Knispel nimmt sich eines Klassikers und Wegbereiters des Denkens von und mit dem Berühren an: Jean-Luc Nancy. Sie geht der Rolle der Haut in Nancys "Corpus" nach und begibt sich damit auf die Spur eines Denkens, das sich von traditionellen Vorstellungen etwa des äußeren Begrenzens und Einschreibens lossagt, um den Körper von dessen Kontaktflächen her neu zu konzeptualisieren.
Hanna Sohns' Text befasst sich mit Luce Irigarays Philosophie und der These, dass Theorie von Geschlechtlichkeit nicht zu trennen ist. Sohns rekonstruiert, mit Irigaray, antike wie moderne Theorien des Geschlechts (Soranos, Freud) und deren Verstricktheit in Regime des Visuellen, um daran Irigarays am Paradigma des Berührens orientiertes Denken zu konturieren.
Was heißt Berühren Denken?
(2021)
Johannes Ungelenk reflektiert über den Titel des Bandes "Berühren Denken". Dem tastenden Spiel zwischen Berühren und Denken sind ausgewählte Stationen der philosophischen Beschäftigung mit dem Berühren zur Seite gestellt (Kant, Hegel, Husserl, Merleau-Ponty, Adorno, Irigaray), die dem vorgeschlagenen berührenden Denken eine Richtung weisen sollen.
Berühren Denken : Vorwort
(2021)
'Theorie' geht etymologisch auf 'Anschauen' zurück. Der Theoretiker gilt gemeinhin als distanzierter Zuschauer. Diese distanzierte Position wird hier hinterfragt. Die Beiträge stützen sich dabei auf eine theoretische Tradition, die sich am Tastsinn als Korrektiv des Sehsinns orientiert. Taktilen Erfahrungsdimensionen wie dem Berühren wird schon lange eine idealisierte 'unmittelbare Wahrnehmung' jenseits von begrifflicher Abstraktion zugeschrieben. Die Autorinnen und Autoren beleuchten dagegen die komplizierte Verwandtschaft von Berühren und Denken und die begrifflichen Verwicklungen und Potenziale des Berührens. Es werden nicht nur unterschiedliche Konzepte von Berührung in Philosophie und Kunst betrachtet, sondern auch theoretische Denk- und Schreibformen erkundet, die selbst 'Berührungen' mit sich bringen.
Das Harnblasenkarzinom ist einer der häufigsten Tumoren weltweit. Insbesondere die muskelinvasiven Tumoren haben eine schlechte Prognose und stellen sich morphologisch sehr unterschiedlich dar. Diese Heterogenität wird bislang bei Therapieentscheidungen nicht beachtet. Um Patienten zukünftig individuell auf den vorliegenden Subtyp des muskelinvasiven Harnblasenkarzinoms (MIBC, muscle invasive bladder cancer) behandeln zu können und dadurch unnötige Belastungen durch Chemotherapien vermeiden zu können, ist eine einfache und kostengünstige Diagnostik erforderlich. Das Ziel der vorliegenden Arbeit war es, den Einsatz bestimmter immunhistochemischer Färbungen als ein mögliches diagnostisches Routineverfahren zur Bestimmung der vorliegenden Subtypen auszutesten. Hierzu wurde die Expression von „luminalen“ und „basalen“ Proteinen mit histologischen Subtypen des MIBCs korreliert. In einem zweiten Schritt wurde der Einfluss auf das Überleben mit und ohne adjuvante Chemotherapie untersucht.
Es wurden insgesamt 181 Tissue-Microarray-Spots analysiert. Alle histologischen Patientenproben sowie klinischen Daten stammten aus dem Universitätsklinikum Frankfurt am Main. Aus den entsprechenden Gewebeblöcken wurden Stanzen zur Erstellung eines Tissue-Microarrays (TMAs) entnommen. Diese wurden konventionell angeschnitten und histologisch mit Hämatoxylin-Eosin (H/E) sowie immunhistochemisch mit Cytokeratin 5/6 (CK5/6), Cytokeratin 20 (CK20), Glutamyl Aminotransferase-Untereinheit A bindendem Protein 3 (GATA3), Tumorsuppressor- protein p53 und Synaptophysin (SYNAPT) gefärbt.
Anhand der H/E-Schnitte wurden die vorliegenden histologischen Subtypen lichtmikroskopisch bestimmt und es folgte eine statistische Auswertung der Färbeergebnisse. Die deskriptive statistische Analyse zeigte insbesondere für die beiden Färbungen CK5/6 und GATA3 signifikante Ergebnisse. Deshalb wurden in einem zweiten Schritt alle Fälle der Studienkohorte den bekannten vier Gruppen: CK5/6 positiv, GATA3 positiv, doppelt positiv und doppelt negativ zugeordnet und näher untersucht. Es folgte eine Überlebensanalyse nach Kaplan Meier Schätzer sowie uni- und multivariate Analysen.
Die Ergebnisse zeigten eine Assoziation der Expression von CK5/6 mit einer squamösen Differenzierung (96%) und eine Assoziation der Expression von GATA3 mit einer mikropapillären Differenzierung (100%). Die adjuvante Chemotherapie ging mit einem Überlebensvorteil (HR 0,15 95%KI 0,1-0,3; p<0,001) der Patienten mit MIBC einher. Immunhistochemisch doppelt negative Patienten mit MIBC wiesen ein verringertes Gesamtüberleben auf (HR 4,96; 95%KI 1,6-15,6; p=0,006); in der Gruppe der doppelt negativen MIBCs fanden sich fünf verschiedene histologische Subtypen. Zusammenfassend lässt sich sagen, dass die immunhistochemische Klassifizierung des MIBCs mit histologischen Subtypen assoziiert ist und dabei helfen kann, Fälle in der pathologischen Routine in „luminal“ und „basal“ zu unterteilen. Jedoch ist ein auf zwei Markern basierendes Klassifizierungssystem nicht ausreichend, um die Heterogenität des MIBCs abzubilden und die Basis für Therapieentscheidungen zu bilden.
Anhand des wissenschaftsphilosophischen Sachbuches "Der Baum der Erkenntnis" ("El árbol del conocimiento"), das in den 1980er Jahren von den chilenischen Biologen und Neurowissenschaftlern Humberto Maturana und Francisco Varela in spanischer Sprache veröffentlich wurde und für den Soziologen Niklas Luhmann zu einem wichtigen Standbein seiner Theorie der Gesellschaft und der sozialen Systeme wurde, soll gezeigt werden, wie einerseits Selbstübersetzung von der Wissenschaft in die Öffentlichkeit und andererseits Fremdübersetzung von der einen Sprache in die andere - in diesem Fall aus dem Spanischen ins Deutsche und Englische - Interferenzen und Reibungen innerhalb des Wissenstransfers produzieren. Zunächst soll ein Überblick über die unterschiedlichen Formen des Popularisierens als interdiskursive Selbstübersetzung gegeben werden. Im zweiten Teil wird dann die interlinguale Übersetzungsleistung diskutiert, die das spanische Original durch jeweils andere Sprach- und Forschungskontexte leicht verändert und dem fremdsprachigen Begriffsrepertoire einverleibt. Zuletzt soll in einem dritten Teil mit Rückgriff auf Luhmann das Prinzip der Autopoiesis als ein Prozess ausgewiesen werden, der bereits in "El árbol del conocimiento" nicht einfach als ein Wissenstransfer zu verstehen ist, sondern als ein Transfer der Bedingungen, wie Wissen im Übersetzen vom Übersetzen entsteht.
Die maßgebliche Position des Übersetzungskonzepts ergibt nicht nur aus dem unweigerlich vielsprachigen, migrierenden und interdisziplinären Denken des Philosophen, Psychoanalytikers, Ökonomen und Aktivisten Cornelius Castoriadis. Vielmehr existiert ein konkreter Kern des Translatorischen in den zwei konstitutiven Gegenständen seiner Philosophie, im Imaginären einerseits und anderseits in der Politik, die auf die imaginäre Verfasstheit der Gesellschaft zurückgeht. Ob also Castoriadis seinen eigenen Text vom Französischen in die griechische Sprache überträgt oder ob er die Vorstellungswelt der kapitalistischen Gegenwart beschreibt - in beiden Fällen geht es um die Übersetzung als einen kreativen Prozess innerhalb der Sprache, des Denkens oder der Politik.
Im Werk des multiformen Wissenschaftlers Eugen Rosenstock-Huessy (1888−1973) liegt ein interessanter Fall einer Selbstübersetzung vor, die sich nicht nur auf die sprachliche Übersetzung, sondern auch auf die Transformation der Struktur des eigenen Werkes bezieht. Und selbst hier bleibt der Übersetzungsprozess nicht stehen. Rosenstocks Theorie und Praxis der Übersetzung ist geleitet von der Überzeugung des Primats der Sprache respektive des Sprechens für die menschliche Existenz. Übersetzen wird ihm so zu einem Existenzial, in dem der Mensch sein Menschsein bewährt: Selbstübersetzung ist immer und gerade eine Übersetzung des Selbst. Menschliches Dasein ist ein grundsätzlich sprachgebundener Prozess und an diesem Dasein beweist sich zuallererst das dem Einzelnen verfügbare und anderen lehrbare Wissen.
Goldsteins Karriere in den USA startete mit wichtigen Publikationen in der neuen Sprache und vollzog sich nahezu vollständig in der Fremdsprache, deutsche Aufsätze verzeichnet seine Bibliographie nach seiner Emigration nur ganz vereinzelt. [...] Auf der Ebene des bibliographischen Befundes handelte es sich also um einen nahezu vollständigen Übergang in die fremde Sprache unter bruchlos fortlaufender Publikationstätigkeit, an dessen Nahtstelle die Übersetzung seines wichtigsten Buches stand. [...] Aus der "Einführung in die Biologie unter besonderer Berücksichtigung der Erfahrungen am kranken Menschen" war "A Holistic Approach to Biology Derived from Pathological Data in Man" geworden. Das amerikanische Buch war keine 'Einführung' mehr, keine 'Introduction', sondern bereits der Untertitel signalisierte eine besondere Perspektive auf die Biologie. [...] Dabei liegt Goldsteins Originalität darin - so der erste Teil der These, die in diesem Aufsatz aus dem Vergleich des deutschen Originals mit der englischen Übersetzung entwickelt werden soll -, dass er aus seinen akribischen empirischen Beobachtungen eine neue epistemologische Perspektive auf organismische Prozesse entwickelt hat, mit der er zugleich die alten ontologischen Diskussionen um eine den Lebensphänomenen und den lebenden Systemen eigene Wesenheit überwunden zu haben hoffte. Genau diese Stoßrichtung verschleiert aber der entscheidende Zusatz zur englischen Übersetzung, wenn sie diesen 'approach' als 'holistisch' charakterisiert. Denn Holismus und Ganzheitlichkeit stehen typischerweise für jene ontologische Richtung des Vitalismus, gegen die sich Goldstein wiederholt explizit gewandt und die im Buch vor allem als Kritik an Hans Drieschs Entelechie-Lehre ihre Spuren hinterlassen hatte. Goldsteins epistemologische Neuausrichtung der Biologie hatte auch hinter seiner Distanz zur Psychoanalyse gestanden - bzw. sie theoretisch legitimiert, weil er wie viele seiner neuropsychiatrischen Kollegen die Verabsolutierung sexueller Motive seitens der Psychoanalyse nicht mitvollziehen wollte. 'Triebe' oder 'Instinkte' konnten als empirische Beschreibungen biologischer Verhaltensweisen durchaus ihre Zwecke erfüllen, aber wenn daraus eigene Entitäten wurden, war damit der Schritt von der Epistemologie zur Ontologie vollzogen, den Goldstein zu vermeiden suchte, weil seine Theorie des Organismus gerade auf die Differenz zwischen beiden wissenschaftlichen Perspektiven abhob. Der zweite Teil der These lautet deshalb, dass die englische Übersetzung von Goldsteins Buch maßgeblich seine Rezeption als holistischer Biophilosoph und damit als ontologischer Vitalist gebahnt hat. Diese entscheidende Verschiebung, die eigentlich im Widerspruch zur Präzisierung von 'Einführung' durch 'approach' steht, wurde vom Haupttitel noch verstärkt, weil hier gerade umgekehrt die epistemologische Perspektive fallengelassen wurde, die dem - zugegebenermaßen unübersetzbaren - Wort 'Aufbau' eingeschrieben war, während das selbstständig gewordene Wort 'Organismus' nun in der Tat eine Erörterung seines Wesens anzukündigen schien. [...] Vor dem Hintergrund der Entwicklung von Goldsteins Anschauungen erscheint die englische Übersetzung des Organismus-Buchs als Wendepunkt von einer Vitalismus-skeptischen und epistemologischen Form der Biophilosophie zu einer affirmativ-vitalistischen, ontologischen Position.
Für Walter Benjamin war das Übersetzen nicht zuletzt eine Lebenserfahrung. Spätestens seit 1933, also seitdem er als Exilant in Paris lebte, war das Oszillieren zwischen dem Deutschen und dem Französischen sein täglich Brot. Von den Herausforderungen, Spannungen und Aporien dieses permanenten Changierens zeugen in seinem Werk vor allem die Selbstübersetzungen. Denn Benjamin hat - was in der Forschung erstaunlich selten beachtet wird - zahlreiche Selbstübersetzungen aus dem Deutschen ins Französische angefertigt. [...] Das Exposé zum "Passagenwerk" hat Benjamin 1935 auf Deutsch unter dem Titel "Paris, die Hauptstadt des XIX. Jahrhunderts" verfasst und 1939 unter dem Titel "Paris, Capitale du XIXème siècle: Exposé" selbst ins Französische übersetzt. Um diese Schrift in ihrer deutschen und ihrer französischen Fassung geht es in meinem folgenden Beitrag. Ich möchte eine vergleichende Lektüre der beiden Exposés vorschlagen. In der Passage vom deutschen Ausgangstext zum französischen Text der Selbstübersetzung verändert sich, wie sich zeigen wird, die Form der Darstellung wie auch die Art der Argumentation auf signifikante Weise: Wir können in Benjamins Selbstübersetzung des Passagenexposés nachvollziehen, wie das Deutsche und das Französische in eine Konstellation treten und dennoch in keiner Weise ineinander aufgehen, da Fremdheit und Differenz das Paradigma der Übersetzung darstellen, wie übrigens auch im Zusammenhang mit Benjamins früher Übersetzungstheorie deutlich werden wird. Dies ist im Fall der Selbstübersetzung umso erstaunlicher, da es sich hier um ein vermeintlich identisches Autorsubjekt handelt. Die Selbstübersetzung stellt somit einen Fall der Übersetzung dar, in dem sich die Voraussetzungen der Benjamin'schen Übersetzungstheorie auf exemplarische Weise kristallisieren. Bevor ich eingehender auf die beiden Exposés und auf die Form der Selbstübersetzung zu sprechen komme, möchte ich deshalb einige sehr kurze allgemeine Überlegungen zum Verhältnis von Übersetzungstheorie und ‑praxis bei Walter Benjamin vorausschicken und sodann die beiden Exposés - das deutsche Original von 1935 und die Selbstübersetzung ins Französische von 1939 - kurz vorstellen und (werk‑)historisch einordnen. Vor diesem Hintergrund können und sollen dann einige Beobachtungen zu den beiden Exposés en détail diskutiert werden.
Auf der harten Schulbank der Sprache : Leo Spitzers Bemerkungen über das Erlernen des Türkischen
(2020)
Im Folgenden werde ich mich mit einem Aufsatz von Leo Spitzer befassen, der als sonderbarer Fall von Selbstübersetzung rezipiert wurde. Dieser Text, in dem er seine persönlichen Erfahrungen mit dem Erwerb des Türkischen reflektiert und anschließend aus semantisch vergleichender Perspektive die türkische Syntax untersucht, wurde beinahe zeitgleich in einer französischen und einer türkischen Fassung veröffentlicht. Im Jahre 1935 erschien die französische Fassung des Aufsatzes über das Türkischlernen im Bulletin de la Société de linguistique de Paris: "En apprenant le turc. (Considérations psychologiques sur cette langue)" (wörtlich: "Türkisch lernend. Psychologische Betrachtungen über diese Sprache"). Im gleichen Zeitraum, sogar etwas früher, erschien auch eine türkische Fassung des Beitrags unter dem Titel "Türkçeyi Öğrenirken" ("Türkisch lernend") - ohne Untertitel -, die in drei Teilen in der literarischen Zeitschrift Varlık (Das Sein) zwischen April 1934 und Januar 1935 veröffentlicht wurde. Interessanterweise scheint Spitzer den ersten Teil der türkischen Version selbst übersetzt oder direkt auf Türkisch verfasst zu haben. Die Übersetzung der beiden weiteren Teile wurde hingegen von seinem damaligen Assistenten Sabahattin Eyüboğlu (1908−1973) vorgenommen, der an der Übersetzungspolitik der Türkei in den dreißiger Jahren aktiv mitwirkte. Mit diesem Aufsatz bekommt die Frage nach sprach- bzw. wissenschaftspolitischem Wissenstransfer in Istanbul einen sonderbaren, ja karnevalistischen Gehalt: Ein Professor, der beauftragt wurde, die abendländische Philologie und Wissenskultur in die moderne Türkei einzuführen, zeigt sich selbst in der Haltung des Lernenden, der ein sprachwissenschaftliches Selbstexperiment wagt. Dadurch wird die Wahl der Sprache als Werkzeug der Wissensvermittlung infrage gestellt: Französisch und Türkisch, beides erlernte und dadurch vergleichbare Sprachen, die in diesem Aufsatz zugleich Gegenstand und Mittel der Stilforschung sind. Meine Überlegungen zu diesem Thema gliedern sich in drei aufeinander aufbauende Teile. Nach einer knappen Hinführung zu Leo Spitzers Sprachauffassung und seinem Verständnis von Sprachwissenschaft als Stilforschung werde ich die historische Situation seines Aufenthalts in Istanbul in den Jahren von 1933 bis 1936 umreißen. In einem zweiten Schritt werde ich den besagten Aufsatz genauer in Hinblick auf Fragen der Selbstübersetzung untersuchen und fragen, was Leo Spitzer motiviert hat, diese angebliche Selbstübersetzung vorzunehmen. Weder war er Turkologe noch hat er seine romanistischen Arbeiten selbst ins Türkische übersetzt: Die philologischen Forschungen, die er während des Exils in Istanbul unternommen hat, sind entweder auf Französisch oder auf Deutsch erschienen. Die Bedeutung der Entscheidung, speziell diesen Aufsatz über die türkische Sprache selbst zu 'übersetzen', möchte ich zuletzt angesichts der wissenschaftspolitischen Rivalität von Sprachen - in diesem Fall zwischen dem Französischen und dem Türkischen - beleuchten.
Die komplexe und diffizile Frage, der im vorliegenden Beitrag nachgegangen werden soll, ist die nach Heines Eigenschaft als Selbstübersetzer, womit das Hauptaugenmerk auf die sprachlichen d. h. mehrsprachigen Grundlagen seiner Vermittlungstätigkeit gerichtet wird. Denn die Bezeichnung Heines als Selbstübersetzer kann im Gegensatz zur Assoziierung mit dem Begriff des Kulturtransfers durchaus überraschen. Mit Heines Sprachkompetenz im Französischen und dem auktorialen Status seiner französischen Schriften werden Forschungsfragen berührt, die in der Heine-Kritik von ihren Anfängen bis heute durchaus kontrovers diskutiert werden. In diesem Zusammenhang wäre auch nachzudenken über den für die Analyse von Heines Schreib- und Veröffentlichungspraxis relevanten Begriff von Übersetzung bzw. Selbstübersetzung. Kann man im Falle Heines wirklich von einem alleinigen deutschen Original sprechen und den französischen Fassungen seiner Schriften - wie oft geschehen - einen bloß sekundären Status zuweisen? In diesem Problemzusammenhang spielt neben den textgenetischen und sprachlich-translatorischen Aspekten auch die Perspektive der Selbstdarstellung bzw. Selbstvermarktung des Dichters eine bedeutende Rolle, insofern man bei Heine von einer regelrechten Inszenierung als zweisprachigem Autor reden kann. Die von mir im Folgenden vertretene These wird hierbei lauten, dass Heinrich Heines durchaus fragwürdiger Status als Selbstübersetzer über normative Übersetzungs- und Sprachkompetenzkriterien hinaus vor allem als doppelte - d. h. binationale und zweisprachige - 'auctoritas' aufzufassen ist. Anders gesagt: Über die komplexe Frage der Textgenese hinaus soll die von Heine bewusst eingenommene Rolle als direkter Akteur zweier nationaler Wissenssysteme betont werden. Unter diesem Blickwinkel wird nicht zuletzt ein bemerkenswerter Nexus zwischen den vermittelten Wissensinhalten und deren sprachlichem Transfer sichtbar. So soll gezeigt werden, dass Heines dezidiert antinationalistisches, kosmopolitisches und universalistisches Denken zwischen Deutschland und Frankreich seine formale Entsprechung in einer interlingualen Wissenszirkulation zwischen der deutschen und der französischen Sprache findet, in deren Medium die von ihm entwickelten und vermittelten Theorien und Thesen prozessual entwickelt und weitergeschrieben werden. Eine solche Sichtweise auf Heine als translingualen Schriftsteller wurde bisher nicht immer ausreichend von der Forschung berücksichtigt und gewürdigt. Wie allgemein im Zusammenhang mit bikulturellen und bilingualen Autoren sowie sprachlich hybriden Schreibverfahren wird man mit blinden Flecken der Forschung und nationalphilologischen Widerständen konfrontiert, die eine mehr oder weniger symbolische 'Vereinsprachigung' von Heines Werken befördern oder implizieren. Dieser Umstand betrifft nicht nur die deutsche Heine-Rezeption, sondern ist bedauerlicherweise auch in der interkulturell aufgestellten französischen Germanistik der jüngeren Zeit zu beobachten, wie ich in einem abschließenden Exkurs zeigen möchte.
Von Alessandro Manzonis 'italienischem' Beitrag zur europäischen Romantik-Debatte, der "Lettre à M.r C*** sur l'unité de temps et de lieu dans la tragédie", gibt es keine italienische Ausgangsversion. Im strengen Sinn handelt es sich bei dem hier infrage stehenden Text also nicht um eine Selbstübersetzung, sondern um ein Schreiben in der Fremdsprache Französisch, für das sich sein Autor gegenstands- und situationsbezogen entscheidet. Gleichzeitig ist bekannt, dass Manzonis Schreiben von französischer Politik, französischer Wissenschaft und Kultur gar nicht zu trennen ist. [...] Manzoni erfindet mit den "Promessi Sposi" Sprache als Dichtung und Dichtung als Sprache, als sogenannte National- und Weltliteratur. Die "Lettre à M. Chauvet" markiert dabei, so möchte ich im Folgenden zeigen, eine Art sprachlichen Wendepunkt, an dem die Sprache zu einem metaphorischen Exil wird und als ebenso kontingent wie notwendig erscheint. Der durch die "Lettre à M. Chauvet" initiierte Wissenstransfer wird bedingt durch die spezifische sprachliche und politische Situation Italiens in der ersten Hälfte des 19. Jahrhunderts. Nur vor diesem Hintergrund wird Manzonis biographische, kulturelle und sprachliche Zwischenposition verständlich. Denn erst im Abgleich der mehrsprachigen Situation (Dialekt, Französisch, hochitalienische Schriftsprache) mit dem Medium einer kodifizierten Schriftsprache (dem Französischen) wird jene Mehrsprachigkeit zu einem Mangel (I.). Die Kluft zwischen geschriebener und gesprochener Sprache wird in der französischen Fremdsprache zu einem epistemischen Zwischenraum, der - je nach Sprecher- und Adressatenperspektive - verschiedene Wissensbereiche betrifft. Editionsphilologisch wird der einzige von Manzoni auf Französisch publizierte Text zu einem Problem von Autorschaft: Co-Autorschaft scheint noch heute (oder gerade heute) philologisch einen Stein des Anstoßes darzustellen (II.). Auf der Ebene des poetologischen Gegenstands zeigt ein Vergleich der frühen Textfassung ('Primo Sbozzo') mit der Druckfassung, dass dieser Text sich im Verlauf der Abfassung mehr und mehr von seinem Ausgangstext (Manzonis Tragödie "Il Conte di Carmagnola" und deren Rezension durch Victor Chauvet) löst und zu einer zukünftigen Poetik der "Promessi Sposi" tendiert (III.). Die kulturelle Zwischenposition des Textes führt dazu, dass der Herausgeber Fauriel auf französischer Seite Manzonis Position als Kritik eines 'Outsiders' gezielt nutzen kann - davon zeugen die textuelle Rahmung wie auch die Missverständnisse, die im Briefwechsel geklärt werden; der Dichter Manzoni wiederum wird in der Perfektionierung des Französischen immer mehr auf das Problem einer sprachlichen Unverständlichkeit des Schriftitalienischen gestoßen (IV.). In der Zusammenfassung lässt sich die "Lettre à M. Chauvet" als offener Text beschreiben, an dem sich, je nach Produktions- und Rezeptionsperspektive, poetologische, subjekttheoretische, kultur- und sprachkritische Fragestellungen kreuzen (V.).
Leben und Werke der Brüder Wilhelm (1767−1835) und Alexander (1769−1859) von Humboldt vollzogen sich in vielfältigen Kultur- und Wissenstransfers. Beide waren, in jeweils unterschiedlichem Ausmaß, Forschungsreisende, wissenschaftliche Publizisten, Wissenschaftspolitiker, Staats- und Hofbedienstete. In der Vielfalt dieser Funktionen waren sie darauf angewiesen, zwischen fachlicher, politischer und öffentlicher Kommunkation vermitteln zu können, sich also selbst zu übersetzen - in einem zunächst einmal weiten Verständnis von Übersetzung, das neben sprachlichen Übertragungen auch die "Notwendigkeit kultureller Übersetzungsprozesse" meint und auf ein "Immer-schon-Übersetztsein" von Kulturen in ihrer Vielheit und Mannigfaltigkeit verweist. Solche kulturellen Transfers erweisen sich aber bei den Humboldts auf spezifische Weise als sprachgebunden. Daher lässt sich der im weiteren Sinne übersetzende Charakter ihres wissenschaftlichen und politischen Wirkens auf die interlingualen Selbstübersetzungen hin engführen, die untrennbar mit der mehrsprachigen Genese ihres jeweiligen Gesamtwerks verbunden sind. [...] Als besonderer Fall von kosmopolitischer Mehrsprachigkeit ist für beide Humboldts die deutsch-französische Beziehungs- und Verflechtungsgeschichte betont worden. Für beide besaß die französische Sprache einen zentralen Stellenwert: als von klein auf gesprochene Zweitsprache und als wissenschaftliche lingua franca der Zeit um 1800. Sie war immer dort mit im Spiel, wo sich Wilhelm und Alexander von Humboldt als Selbstübersetzer betätigten. Dabei ging die Übersetzungsrichtung sowohl aus dem Deutschen ins Französische als auch umgekehrt; übersetzt wurden sowohl komplette eigene Texte als auch Abschnitte aus teils publizierten, teils unpublizierten Arbeiten, die in der jeweils anderen Sprache zum Ausgangsmaterial für neue Schriften werden konnten. Auf diese Weise entstanden zweisprachige Textkorpora verschiedenen Zuschnitts, wie im Folgenden an chronologisch angeordneten Beispielen dargelegt werden soll, und zwar sowohl hinsichtlich der jeweiligen wissenschaftlichen Kontexte als auch im mikrologischen Blick auf die Texte selbst. Zwei der Beispiele stammen von Wilhelm von Humboldt: ein deutsch-französisches Konglomerat zur Ästhetik (II.) und ein französisch-deutsches über altamerikanische Sprachen (IV.); die beiden anderen von Alexander von Humboldt: die parallel auf Französisch und Deutsch veröffentlichte Abhandlung zur Geographie der Pflanzen (III.) und die französische Übersetzung der zuerst auf Deutsch publizierten Einleitung zum mehrbändigen Spätwerk, dem Kosmos (V.). Abschließend soll nochmals die pragmatische und theoretische Reichweite der Humboldt'schen Selbstübersetzungen benannt werden (VI.).
Zwar verfasste und veröffentlichte Schlegel das Gros seiner Schriften auf Deutsch, mehrere wichtige Publikationen erschienen aber auf Französisch und Latein. Schlegels berühmte Übersetzungsleistungen und seine mehrsprachige Publikationspraxis legen die Vermutung nahe, er habe sich als Selbstübersetzer betätigt, um etwa seine deutschsprachigen Schriften für ein internationales Publikum zugänglich zu machen. Dies ist jedoch nicht der Fall: Entweder wurden seine Schriften von Dritten übersetzt, mit oder ohne Mitwirkung des Autors, oder er selbst hat die jeweilige Schrift direkt in der Fremdsprache verfasst. Diese Sprachwahl ist meines Erachtens ein wesentlicher Grundzug von Schlegels Publikationsstrategie. Schlegel übersetzte seine Schriften weder selbst noch gab er sie als Selbstübersetzungen an. Und trotzdem lässt sich bei Schlegel das Phänomen der Selbstübersetzung feststellen. Denn er übernahm frühere Gedanken, Ausdrücke und Botschaften in neue, in einer anderen Sprache verfasste Schriften und passte sie dem Zielpublikum an. So tauchen äquivalente Textpassagen, seien es einzelne Sätze, seien es ganze Absätze, in Texten auf, die in unterschiedlichen Sprachen verfasst wurden. Diese Selbstübersetzungen spiegeln auf einer interlingualen Ebene die enge intertextuelle Vernetzung seines scheinbar disparaten Werks wider und sind eng mit analogen intralingualen Verfahren wie Kommentieren, Paraphrasieren, Zusammenfassen oder Zitieren verbunden, die Schlegels Schreib- und Arbeitsweise prägen. Seine Texte zeichnen sich durch eine starke Selbstreferenz aus, die über die häufig vorkommenden und selten ausgewiesenen Selbstzitate sowie die Übernahme und Weiterentwicklung bereits an anderer Stelle ausformulierter Gedanken hinausgeht. Zunächst soll Schlegels selbstreferentielle Schreibweise anhand eines kurzen zweisprachigen Textvergleichs veranschaulicht werden (I.). Anschließend wird im Hauptteil dieses Beitrags (II.) Schlegels Selbstübersetzung anhand der "Comparaison entre la Phèdre de Racine et celle d'Euripide" und der Wiener Vorlesungen "Über dramatische Kunst und Literatur" beleuchtet. In einem abschließenden Abschnitt (III.) soll die mehrsprachige Publikationspraxis hinterfragt und die Bedeutung der Sprachwahl für Schlegels Denken erläutert werden.
Seit Jacob Burckhardts Thesen zum Individualismus in der Renaissance gilt das 'Selbst' als eine eingehend diskutierte Größe, die ungeachtet ihrer diversen Erscheinungsformen nicht nur als das bündige Kennzeichen einer Schwellenzeit, sondern geradezu als ihr alleiniges Produkt angesehen wurde: die Epoche zwischen Spätmittelalter und Aufklärung steht schlichtweg für den 'Ursprung' der modernen Individualität. [...] Dem wohl prominentesten oratorischen Initiator, der explizit für eine 'reformatio mundi' steht, widerfuhr seitens der historiographischen Nachwelt bezeichnenderweise beides, eine ergebene Verklärung als Führergestalt sowie die Apotheose im prometheischen Schema: Martin Luther gilt bis heute nicht nur als 'Rebell' oder 'Revolutionär', sondern vor allem auch als 'Schöpfer der deutschen Schriftsprache'. Spätestens hier gilt es zu differenzieren. Gerade die Person des Wittenberger Gelehrten, Predigers und Seelsorgers gibt Anlass zur sorgsamen Klärung eines frühneuzeitlichen Selbst-Bewusstseins. Das Selbst-Verständnis des Augustinermönchs gründet zunächst ausschließlich in theologischen Traditionen und ist daher vor allem mit Komposita wie 'Selbsterforschung', 'Selbstgespräch' ('soliloquium') und 'Selbsterkenntnis' ('cognitio sui') in Verbindung zu bringen. Diese Kategorien aber sind primär und unlösbar an die Sündhaftigkeit jedes einzelnen Menschen gekoppelt [...] Und dennoch - in diesem der Moderne eher fremd anmutenden Katalog der genannten Komposita begegnet tatsächlich auch die 'SelbstÜbersetzung': als Praxis und Phänomen wie in Form erhellender Paraphrasierungen. Voraussetzung für die Praxis scheint zunächst ein Geschehen auf der machtpolitischen Ebene zu sein. Mit dem Rückgang der von Papst und Kaiser getragenen Universalherrschaft im westlichen Europa, mit dem Schwinden eines nachantiken Herrschaftsanspruchs ('translatio imperii') im Sinne des mittelalterlichen römischen Reichsgedankens ist gleichermaßen auch der rasch fortschreitende Rückgang des Lateinischen als flächendeckende Gelehrten- und Verwaltungssprache eingeleitet. Indem nun die einzelnen regionalen Teilherrschaften nach politischer Autonomie streben, erhält auch die polyphone Sprachkultur Europas einen neuen Stellenwert: weitgehend noch pränationale, also eher territoriale Interessenkollektive verlegen sich auf die Regelung ihrer Angelegenheiten im eigenen Idiom. Dieses kann damit aus dem Schattendasein eines als 'laienhaft' und 'illiterat' verachteten Ungenügens heraustreten und sich als vollgültiges Pendant der antiken Vorgaben erweisen. [...] Ein zweites Novum tritt zeitgleich hinzu. Zwecks parteigebundener Regelung der lokalen und bald auch der bi- oder multilateralen Angelegenheiten erhalten die antiken Vorgaben der Redekunst eine neue und sehr zentrale Funktion: das vor Ort im Sinne bestimmter Interessen auftretende Einzel- oder Kollektivsubjekt (Territorialgewalt) artikuliert sich sprachlich-persuasiv, vertritt einen lokalen Standpunkt ('opinio' / 'point de vue') und versucht seine Zuhörer durch Überzeugung zu einem politisch wirksamen Handeln zu bewegen. Hierfür dient der Autortext, ebenso aber auch seine zweckgerichtete Übersetzung. In dieser konkretisiert sich ein Subjekt nicht nur als Mittler zwischen Parteien, Ständen und Interessen, sondern auch zwischen Sprachen und Kulturen.
Selbstübersetzung - das heißt: Autorinnen und Autoren übertragen ihre eigenen Texte aus einer Sprache in eine andere Sprache, fungieren also als ihre eigenen Übersetzerinnen und Übersetzer. In einer Selbstübersetzung sind demnach Autor und Übersetzer identisch. Aus dieser vermeintlich einfachen Definition ergibt sich eine Reihe von komplexen Forschungsfragen. Sie lassen sich anhand einiger Leitbegriffe formulieren, um das im vorliegenden Band unternommene Gespräch über die Grenzen von Philologien und Disziplinen hinweg ansatzweise zu systematisieren.
Der Dialog ist für die einen das Versprechen gelingender Kommunikation, für die anderen ein überholtes Ideal. Marten Weise zeigt in einer interdisziplinär angelegten Studie, dass sich die Lücke zwischen Lobpreisungen und Abgesängen schließen lässt. Er setzt bei der Unmöglichkeit des Denkens "nach der Shoah" an und erkundet in exemplarischen Untersuchungen der europäischen Literatur-, Theater- und Theoriegeschichte die Spannungen und Widersprüche im Verhältnis zum "Anderen", ohne die der Dialog nicht zu greifen ist. So macht er zwischenmenschliche, soziale und politische Vorgänge als prinzipiell unabschließbares Sprachgeschehen fassbar und eröffnet einen Spielraum für die Aushandlung und das Aushalten von Dissens und Differenz.
Die vorliegende Arbeit behandelt den Vergleich zweier Geräte - „Endotrust MiFusion TLS 2“ und „Medtronic LigaSure Maryland System“ - zur endoskopischen Entnahme der Arteria radialis (RA) zur Verwendung als Bypass-Gefäß in der Herzchirurgie.
Grundsätzlich kommen in der Bypass-Chirurgie zur Herstellung eines Free-Grafts am Herzen neben der Verwendung der Thoraxarterien die Vena Saphena Magna (VSM) sowie die RA in Frage. In den aktuellen europäischen Leitlinien zur Behandlung von hochgradigen Stenosen wird die Verwendung der RA empfohlen („Class 1 Level B“-Empfehlung).
Die Frage, ob die RA für den Einsatz als Bypass-Gefäß offen oder endoskopisch entnommen werden sollte, ist in der Literatur weiterhin umstritten. In den aktuellen Leitlinien zur Behandlung von koronaren Herzkrankheiten wird aufgrund dieser insoweit uneindeutigen Studienlage keine Empfehlung ausgesprochen. Trotzdem ist die endoskopische Entnahme der RA im klinischen Alltag mittlerweile etabliert. Im Kontext dieser uneindeutigen Studienlage einerseits und der praktischen Bedeutung endoskopischer Entnahme andererseits ist es Zielsetzung der vorliegenden Arbeit, durch einen Gerätevergleich einen Beitrag zur Optimierung der endoskopischen Operationstechnik zu leisten. Es soll zudem aufgezeigt werden, inwieweit die endoskopische Entnahme der RA ein sicheres und effizientes Verfahren darstellt.
In der Literatur zum Vergleich von Operationstechniken zur Entnahme von Bypass-Gefäßen werden häufig histologische Untersuchungen angewendet. Diese ermöglichen eine zeitnahe Beurteilung der Qualität des entnommenen Grafts. Das ist auch in dieser Arbeit der wesentliche Grund dafür, dass die histologische Beurteilung der Qualität der RA als primärer Endpunkt angewendet wird. In Anlehnung an die Literatur wurde die strukturelle Integrität des Endothels und der Elastica interna beurteilt. Die histologische Beurteilung erfolgte nach Immunfluoreszenz-Bearbeitung der Proben.
Im Einklang mit der bestehenden Literatur zur Frage, ob die RA offen oder endoskopisch entnommen werden sollte, wurde in dieser Studie als sekundäre Endpunkte Kriterien bezüglich der Sicherheit und Effizienz der Entnahme verwendet. Dies betrifft das Auftreten von intra- und postoperativen Komplikationen, insbesondere im Hinblick auf neurologische Beeinträchtigungen am operierten Arm, sowie die Entnahmedauer und den operativen Aufwand zur Blutstillung.
Die in dieser Arbeit behandelte Studie wurde als prospektive, 1:1 randomisierte Studie mit zwei Gruppen mit jeweils 50 Patienten durchgeführt. Alle Operationen erfolgten im Zeitraum Januar 2017 bis Juli 2017 im Herzzentrum der Kerckhoff-Klinik Bad Nauheim.
Bezüglich der Resultate des Gerätevergleichs zeigte sich ein eindeutiges Ergebnis. Sämtliche Beurteilungskriterien, bei denen signifikante Unterschiede zwischen den beiden Gruppen aufgetreten sind, u.a. Integrität der Elastica interna, Entnahmedauer, Vorkommen von Residualblutungen, Auftreten von sensorischen Störungen fallen zugunsten des LigaSure-Systems aus.
Dabei ist unserer Meinung nach der wichtigste Einzelaspekt, dass die histologisch ermittelte Integrität der Elastica interna als Indikator für die Qualität des entnommen Grafts in der LigaSure-Gruppe signifikant besser war als in der MiFusion-Gruppe. Dagegen konnten aus der histologischen Untersuchung des Endothels keine klaren Rückschlüsse gezogen werden. Insofern besteht Unsicherheit, ob die Schädigung der Endothelschicht durch die Entnahme selbst oder durch die anschließende Präparierung der entnommenen Proben verursacht wurde.
Bezüglich der sekundären Endpunkte zeigten sich für die Mifusion-Patientengruppe im Vergleich zu anderen Studien zur endoskopischen Entnahme der RA zufriedenstellende bis gute und für die LigaSure Gruppe gute bis sehr gute Ergebnisse. Unabhängig vom verwendeten Gerät kann diese Studie deshalb als eine Bestätigung bisheriger Studien zur Vorteilhaftigkeit der endoskopischen RA-Entnahme angesehen werden. Letztlich fehlt jedoch weiterhin der Nachweis, dass eine endoskopische Entnahme unbedenklich im Hinblick auf den langfristigen kardiologischen Outcome ist. Dies bleibt zukünftiger Forschung vorbehalten.
Darüber hinaus trägt die Studie dazu bei, das klinische Erfahrungswissen über operationstechnische Details bei der Entnahme der Radialarterie zu erweitern und somit die Akzeptanz für die Verwendung der Radialarterie als Bypass-Gefäß in der koronaren Herzchirurgie zu verbessern.
Tobacco smoke-associated particulate matter emissions in a car cabin using the TAPaC platform
(2023)
Zigarettenrauch enthält bis zu 5000 Inhaltsstoffe, von denen mindestens 250 gesundheits-schädlich und 98 krebserregend sind. Der freigesetzte Feinstaub erreicht hohe Konzentrati-onen in Innenräumen und ist somit besonders schädlich für Passivraucher (z.B. Kinder).
Ziel war es eine Messplattform zu etablieren, mit dessen Hilfe die Feinstaubexposition durch Zigarettenrauch im Fahrzeuginnenraum unter unterschiedlichen ventilatorischen Szenarien untersucht werden konnte. Zudem sollte der Einfluss verschiedener Tabakprodukte auf die Feinstaubkonzentration getestet werden.
Im ersten Teil dieser Dissertation wird die neuartige TAPaC Messplattform (tobacco-associated particulate matter emissions inside a car cabin: establishment of a new measuring platform) vorgestellt. Sie erlaubt die Auswirkungen verschiedener ventilatorischer Sze-narien auf die Feinstaubemission von Zigarettenrauch im Auto besser beurteilen zu können. Da niemand gesundheitsschädlichem Tabakrauch ausgesetzt wird, kann sie ohne jegliche ethische Bedenken eingesetzt werden. Die Zigaretten werden hierbei einzeln auf der Beifahrerseite verraucht. Der beim Rauchen freigesetzte Feinstaub wird auf der Fahrerseite gemessen und in PM10 (Partikel mit einem aerodynamischen Durchmesser <10 µm), PM2,5 (Partikel mit einem aerodynamischen Durchmesser <2,5 µm), und PM1 (Partikel mit einem aerodynamischen Durchmesser <1 µm) unterteilt. Hierbei konnten unter der Verwendung von 3R4F Research Cigarettes extrem hohe Feinstaubmesswerte bei geschlossenen Fenstern und ausgeschalteter Lüftung nachgewiesen werden (PM10: 1608 µg/m3, PM2,5: 1583 µg/m3, PM1: 1133 µg/m3). Diese Daten stellen Durchschnittwerte nach 10-minütiger Messung dar. Auch konnte eine Reduktion der Feinstaubkonzentration (PM10: -70,8 bis -74,4%, PM2,5: -70,6 bis -74,3%, PM1: -64,0 bis -68,0%) durch den Einsatz der Lüftung nachgewiesen werden.
Der zweite Teil dieser Dissertation befasste sich maßgeblich mit dem Einfluss unterschiedlicher ventilatorischer Szenarien auf die Feinstaubkonzentrationen im Auto. Unter Verwen-dung von drei unterschiedlichen Zigarettenprodukten (3R4F Research Cigarettes, Marlboro Red, Marlboro Gold) wurden insgesamt 7 ventilatorische Szenarien (Condition C1b–C7b) getestet. Für alle Szenarien, mit Ausnahme von C1b, war die Autolüftung auf Stufe 2/4 ge-stellt und in Richtung der Windschutzscheibe gerichtet. Die Szenarien beinhalteten: Condition 1 (C1b) Fenster geschlossen, Autolüftung aus und externer Ventilator aus, Condition 2 (C2b) Fenster 10 cm geöffnet und externer Ventilator aus, Condition 3 (C3b) Fenster 10 cm geöffnet und externer Ventilator auf höchster Stufe (3/3) an, Condition 4 (C4b) Fenster halb geöffnet und externer Ventilator aus, Condition 5 (C5b) Fenster halb geöffnet und externer Ventilator auf höchster Stufe (3/3) an, Condition 6 (C6b) Fenster vollständig geöffnet und externer Ventilator aus und Condition 7 (C7b) Fenster vollständig geöffnet und externer Ventilator auf höchster Stufe (3/3) an.
Es zeigten sich besonders hohe Feinstaubkonzentrationen bei Zigaretten, welche ohne Ventilation bei geschlossenem Fenster verraucht wurden. Unabhängig von der verwendeten Marke war die Feinstaubbelastung nach 10 min unter C1b (PM10: 1272–1697 µg/m3, PM2,5: 1253–1659 µg/m3, PM1: 964–1263 µg/m3) deutlich höher als unter C2b (PM10: 67–84 µg/m3, PM2,5: 68–83 µg/m3, PM1: 66–79 µg/m3), C3b (PM10: 100–139 µg/m3, PM2,5: 99–138 µg/m3, PM1: 95–132 µg/m3), C4b (PM10: 84–94 µg/m3, PM2,5: 84–93 µg/m3, PM1: 81–89 µg/m3), C5b (PM10: 94–120 µg/m3, PM2,5: 93–119 µg/m3, PM1: 90–114 µg/m3), C6b (PM10: 155–196 µg/m3, PM2,5: 154–195 µg/m3, PM1: 148–184 µg/m3), und C7b (PM10: 74–99 µg/m3, PM2,5: 72–97 µg/m3, PM1: 69–93 µg/m3). Ebenfalls wurden Feinstaubspitzenwerte bei 4,5 min und 10 min ausgewertet. Bei 4,5 min konnte PM10 unter C2b–C7b um 81,6–93,3% im Vergleich zu C1b reduziert werden. Bei 10 min sogar um 92,9–99,3%. Die 3R4F Zigarette hatte die höchste Feinstaubemission gefolgt von Marlboro Rod und Marlboro Gold. Zudem zeigte sich, dass die Feinstaubemission auch von den Tabakinhaltsstoffen und dessen Konzentrationen abhängig ist.
Die Etablierung der neuen Messplattform ermöglicht die Erforschung von Feinstaubexpositionen durch Zigarettenrauch im Auto ohne potentiell gesundheitliche Folgen. In Zusammenschau der Daten ließ sich nach Öffnen des Fensters und unter Einflussnahme verschiedener ventilatorischer Einstellungen eine deutliche Reduktion der Feinstaubkonzentration im Auto feststellen. Nichtsdestotrotz bleibt die Feinstaubbelastung im Autoinnenraum zu hoch und übersteigt die Richtwerte der Air Quality Guidelines aus dem Jahre 2021 der WHO. Die experimentell untersuchten Belüftungsszenarien sind somit insuffizient, da sie nicht vor der toxischen Feinstaubexposition durch Passivrauch beim Autofahren schützen können.
Raumkonstruktionen, die über Handlung und Bedeutungszuschreibungen im Kontext sozialer Medien entstehen, sind ein Fallbeispiel dafür, wie vor dem Hintergrund von Digitalität Fachinhalte re-innoviert werden müssen. Mit dem Ziel eines Beitrags zur Konzeption professionellen Lehrkräftewissens im Kontext von Digitalität werden, ausgehend von der Fragestellung, welche professionellen Fähigkeiten Lehrkräfte benötigen, um Raumkonstruktionen im Unterricht zu thematisieren, in dieser kumulativen Dissertation Raumkonstruktionen aus normativer und empirischer Perspektive als exemplarischer geographischer Fachinhalt adressiert.
Als theoretischer Rahmen dient dabei das TPACK Modell von Mishra & Koehler (2006), das professionelles Lehrkräftewissen in die Bereiche fachliches, pädagogisches und technologisches Wissen sowie deren Überschneidungsbereiche einteilt. Zunächst erfolgt eine Anwendung des Modells als Reflexionsperspektive auf Fachinhalte zur Erzeugung normativer Fähigkeitsbeschreibungen. Diese Fähigkeitsbeschreibungen fließen in die Entwicklung eines TPACK-Selbsteinschätzungsfragebogens für Lehramtsstudierende der Geographie ein. Im Rahmen der damit durchgeführten Studie (n= 364) zeigen sich auf deskriptiver Ebene vergleichsweise niedrige Selbsteinschätzungen der Bereiche inhaltlichen und fachdidaktischen Wissens. Durch die Anwendung einer konfirmatorischen Faktorenanalyse kann das TPACK Modell als zufriedenstellend für die Beschreibung der Daten identifiziert werden. Auffällig ist allerdings die niedrige Korrelation des Konstrukts technologischen Wissens mit den angrenzenden Wissensbereichen. In Bezug auf die Selbsteinschätzungen im phasen- und kontextübergreifenden Vergleich lässt sich, ausgehend von linearen Regressionsanalysen, eine tendenzielle Zunahme der selbsteingeschätzten Fähigkeiten entlang der Fachsemesterzahl ermitteln. Mittels Zweistichproben-t-Tests können außerdem höhere Selbsteinschätzungen der pädagogischen Wissensbereiche durch Studierende, die als Vertretungslehrkräfte tätig sind, festgestellt werden.
In Bezug auf die zur Thematisierung von Raumkonstruktionen im Unterricht benötigten Fähigkeiten ist zunächst die Relevanz der Förderung der Integration fachlichen, pädagogischen und fachdidaktischen Wissens hervorzuheben. Die Studie gibt darüber hinaus Hinweise auf eine niedrigere Bedeutung technologischen Wissens im Hinblick auf soziale Medien als Beispiele alltäglicher Technologien. Vor dem Hintergrund des positiven Effekts von Selbstwirksamkeitsprozessen bieten die Ergebnisse Implikationen für eine Diskussion von praktischen Erfahrungen als Aspekt professionellen Lehrkräftewissens im Sinne der Förderung einer kritisch-reflexiven Auseinandersetzung mit der Tätigkeit als Vertretungslehrkraft aus fachdidaktischer Perspektive. Insgesamt leistet die kumulative Dissertation einen Beitrag zum Diskurs um fachliche geographische Bildung im Kontext von Digitalität und zur Konzeption des professionellen Lehrkräftewissens vor diesem Hintergrund.
Bei 166 Patienten wurde eine perkutane transluminale Angioplastie (PTA) der A. carotis interna bzw. communis durchgeführt. 37/166 Patienten hatten symptomatische Stenosen (22,3 %). Der Stenosegrad lag bei 76,0 ± 9,9 % (57- 97 %). Bei 165/166 Patienten (99,4 %) wurde die PTA erfolgreich durchgeführt und der Stenosegrad auf 5,8 ± 21,2 % ( -73- 79 %) gesenkt. Perioperativ traten bei 8/166 Patienten neurologische Komplikationen auf (4,8 %), darunter fünf cerebrale Infarkte (3,0 %). Perioperative verstarben vier Patienten (2,4 %), zwei an Folgen einer Apoplexie, zwei an Folgen eines Myokardinfarktes. 152/166 Patienten wurden durchschnittlich 16 ± 18 Monate (ein Tag nach PTA bis maximal 87 Monaten) nachuntersucht. Bei 17 Patienten kam es zu Rezidivstenosen (10,2 %), drei davon zeigten neurologische Symptome, drei weitere bedurften einer wiederholten PTA (Re-PTA).
Die perioperativen Ergebnisse der vorgelegten Arbeit deckten sich weitgehend mit denen anderer Studien zur PTA 5, sowie zu denen bedeutender Studien zur Thrombendarteriektomie (TEA) 6. Diese Ergebnisse wurden durch die randomisierte CAVATAS- Studie
bestätigt, in der keine signifikanten Unterschiede bezüglich der Inzidenz neurologischer Symptome und der Mortalität der PTA und TEA nachgewiesen wurden [18]. Größer angelegte Studien hierzu werden zur Zeit in Europa und Nordamerika durchgeführt (CREST, SPACE). Rezidivstenosen scheinen häufiger nach PTAs aufzutreten, wobei Verbesserungen durch neue Techniken für die PTA und auch die TEA zu erwarten sind. Die klinische Bedeutung der Rezidivstenosen erwies sich bei der PTA als relativ unbedeutend.
Bei der Ermittlung von Risikofaktoren (Patientenalter; Stenoselänge; Kalzifikationen, Ulcerationen und Thromben in der Läsion) wurde festgestellt, dass bei der PTA andere Faktoren bedeutsam sind als bei der TEA. Zukünftig könnten Komplikationen vermieden werden, wenn Patienten aufgrund ihres Risikoprofils zur jeweils vorteilhafteren Behandlung zugewiesen würden.
Bei 91/166 Patienten wurde ein Embolieprotektionssystem verwandt. Es wurden verschiedene Methoden angewendet: distale Occlusion (PercuSurge™ System, n = 46), Filtersysteme (4 verschiedene Typen, n = 43) und proximale Occlusion (Arteriasystem, n = 2). Die Erfolgsrate lag bei 95,6 % und unterschied sich nicht signifikant innerhalb der einzelnen Systeme (PercuSurge™ System: 95,7 %; Filter: 95,3 %). Bei 67/91 Patienten wurde thrombotisches Material in den Filtern, bzw. im Aspirat festgestellt (73,6 %), wobei die Filter häufiger Partikel zurückhielten als das PercuSurge™ System (81,4 % versus 69,6 %). Bei vier Patienten kam es während der Protektion zu neurologischen Komplikationen, wobei in keinem dieser Fälle ein kausaler Zusammenhang zu den Protektionssysteme nachgewiesen werden konnte. Bei allen vier Patienten wurde thrombotisches Material nachgewiesen und entfernt. Die perioperative Inzidenz neurologischer Komplikationen lag bei 2,7 % (2/75 Patienten) ohne und bei 6,6 % (6/91 Patienten) mit Protektion. Die Mortalität lag bei 1,3 % (1/75 Patienten) ohne und bei 3,3 % (3/91 Patienten) mit Protektion. Diese Ergebnisse waren nicht signifikant. Die Ergebnisse der Filter und des PercuSurge™ Systems unterschieden sich ebenfalls nicht signifikant voneinander (PercuSurge™ System, Inzidenz neurologischer Komplikationen und Mortalität: 4,3 %; Filtersysteme, Inzidenz neurologischer Komplikationen: 9,3 %, Mortalität: 2,3 %). Während der PTA traten periprocedurale neurologische Symptome (PNS) bei Benutzung von Filtersystemen bei 8/43 Patienten (18,6 %), beim PercuSurge™ System bei 17/46 Patienten (37,0 %) auf.
Alle Protektionssysteme erwiesen sich in der vorliegenden Arbeit als praktikabel und für die klinische Routine geeignet. Der häufige Nachweis von Partikeln bestätigte den Nutzen der Protektion. In dieser Arbeit zeigte sich jedoch eine höhere Inzidenz neurologischer Komplikationen und Mortalität. Aufgrund der durchweg positiven Erfahrungen in vielen anderen Studien ist jedoch der klinische Nutzen der Protektion unzweifelhaft [70, 90, 132]. Kein signifikanter Unterschied konnte zwischen dem PercuSurge™ System den Filtersystemen festgestellt werden. Das PercuSurge™ System zeichnete eine geringere Inzidenz neurologischer Komplikationen und eine höhere technische Erfolgsrate aus, die Filter eine geringere Inzidenz von PNS und eine größere Effektivität beim Zurückhalten von thromboembolischen Partikeln.
Gerade in der Medizin besteht die Diagnostik nicht nur aus Zahlen und Werten, die Gesamtheit einer Diagnostik setzt sich häufig auch aus Bildern zusammen. Die bildgebende Diagnostik lässt nur wenig Spielraum für eine platzsparende Arbeitsweise, zu wichtig ist der wissenschaftliche Aussagewert feinster Details, seien es nun radiologische Aufnahmen, klinische Bilder oder Histologien. Moderne Computernetzwerke bieten eine geeignete Infrastruktur zum Austausch relevanter Daten in akzeptabler Geschwindigkeit bei guter Datenqualität. So ist die EDV nicht nur Datenverwalter, sondern ein aktives Hilfsmittel im medizinischen Alltagsgebrauch.
Diese Arbeit soll zeigen, welche technischen Voraussetzungen erfüllt sein müssen, um durch Einsatz digitaler Bilderfassungsgeräte eine optimale Datengrundlage für Forschung, Lehre und Dokumentation zu schaffen.
Die gezeigten Systeme sind grundsätzlich in statische „solid-state“ Systeme und dynamische „remote“-Systeme zu unterteilen.
Statische Systeme sind der asynchronen Telemedizin zuzuordnen und arbeiten nach dem store and forward Prinzip. Die Aufnahme ist nicht erweiterbar, in der Ferne wird zeitlich unabhängig die Diagnose gestellt. Dieses System bietet sich in strukturschwachen Regionen an.
Remotesysteme sind technisch sehr viel aufwendiger. Die sogenannte synchrone Telemedizin ist auch räumlich getrennt, findet jedoch zeitgleich statt. Das heißt, über eine Kamera und Datenleitung sind die Experten direkt mit dem Präparat oder dem Patienten verbunden. Aufgrund des technischen Aufwandes sind solche Systeme in der Regel in strukturstarken Regionen zu finden.
Beide Varianten messen sich bezüglich ihrer Validität an dem sogenannten „GoldStandard“, dem direkten Kontakt von Facharzt oder Pathologen zu Patient oder Präparat. Abhängig von der technischen Qualität haben sich beide telemedizinischen Prinzipien als in hohem Maße valide dargestellt.
Die Wahl der Kamera als zentrales Übersetzungsmedium von Bild in Daten setzt ein exaktes Studium der technischen Grundlagen voraus, wenn man bezüglich Auflösung und Lichtempfindlichkeit keine Kompromisse eingehen möchte, aber auch, wenn die physikalischen Grenzen, wie etwa die optische Auflösung eines Systems, die Notwendigkeit eines hochauflösendsten Systems nicht sinnvoll erscheinen lässt. Die Archivierung der Daten erfordert zudem Speicherplatz. Die Kompression von Bildern kann verlustfrei, aber auch verlustbehaftet stattfinden. Je nach Anwendungszweck gilt es daher abzuwägen, ob objektive Verlustfreiheit bei höherem Speicherbedarf oder wenig Platzbedarf bei einem eventuellen Qualitätsverlust gewünscht ist. Im hier gestellten Vergleich zwischen einem hochauflösenden Single-Shot System und einem Multishotaufbau hat sich gezeigt, dass die Qualität des Bildes bei einem hochauflösenden Einzelbild homogener ist, während das gekachelte Bild durch das Merging-Verfahren Belichtungs- und Schärfeunterschiede aufweist und die Bereiche der Bildteilzusammenführung erkennen lassen kann. Als Vorteil eines solchen Aufbaus ist sicherlich die technisch nahezu unbegrenzte Bildfläche zu nennen, da das aufgenommene Areal nicht von einem Einzelbild, sondern der Zahl der Segmente abhängt. Insofern haben beide Konzepte abhängig vom Einsatzanspruch ihre Existenzberechtigung.
Multilevel-Untersuchung des nitrinergen Systems bei affektiven Störungen und schizophrenen Psychosen
(2023)
Das nitrinerge System und damit auch NOx als Neurotransmitter werden mit der Entstehung verschiedener psychischer Erkrankungen in Verbindung gebracht. Die genaue Rolle des Botenstoffs ist jedoch nicht ausreichend geklärt und auch die Frage, ob dieser als diagnostischer oder prädiktiver Biomarker nützlich sein könnte, ist unbeantwortet. In der vorliegenden Arbeit wurde folglich untersucht, ob es Unterschiede zwischen den Diagnosegruppen MDD, BIP, SCZ und der Kontrollgruppe bezüglich peripherer NOx- Konzentrationen gibt. Darüber hinaus wurden Unterschiede innerhalb der Diagnosegruppen im Krankheitsverlauf im Sinne von Phasenunterschieden mittels zweier Messzeitpunkte untersucht und analysiert, ob es Korrelationen mit genetischen Variationen in NOS-Genabschnitten gibt. Insgesamt wurden 185 Probanden in die Studie mitaufgenommen: 52 gesunde CTRL, 43 Patienten mit MDD, 41 Patienten mit BIP und 49 Patienten mit SCZ. Biochemische, genetische und klinische Daten wurden bei Aufnahme und Entlassung in der psychiatrischen Abteilung des Universitätsklinikums Frankfurt erhoben. Klinische Daten, die den Symptomverlauf 90 und die Erkrankungsschwere beurteilten, nutzten dazu standardisierte teilstrukturierte klinische Interviews. Biochemische Daten wurden mittels im Serum gemessener NOx- Spiegel quantifiziert. Bezüglich der Untersuchung der Risikogenvarianten wurden Probanden anhand des NOS1 ex1f-VNTR-Polymorphismus sowie SNPs in den Genen NOS1, NOS3 und NOS1AP genotypisiert. Bei Aufnahme wiesen SCZ-Patienten im Vergleich zu CTRL-, MDD- und BIP-Gruppen signifikant höhere NOx- Konzentrationen auf. Während NOx- Spiegel im Behandlungsverlauf bei MDD- und BIP-Patienten signifikant zunahmen, konnte dies bei SCZ-Patienten nicht beobachtet werden. Weiterhin konnte gezeigt werden, dass Patienten, deren depressive Beschwerden nicht relevant zurückgingen, bei Entlassung signifikant höhere NOx- Konzentrationen aufwiesen, was durch die Beobachtung einer signifikant positiven Korrelation zwischen NOx- Serumspiegeln und depressiven Symptomen bei Entlassung unterstützt wurde. Bei der genetischen Untersuchung der Daten fiel auf, dass homozygote Träger des kurzen VNTR-Allels signifikant erhöhte NOx- Konzentrationen besaßen. Diese Ergebnisse blieben bei jenen Trägern auch nach Entlassung signifikant. Insgesamt gibt es Hinweise darauf, dass erhöhte periphere NOx- Metabolitkonzentrationen mit einer Zunahme der Psychopathologie bzw. der Erkrankungsschwere einhergehen könnten, was möglicherweise auf den NOS1 ex1f-VNRT-Polymorphismus zurückzuführen ist. Außerdem zeigten zwei SNPs, welche beide im NOS1AP-Gen lokalisiert sind, bei BIP Patienten signifikant gesteigerte NOx- Werte. Die vorliegenden Ergebnisse deuten darauf hin, dass NO-Signalübertragung und NOS-Genotypen in der Pathogenese psychischer Erkrankungen eine Rolle spielen könnten. Ob diese Veränderungen allerdings kausal mit Krankheitsprozessen zu tun haben oder ob es eher Epiphänomene der Erkrankungen sind, kann mit dieser Studie nicht geklärt werden. Die Genvarianten könnten wiederum bei der Regulierung von peripheren NOx- Konzentrationen von Bedeutung sein. Die Arbeit liefert zudem Hinweise, die Verwendung von NOx als möglichen peripheren Biomarker weiter zu verfeinern und zu untersuchen. Zukünftige Studien, die die Wirksamkeit von NOx- modulierenden Pharmaka untersuchen, könnten davon profitieren, Diagnosegruppen nach Subgruppen einzuteilen, die sowohl NOS Risikogenvarianten als auch periphere NOx- Spiegel im Sinne eines Biomarker beachten.
Die Digitalisierung aller Lebensbereiche stellt die Bildungsarbeit in Schulen, Kirchgemeinden und in der Gedenkstättenpädagogik vor neue Herausforderungen. Der Artikel beschreibt vor diesem Hintergrund Digitalisierungsprojekte an der Goethe-Universität in Frankfurt am Main, die sich mit virtuellen Realitäten, ambivalenten Narrativen und fiktiven Entscheidungssituationen beschäftigen. Besondere Aufmerksamkeit erhalten dabei das Judentum und die bildungstheoretischen Anliegen einer Didaktik der Multiperspektivität.
Die klinische Pfade zielten in erster Linie darauf ab, die Aufenthaltsdauer zu verkürzen und unnötige Kosten zu sparen, während die Qualität der Pflege erhalten blieb oder verbessert wurde. Bei der laparoskopischen Cholezystektomie gibt es keine ausreichenden Beweise für einen Einfluss auf postoperative Komplikationen.
In dieser retrospektiven Studie wurde die logistische Regression verwendet, um einen Neigungswert zu berechnen, und nach dem Abgleich werden 296 Patienten in beiden Gruppen im Hinblick auf postoperative Komplikationen unter Verwendung des Clavien-Dindo-Klassifizierungssystems als primäres Ziel analysiert. Darüber hinaus wurden sekundäre Ziele wie Aufenthaltsdauer, Einhaltung und Abweichung vom klinischen Pfad in Bezug auf die Entlassung von Patienten analysiert. Das relative Risiko des primären Ergebnisses wurde berechnet und mit dem E-Wert als Ansatz für Sensitivitätstests verglichen.
Aufgrund des obligatorischen Teil der klinischen Pfad bei den Patienten betrug die Compliance 100 Prozent. In 16% der Fälle trat eine Abweichung vom Pfad in Bezug auf die geplante Entlassung des Patienten am zweiten Tag nach der Operation auf. Nach Anpassung um potenzielle Faktoren beträgt das relative Risiko beim Vergleich der Clavien-Dindo-Komplikationsbewertung 0 versus 1-4 ist 1,64 (95% CI 0,87; 3,11), was nicht signifikant unterschiedlich ist (p = 0,127).
Nach Matching beträgt die Verweildauer 3,69 Tage ohne bzw. 3,26 Tage mit dem klinischen Pfad.
Vergleich zu bereits implementierter strukturierter Standardoperationsverfahren kann ein klinischer Pfad postoperative Komplikationen nicht reduzieren.
Dennoch betrachten wir unseren klinischen Pfad als ein äußerst wertvolles Instrument für die interdisziplinäre Verwaltung des Krankenhausaufenthalts des Patienten unter der Aufsicht eines erfahrenen Chirurgen.
Spezialwissen für SCALE
(2024)
Volker Zickermann und Eric Helfrich sind bei der Exzellenzcluster-Initiative SCALE (Subcellular Architecture of Life) dabei und werden dort ihre Expertise einbringen. Das Spezialgebiet des einen ist ein Proteinkomplex in den Mitochondrien, den Kraftwerken der Zelle. Der andere sucht schwerpunktmäßig bisher unbekannte Naturstoffe, die die Basis für neue Antibiotika sein könnten.
Herzforschung meets KI
(2024)
Moderne Methoden der Künstlichen Intelligenz (KI) spielen in der Wissenschaft eine immer größere Rolle. Wie Forscher des Exzellenzclusters Cardio-Pulmonary Institute (CPI) KI in der Herzbildgebung nutzen, zeigte Professor Eike Nagel im Rahmen der Bürgeruniversität der Goethe-Universität. Er leitet das Institut für experimentelle und translationale kardiovaskuläre Bildgebung am Fachbereich Medizin und forscht an der Entwicklung verbesserter Behandlungsmöglichkeiten für Herz-Kreislauf-Erkrankungen. Mit dem Ziel, seine Forschung für alle Menschen zugänglich und verständlicher zu machen, lud Prof. Nagel interessierte Bürger*innen am 10. Mai in sein Institut ein.
Vielfalt im Hochschulsport
(2024)
Zum Sommersemester hat das Team vom Zentrum für Hochschulsport (ZfH) der Goethe-Universität wieder ein vielfältiges und buntes Programm auf die Beine gestellt. Dazu gehören natürlich Klassiker wie Fußball oder Volleyball, aber auch Trendsportarten und exotische Disziplinen. Einiges davon ist auch im laufenden Semester noch buchbar! Im Folgenden werden einige Angebote kurz beschrieben.
Im Wintersemester 2022/23 wurde die dritte universitätsweite Studierendenbefragung durchgeführt, die für Studierende ein wichtiges Instrument der Partizipation an der Qualitätsentwicklung in Studium und Lehre ist. Aus diesem Grund gebührt den 7765 Studierenden, die den umfassenden Fragebogen mit 314 Basisfragen sowie zusätzlichen fachbereichsspezifischen Fragen beantwortet haben, besonderer Dank. Die Ergebnisse der Befragung können in den Berichten auf www.studierendenbefragung.uni-frankfurt.de nachgelesen werden.
Wie kommen Wissenschaft und Praxis zueinander? Unter dem Motto »Bridging the gap« stellte das Forschungsinstitut Gesellschaftlicher Zusammenhalt (FGZ) am 25. April auf einem Festival neue Formate der Wissenschaftskommunikation vor. Der UniReport sprach mit den FGZ-Referenten für Wissenstransfer Katja Maasch und Manuel Steinert.
Um den eigenen Beitrag zur sozial-ökologischen Transformation zu konkretisieren, entwickelt die Goethe-Universität in den kommenden Monaten eine Nachhaltigkeitsstrategie. Die Strategie soll klare Ziele, Maßnahmen und Verantwortlichkeiten definieren und das Bewusstsein für Nachhaltigkeit an der Universität, aber auch darüber hinaus, stärken.
Das deutsche Open Science Festival geht in die dritte Runde und wird am 17. und 18. September 2024 an der Johannes Gutenberg-Universität Mainz stattfinden. In den Räumen der Musikhochschule bietet das Festival den Teilnehmenden die Gelegenheit, die Vielfalt und Bedeutung von Open Science zu entdecken und zu erleben.
Die TPTZ-Citrat-Methode für die Eisenbestimmung im Serum bzw. Plasma zeichnet sich durch verschiedene Vorteile gegenüber anderen handelsüblichen Methoden aus.
1. Der Eisennachweis wird nur zu 2% durch Kupfer falsch-positiv gestört.
2. Die Farbreaktion erfolgt in Citratpuffer bei einem pH von 2,1 bis 2,5. Dieses Milieu ist günstig für die Freisetzung von Eisen aus der Transferrinbindung und gleichzeitig optimal für die Farbentwicklung. Es verhindert in der Regel Proteinpräzipitation, so daß ohne Enteiweißung gemessen werden kann. Die Freisetzung von Eisen aus Hämoglobin wird minimiert. Die Automation dieses Eisentests ist unproblematisch.
3. Die TPTZ-Citrat-Methode ist kostengünstig im Vergleich zu handelsüblichen Tests. Auf Reagenzienbasis reduziert sich der Preis pro Analyse auf 1/4 bis 1/10.
[Abstract der Posterpräsentation] Aussagekraft der Tumormarker SCC und CA-125 bei Zervixkarzinom
(1991)
Insgesamt 311 Stämme gramnegativer harnwegspathogener Enterobacteriaceen und Nonfermenter, davon 200 Isolate aus frischem Urin der täglichen Routine und 111 ausgewählte, bezüglich ihrer Identifikation problematische Keime aus der Stammsammlung des Zentrums der Hygiene, Frankfurt/Main, wurden mit den Systemen RAS-ID-Gramne9, und API 20 E bzw. NE, vergleichend getestet. Das RAS~ID-Gramne9-System benutzt 10 biochemische Reaktionen zur Identifizierung gramnegativer Bakterien sowie 10 Chemotherapeutika zur Resistenzbestimmung. Von den 200 Routinestämmen zeigten 196 (98%), von den 111 Stämmen aus der Stammsammlung 98 (88,3 %) Übereinstimmung. Die gute Übereinstimmung und die schnelle und einfache Handhabung läßt das RAS-ID-Gramne9-System für die Identifizierung harnwegs-pathogener Routinekeime als kostengünstige Alternative zu anderen aufwendigeren Identifizierungssystemen erscheinen.
Im vorliegenden Fall wird von einer Fehldiagnose auf der Grundlage eines falsch-reaktiven Anti-HCV-Tests und eines falsch-reaktiven HCV-Nukleinsäureamplifikationstests (NAT) berichtet, die bei einem 58-jährigen chirurgischen Oberarzt im Rahmen einer arbeitsmedizinischen Vorsorgeuntersuchung im krankenhauseigenen Labor gestellt wurde und zu einem knapp zweimonatigen Berufsverbot führte. Basis dieser Fehldiagnose war ein wiederholt schwach reaktiver HCV-Antikörper-ELISA, der mit einem Nukleinsäureamplifikationstest, der ebenfalls schwach positiv ausfiel, überprüft wurde. Ein Antikörperbestätigungs- bzw. Ergänzungstest (Immunoblot) wurde nicht durchgeführt. Die Fehldiagnose ist jedoch nicht durch einen Testfehler, sondern durch ein Missverständnis entstanden, indem beim Kliniker zwei Laborindizien zu einem Beweis aufsummiert wurden.