Refine
Year of publication
Document Type
- Article (13375)
- Part of Periodical (8524)
- Book (5922)
- Doctoral Thesis (3623)
- Part of a Book (2842)
- Review (2562)
- Contribution to a Periodical (2366)
- Working Paper (1016)
- Report (1014)
- Conference Proceeding (511)
Language
- German (43162) (remove)
Keywords
- Deutsch (787)
- Literatur (744)
- Rezension (434)
- Deutschland (388)
- Frankfurt <Main> / Universität (341)
- Rezeption (286)
- Geschichte (258)
- Film (224)
- Vorlesungsverzeichnis (224)
- Hofmannsthal, Hugo von (218)
Institute
- Präsidium (5111)
- Medizin (2352)
- Extern (1768)
- Gesellschaftswissenschaften (1380)
- Rechtswissenschaft (1036)
- Geschichtswissenschaften (916)
- Biochemie und Chemie (887)
- Neuere Philologien (827)
- Wirtschaftswissenschaften (782)
- Physik (696)
Franz Fühmann gehört zu den profiliertesten deutschsprachigen Schriftstellern aus der zweiten Hälfte des 20. Jahrhunderts. Im Rahmen seines Gesamtwerkes nimmt das Thema 'Griechenland' - namentlich die Zeit der Okkupation - einen beträchtlichen Raum ein; ja, Fühmann ist sogar derjenige DDR-Autor, der sich am intensivsten damit befasst hat.
Die Besatzung Griechenlands im Zweiten Weltkrieg ist ein Thema, das gerade im Kontext der krisenhaften Erschütterungen in der Europäischen Union und der mannigfachen Spannungen innerhalb des deutsch-griechischen Verhältnisses im zweiten Jahrzehnt des 21. Jahrhunderts von erheblicher historisch-politischer Brisanz ist; ihre literarischen Gestaltungen sind wichtige Dokumente zeitgenössischer Reflexion und sollten Anregungen geben für das Problembewusstsein späterer Generationen. Zugleich aber sind diese Gestaltungen Teil eines schriftstellerischen Gesamtwerkes, und im Falle Franz Fühmanns ist insbesondere zu fragen, ob sich das Erlebnis Griechenlands – über seine Bedeutung für die Auseinandersetzung mit Krieg und Faschismus in den Erzählungen bis 1965 hinaus - auch im Schaffen der Folgezeit niedergeschlagen hat.
Franz Fühmann wurde am 15. Januar 1922 in Rochlitz an der Iser (Rokytnice nad Jizerou) im Riesengebirge geboren und starb am 8. Juli 1984 in Berlin. Anfang der fünfziger Jahre war er zunächst als Lyriker, ab 1955 auch als Erzähler bekannt geworden. Seit Mitte der sechziger Jahre wandte sich der Schriftsteller der antiken Mythologie zu (der Nacherzählung der Homerischen Epen unter dem Titel Das Hölzerne Pferd, dem 'mythologischen Roman' Prometheus sowie mehreren Erzählungen und dramatischen Texten) und schrieb eine Anzahl programmatischer Essays - darunter Das mythische Element in der Literatur (1974).
Die übergreifende theoretisch-historische Fragestellung für die folgenden Ausführungen lautet: Warum wird die Antike rezipiert? Konkret handelt es sich um Wandlungsprozesse in der zweiten Hälfte des 18. Jahrhunderts in Deutschland, die von Winckelmann ausgingen, an der zahlreiche Intellektuelle dieser Zeit Anteil hatten und die im weimarisch-jenaischen Kulturkreis kulminierten - bei Schriftstellern und Gelehrten, die mehr oder weniger lange und mehr oder weniger enge Verbindungen mit Thüringen hatten (auch wenn manche ihrer Äußerungen schon vor oder erst nach ihrer Thüringer Zeit lagen). Die auffallendste Wandlung in der europäischen (mit besonderem Nachdruck in der deutschen) Antikerezeption des 18. Jahrhunderts ist die Verlagerung des Schwerpunktes von Rom auf Griechenland (und zwar auf Athen bzw. auf ein von Athen her bestimmtes Griechentum) - eine Wandlung, die zugleich die Wende von einer primär politischen zu einer vorrangig kulturellen Antikerezeption bedeutete. Ich werde darauf eingehen, das Problem aber einem anderen Aspekt unterordnen: der Frage nämlich, ob die Beziehung zum Altertum in erster Linie die Ästhetik und Poetik oder die Geschichtsphilosophie, Anthropologie und Ethik betrifft, ob sie der Kunstschönheit oder dem Menschenbild gilt, ob sie auf eine Normativität des Stils und der literarischen Gattungen oder auf eine Aufnahme von Stoffen und Motiven zielt. Es soll demnach vor allem untersucht werden, ob es sich um eine detaillierte, punktuelle, selektive oder um eine universelle Rezeption handelt und ob die imitatio von musterhaften künstlerischen Werken sowie die Befolgung allgemeinverbindlicher kunsttheoretischer Lehren oder die Affinität zum Leben, zur Geschichte, zur Kultur und zum Mythos - also zur Antike als einer ganzheitlichen Erscheinung - ausschlaggebend ist.
Schiller sagt in seinem - laut Thomas Mann - "tiefsten und glänzendsten Essay": "Der Dichter [...] ist entweder Natur, oder er wird sie suchen. Jenes macht den naiven, dieses den sentimentalischen Dichter." Der naive Poet könne sich auf die "Nachahmung des Wirklichen" beschränken und habe deshalb "zu seinem Gegenstand auch nur ein einziges Verhältnis"; Aufgabe des sentimentalischen Schriftstellers hingegen sei "die Darstellung des Ideals", und hierfür gebe es "drei [...] mögliche Arten": "Satyre, Elegie und Idylle". Schiller verwendet hier Bezeichnungen für literarische Gattungen, die aus der Antike stammen und im 18. Jahrhundert noch in hohem Ansehen standen, betont aber mehrfach, daß er diese Bezeichnungen "in einem weiteren Sinne [...] als gewöhnlich" verstehen wolle: nämlich als "Empfindungsweise[n]" oder "Dichtungsweise[n]". Der satirische Dichter schildere "die Entfernung von der Natur und den Widerspruch der "Wirklichkeit mit dem Ideale"; der elegische Dichter setze "die Natur der Kunst und das Ideal der Wirklichkeit [...] entgegen" und stelle dabei die "Natur" als "verloren" und das "Ideal" als "unerreicht" dar; der idyllische Dichter schließlich gestalte die "Uebereinstimmung" zwischen Ideal und Realität (20,436-467).
Schiller hat damit den in den drei literarischen Gattungen dominierenden Merkmalen eine übergreifende Bedeutung gegeben. Gewiss treten die einzelnen künstlerischen Verfahrensweisen nicht rein auf und sollten deshalb nicht verabsolutiert werden - der Dichter selbst hat in seinen Werken diese Elemente durchaus miteinander vermischt Dennoch hat er - wie schon bei der grundsätzlichen Unterscheidung zwischen "naiver" und "sentimentalischer" Dichtung - heuristisch äußerst fruchtbare Distinktionen getroffen. Ich möchte seine Untergliederung zum Ausgangspunkt nehmen, um eine konkrete Problematik des Schillerschen Werkes zu untersuchen - nämlich das Verhältnis zwischen idyllischen und elegischen Zügen in seinem Antike-, insbesondere seinem Griechenbild - und darüber hinaus die Vielschichtigkeit dieses Bildes überhaupt herausstellen. (Satirische Elemente sind seinem Werk nicht fremd, spielen aber keine dominierende Rolle.)
Die vorliegende Arbeit liefert einen Beitrag zum besseren Verständnis des stratosphärischen Transports. Dieser ist ein wichtiger Parameter im komplexen gekoppelten System der Stratosphäre, das neben dem Transport vor allem von Chemie und Strahlungshaushalt geprägt wird. Neben verschiedenen Modelliertechniken bietet die Messung langlebiger Spurengase das effektivste Werkzeug für Untersuchungen von stratosphärischen Transportprozessen. Daher wurde am Institut für Meteorologie und Geophysik an der Universität Frankfurt ein Instrument zur in-situ-Messung von Spurengasen entwickelt, das sowohl an Stratosphärenballonen als auch auf dem russischen Höhenforschungsflugzeug M-55 "Geophysica" Echtzeitmessungen von Spurengasmischungsverhältnissen durchführen kann. Der "High Altitude Gas Analy- ser" (HAGAR) ist in der Lage, mit einem Zwei-Kanal-Gaschromatographen die Mischungsverhältnisse von N 2 O, F12, F11 und Halon-1211 mit einer Zeitauflösung von 90 s und das von SF 6 alle 45 s zu bestimmen. Ein an die speziellen Gegebenheiten von Stratosphärenmessungen angepasster CO 2 -Sensor der Firma LI-COR erreicht eine Zeitauflösung von ca. 10 s. Im Rahmen dieser Arbeit wurden entscheidende Beiträge zur Entwicklung von HAGAR geleistet. Für die Steuerung des Instruments auf Basis eines Industrie-PCs wurde ein umfangreiches Softwarepaket entwickelt, das die zuverlässige vollautomatische Steuerung des Instruments, sowie eine komfortable Konfigurationsmöglichkeit bietet. Nach einem ersten Ballontestflug am 13.5.1998 wurde das Instrument vollständig neu aufgebaut, um einen Sensor zur Messung von CO 2 zu integrieren. Des Weiteren wurden eine Reihe von Verbesserungen und Anpassungen durchgeführt, die für den Betrieb an Bord der Geophysica notwendig waren. Im Zeitraum von Dezember 1998 bis Oktober 1999 nahm HAGAR an drei Messkampagnen teil. Im Rahmen von APE-ETC ("Airborne Platform for Earth Observation - Extensive Test Campaign") wurde das Instrument erstmals an Bord der Geophysica montiert und eingesetzt. Trotz einer Reihe von kleineren Schwierigkeiten erwies sich das HAGAR-Konzept als gut ge- eignet für den Einsatz an Bord eines Höhenforschungsflugzeugs. So konnten zumindest während drei von sechs Testflügen Daten aufgezeichnet werden. Im Februar/März 1999 war HAGAR Teil der Geophysica-Nutzlast während der Messkampagne APE-THESEO ("Airborne Platform for Earth Observation - The Contribution to the Third European Stratospheric Experiment on Ozone"), die Mahè/Seychellen als Basis nutzte. HAGAR konnte hier während ca. 30 Flugstunden Daten aufnehmen. Dabei konnte ein umfangreicher Datensatz vor allem im Bereich der tropischen Tropopausenregion gewonnen werden. Die Tropen sind von besonderer Bedeutung für den stratosphärischen Transport, unter anderem da hier der Haupteintrag von troposphärischer Luft in die Stratosphäre stattfindet. Der Untersuchung des antarktischen Polarwirbels in der Phase des maximalen Ozonabbaus war die Messkampagne APE-GAIA ("Airborne Polar Experiment - Geophysica Aircraft in Antarctica") gewidmet, die im September und Oktober in Ushuaia/Argentinien stattfand. Als südlichste Stadt der Erde bietet Ushuaia die beste geographische Lage, um den stratosphärischen Polarwirbel mittels Flugzeugmessungen zu untersuchen. HAGAR arbeitete zuverlässig während aller wissenschaftlichen Flüge und einem Testflug in Ushuaia. Zusätzlich konnte während sechs Transferflugetappen zwischen Sevilla und Ushuaia zumindest für einen Teil der Substanzen Daten aufgezeichnet werden. Insgesamt liegen für etwa 60 Flugstunden Daten vor, darunter auch erstmals ein hochaufgelöstes Vertikalprofil im Polarwirbel, dass von über 20 km Höhe bis hinunter zur Tropopausenregion reicht. Für ein neu entwickeltes Messinstrument wie HAGAR ist eine Validierung der Daten sehr wichtig. Da eine direkte Validierung durch parallele Messungen nicht möglich war, musste auf ältere, vergleichbare Datensätze zurückgegriffen werden, die anhand des troposphärischen Trends korrigiert wurden. Als Vergleich dienten Datensätze der in-situ-Gaschromatographen GhOST und ACATS, der kryogenen Luftprobensammler und des CO 2 -Instrumentes der Harvard University. Dabei zeigte sich stets eine gute bis sehr gute quantitative Übereinstimmung der Daten. Auch die Präzision der Messungen, die bereits endgültig ausgewertet wurden, sind sehr zufriedenstellend und zumindest vergleichbar mit denen von "etablierten" Instrumenten. So war die Präzision für N 2 O, F12 und F11 zumeist deutlich besser als 1 %. Für CO 2 konnte die Präzision für APE-GAIA auf 0,15 ppm bzw. 0,05 % verbessert werden. Die Präzision der vorläufigen Daten von Halon-1211 und SF 6 beträgt bisher etwa 5 %. Der im Jahre 1999 von HAGAR aufgenommene Datensatz bietet umfangreiche Möglichkeiten zur wissenschaftlichen Analyse. Nur exemplarisch sind daher die Punkte zu sehen, die in dieser Arbeit diskutiert werden. Das mittlere Alter der Luft kann als die Zeit beschrieben werden, die die Bestandteile eines Luftpakets im Mittel benötigten, um von der tropischen Tropopausenregion an seine aktuelle Position in der Stratosphäre zu gelangen. Zur Bestimmung des mittleren Alters der Luft werden Messungen von Spurengasen verwendet, die in der Stratosphäre konservativ sind und deren troposphärisches Hintergrundmischungsverhältnis einen zeitlich linear ansteigenden Trend aufweist ("Alterstracer"). HAGAR ist in der Lage, die Mischungsverhältnisse der beiden gebräuchlichsten Alterstracer CO 2 und SF 6 zu messen. Das Alterskonzept bietet eine einfach zu bestimmende Kenngröße für den stratosphärischen Transport, die im Gegensatz zu Mischungsverhältnissen direkt mit Messungen, die zu anderen Zeitpunkten gewonnen wurden, vergleichbar ist. Es konnte gezeigt werden, dass die erreichbare Genauigkeit der Altersbestimmung nicht von der Messgenauigkeit von CO 2 und SF 6 limitiert ist, sondern von der Abweichung der troposphärischen Trends vom (zeitlich linear ansteigenden) Ideal. Insbesondere im Fall von CO 2 wird dies deutlich, wobei die von HAGAR erreichte Messgenauigkeit für eine maximale Unsicherheit in der Altersbestimmung von ca. zwei Monaten ausreichen würde. Neben den saisonalen Schwankungen, die in mittleren Breiten ab ca. 16 km Höhe keine Rolle mehr spielen, sorgen vor allem die jährlichen Schwankungen dafür, dass die Altersbestimmung mit CO 2 momentan kaum besser als mit einem Fehler von etwa 0,7 Jahren durchgeführt werden kann. In den Tropen kann die Messung des CO 2 -Mischungsverhältnisses nicht direkt zur Altersbestimmung herangezogen werden. Durch die starke Vertikalbewegung in den Tropen kann das saisonale CO 2 -Signal im Vertikalprofil beobachtet werden. HAGAR konnte solche Profile während zweier Jahreszeiten (Februar/März bzw. Mitte September) aufzeichnen. Die Tropen sind in der Stratosphäre durch sogenannte Mischbarrieren für den horizontalen Transport gegenüber den mittleren Breiten abgegrenzt. Dies zeigt sich unter anderem in veränderten Tracer-Tracer-Korrelationen. Gealterte Luft aus den mittleren Breiten, die groÿteils bereits einmal die groÿräumige Brewer-Dobson-Zirkulation durchlaufen hat, wird jedoch zu einem geringen Maße erneut in den Bereich der tropischen Aufwärtsströmung eingemischt. Für die Gesamtverweilzeit von langlebigen Spurengasen in der Stratosphäre ist diese Einmischung von besonderer Bedeutung. Während nahezu aller Flüge von APE-THESEO (1° N - 19° S) ergaben die HAGAR- Daten eine kompakte F11-N 2 O-Korrelation; beim letzten Flug, der nur bis 15° S führte, ergaben sich jedoch Datenpunkte, die eher zu einer Korrelation passen, die aus mittleren Breiten bekannt ist. Es ist noch im Detail zu klären, ob hier möglicherweise direkt ein Einmischungsereignis beobachtet wurde. Auch der Polarwirbel ist im Winter von einer effektiven Transportbarriere umgeben. Hier ist eine wichtige Frage, inwieweit Luft aus dem Wirbel in die mittleren Breiten vordringen und dort die chemische Zusammensetzung der Stratosphäre verändern kann. Dieser Luftmassenaustausch findet häufig in Form von sogenannten Filamenten statt, Luftmassen also, die vom Wirbel abgetrennt wurden und sich nun immer länger gezogen vom Wirbelrand wegbewegen. Hochaufgelöste Tracermessungen, wie sie mit HAGAR durch- geführt werden, stellen eine ideales Werkzeug zur Untersuchung und Charakterisierung solcher Abläufe dar. So konnten zahlreiche Strukturen innerhalb und außerhalb des Wirbels untersucht werden, deren Tracermischungsverhältnis darauf hinwies, dass sie jeweils von der anderen Seite des Wirbelrandes stammten. Dabei konnten keine signifikanten Strukturen beobachtet werden, die eine geringere horizontale Ausdehnung als 50 km hatten. Mit dem Ende der vorliegenden Arbeit ist weder die Entwicklung des Instrumentes noch die Interpretation des 1999 gewonnenen Datensatzes abgeschlossen. So ist neben einer neuen Datenerfassung für Temperaturen auch eine Erweiterung von Kanal 1 des Gaschromatographen in Planung. Neben SF 6 soll in Zukunft auch noch CH 4 mit einer Zeitauflösung von etwa 90 s gemessen werden. Zudem soll mit einer verbesserten Druckregelung für den Kessel die Präzision insbesondere der CO 2 -Messungen optimiert werden. Die Präzision der Daten von Halon-1211 sowie SF 6 sind mit 5 % bisher nicht zufriedenstellend. Grund hierfür ist letzlich die Tatsache, dass das Signal-Rausch-Verhältnis für diese beiden Substanzen aufgrund ihrer geringen Mischungsverhältnisse von nur einigen ppt in der Stratosphäre sehr schlecht ist. Aus diesem Grunde wurde eine neue Auswertemethode entwickelt und innerhalb des Softwarepakets zur Datenauswertung (NOAH-Chrom) realisiert. Bei dieser Methode werden die Peaks durch Gauß-Funktionen angenähert. Erste Tests verliefen vielversprechend, zeigen jedoch, dass der Einsatz der Methode noch eine Menge Detailarbeit erfordert. Aus diesem Grunde steht eine vollständige Auswertung des HAGAR-Datensatzes für diese beide Substanzen noch aus; die Methodik ist jedoch im Anhang erläutert. Die in dieser Arbeit dargestellten Analysen sollten als Wegweiser für weitere Untersuchungen und Diskussionen dienen können. So wird insbesondere die Diskussion um die Altersbestimmung wieder aufgenommen werden müssen, wenn sowohl endgültige SF 6 -Daten von HAGAR als auch neue Daten über den aktuellen troposphärischen Trend von SF 6 aus dem NOAA/CMDL- Netzwerk vorliegen. Einen weiteren Schwerpunkt wird die Untersuchung der Mischung über den Rand des Polarwirbels hinweg bilden, wobei sich insbesondere die Frage nach der Höhenabhängigkeit der Mischung stellt. Hier sind insbesondere auch Modellstudien möglich, denen mit den HAGAR-Daten eine weit präzisere und vor allem höher aufgelöste Eingangsdatenbasis zur Verfügung steht, als sie etwa aus Satellitendaten gewonnen werden kann. Von besonderem Interesse ist dabei ein Phänomen, das in den HAGAR-Daten, aber auch bereits in einem Datensatz der ER-2 von 1994 zu beobachten ist: So weicht die F11-N 2 O-Korrelation im Bereich des Polarwirbels für F11-Mischungsverhältnisse zwischen 40 ppb und 170 ppb nach unten von der normalen, aus mittleren Breiten bekannten Korrelation ab (vgl. Abbildung 7.5 auf Seite 142). Dies ist möglicherweise auf noch nicht vollständig verstandene Mischungsprozesse zurückzuführen. In jedem Falle ist damit zu rechnen, dass der im Jahre 1999 von HA-GAR an Bord der Geophysica aufgezeichnete umfangreiche Datensatz weitere Schritte hin zu einem differenzierteren Verständnis des stratosphärischen Transportes einleiten wird.
In der rezensierten Monographie gelingt es, "New Public Management" als strategisches und politisches Projekt auszudeuten. Die Konsequenzen für die Liegenschaftspolitik können fundiert dargelegt werden. In der Rezension wird eine Einordnung in die bisherige Forschung sowie eine kritische Würdigung der rezensierten Arbeit versucht.
Das Gehirn weist in mehreren Bereichen anatomische Asymmetrien zwischen beiden Hemisphären auf, so auch in Bereichen der Hörrinde. Zudem ist bereits langjährig bekannt, dass menschliche Sprache vorrangig in der linken Gehirnhälfte, d.h. linksseitig lateralisiert, verarbeitet wird. Daraus folgend stellt sich die Frage, ob dies eine besondere Spezialisierung ist, oder ob es noch weitere lateralisierte Hirnfunktionen gibt. Viele akustische Signale haben dabei frequenzmodulierte (FM) Komponenten, die im Hörsystem für die Erkennung nach Parametern wie Richtung und Dauer der Modulation analysiert werden müssen. Ob die Analyse von FM-Komponenten oder einzelner Reizparameter im Gehirn lateralisiert stattfindet, wurde in der Literatur meist mit bildgebenden Verfahren untersucht.
Für das Erkennen und Unterscheiden der Modulationsrichtung weist eine Vielzahl von Studien auf eine erhöhte Aktivität in der rechten Hörrinde hin. Für die Analyse von Stimulusdauern ist es bisher allerdings noch unklar bzw. umstritten, ob diese lateralisiert erfolgt. Für die Untersuchung der Lateralisierung einfacher Sprachkomponenten werden häufig Konsonant-Vokal-Silben (CV-Silben) verwendet. In einer Vielzahl von Studien konnte eine linkslastige Lateralisierung, wie bei der Spracherkennung, gezeigt werden.
In der vorliegenden Arbeit wurde nun untersucht, ob ein eindeutigeres Muster von Lateralisierung zu finden ist, wenn diese in Wahrnehmungsexperimenten, untersucht wird. Dabei wurde ein zu untersuchender Teststimulus (FM-/CV-Stimulus) auf einem Ohr mit einem kontralateralen breitbandigen Rauschen auf dem anderen Ohr gleichzeitig präsentiert. Durch die Struktur der Hörbahn kann dabei davon ausgegangen werden, dass in einer Hemisphäre des Vorderhirns vorrangig Informationen aus dem kontralateralen Ohr verarbeitet und Informationen aus dem ipsilateralen Ohr unterdrückt werden und sich somit Rückschlüsse auf die Funktion/Beteiligung einer Hemishpäre ziehen lassen. Das Rauschen diente dabei zur unspezifischen Aktivierung der gegenüberliegenden Hemisphäre.
Die Lateralisierung wurde systematisch für unterschiedlich komplexe Reize untersucht. Dazu wurden in zwei Versuchsreihen Unterscheidungsexperimente durchgeführt, die sich in mehrere Messungen (mit mehreren Durchläufen) mit unterschiedlichen Parametereinstellungen gliederten. Pro Durchlauf musste sich die Versuchsperson immer zwischen zwei Antwortmöglichkeiten entscheiden (2-AFC-Verfahren). Der Schalldruckpegel des Rauschens war dabei für alle Messungen konstant. Der Schalldruckpegel der Teststimuli blieb zwar während einer Messung konstant, wurde jedoch innerhalb eines Experimentes von Messung zu Messung reduziert.
In einer gemeinsamen Analyse wurden jeweils die Fehlerraten und Reaktionszeiten beider Ohren, getrennt nach Seite und FM-/ CV-Stimulus, miteinander verglichen, um so auf eine mögliche Lateralisierung schließen zu können. Damit die Daten der Versuchspersonen bei vergleichbarer Schwierigkeit analysiert werden konnten, wurde als Vergleichswert zwischen allen Versuchspersonen der Schalldruckpegel der ersten Messung mit einer Fehlerrate von mindestens 15,0 % gewählt (15 %-Kriterium). Um auszuschließen, dass das Hörvermögen der Versuchspersonen Unterschiede zwischen beiden Ohren aufweist, wurde vor jeder Messung der „Punkt subjektiver Gleichheit“ für die Lautstärke-wahrnehmung zwischen linkem und rechten Ohr bestimmt.
In der ersten Versuchsreihe wurde dabei die Verarbeitung der Modulationsrichtung und der Stimulusdauer von FM-Stimuli untersucht. Es zeigte sich für beide Experimente, dass ein sinkender Schalldruckpegel des FM-Stimulus zu einer steigenden Fehlerrate führte. Unter Anwendung des 15 %-Kriteriums waren die Fehlerraten für die Unterscheidung der Modulationsrichtung signifikant geringer, wenn der FM-Stimulus auf dem linken Ohr präsentiert wurde. Dies ist ein deutlicher Hinweis für eine rechtslastige Lateralisierung.
Für die Unterscheidung der Stimulusdauer gab es dagegen keinen signifikanten Unterschied zwischen den Fehlerraten beider Ohren. Somit muss davon ausgegangen werden, dass beide Hemisphären für diese Aufgabe benötigt werden und eine bilaterale Verarbeitung stattfindet. In den Reaktionszeiten konnten in beiden Experimente keine signifikanten Unterschiede gezeigt werden. Die Unterscheidung der Modulationsrichtung wurde dabei von allen Versuchspersonen als einfacher eingestuft als die Unterscheidung der Stimulusdauer, was sich auch in niedrigeren Antwortschnelligkeit und Fehlerraten bei vergleichbaren Schalldruckpegeln zeigte.
In der zweiten Versuchsreihe wurde als Referenzmessung nochmals die Unterscheidung der Modulationsrichtungen von FM-Stimuli durchgeführt. Anschließend wurde die Unterscheidung von „da“ und „ga“ untersucht. Diese CV-Silben differieren ausschließlich in der FM-Komponente. Die Untercheidung von CV-Silben ohne Unterschied in der FM-Komponente wurde mittels „ta“ und „ka“ getestet. Für alle drei Experimente zeigte sich, dass ein geringerer Schalldruckpegel des FM- oder CV-Stimulus zu einer steigenden Fehlerrate führte. Unter Anwendung des 15 %-Kriteriums zeigte sich für die Unterscheidung der Modulationsrichtung ein Trend zu niedrigeren Fehlerraten bei der Präsentation des FM-Stimulus auf dem linken im Vergleich mit dem rechten Ohr. In den Reaktionszeiten konnten keine signifikanten Unterschiede gezeigt werden.
Für die Unterscheidung von „da“ und „ga“ ließ sich unter Anwendung des 15 %-Kriteriums in den Fehlerraten und Reaktionszeiten kein Vorteil eines Ohres nachweisen. Dagegen zeigten sich klare Unterschiede bei einzelnen Versuchspersonen. So waren die Fehlerraten für Versuchspersonen, die vorwiegend „da“ erkannt bzw. gehört hatten signifikant höher, wenn der CV-Stimulus auf dem rechten Ohr präsentiert wurde, für „ga“-Hörer war das Gegenteil der Fall. In den Reaktionszeiten konnte kein signifikanter Zusammenhang nachgewiesen werden. Somit ließ sich zeigen, dass je nach Strategie der Versuchsperson bzw. deren individueller Wahrnehmung der CV-Silben, Unterschiede in der Lateralisierung erreicht werden können.
Für die Unterscheidung von „ta“ und „ka“ zeigten sich unter Anwendung des 15 %-Kriteriums signifikant niedrigere Fehlerraten und Reaktionszeiten, wenn der CV-Stimulus auf dem linken Ohr präsentiert wurde. Dies weist deutlich auf eine rechtslastige Lateralisierung hin. Vergleicht man alle drei Experimente ließ sich zudem zeigen, dass die Unterscheidung der Modulationsrichtung einfacher war als die Unterscheidung verschiedener CV-Stimuli. Dabei war die Unterscheidung von „da“ und „ga“ für die Versuchspersonen schwieriger als die Unterscheidung von „ta“ und „ka“. Allerdings konnte in den Lateralisierungsdaten kein direkter Zusammenhang zwischen den FM- und „da“-/„ga“-Stimuli gezeigt werden.
Zusammenfassend konnte in allen fünf Experimenten eine verschieden stark lateralisierte Verarbeitung von akustischen Stimuli bei gleichzeitigem kontralateralen Rauschen gezeigt werden. Der Vorteil eines Ohres (bzw. einer Hemisphäre) war sowohl von der Aufgabe als auch vom Stimulustyp abhängig. Dabei gab es zum Teil starke Unterschiede in der Effektstärke und dem Grad der Lateralisierung zwischen den einzelnen Versuchspersonen. Insgesamt konnte gezeigt werden, dass sich die hier angewendete psychophysische Methode gut eignet, um Ergebnisse zur Lateralisierung von akustischen Stimuli zu gewinnen und somit die Verhaltensrelevanz von Ergebnissen aus Studien mit bildgebenden Verfahren zu überprüfen.
Ziel der vorliegenden Arbeit war die Untersuchung der Kurzzeitdynamik zirkulierender Tumorzellen bei hepatozellulären Karzinompatienten, die erstmalig eine radiologische Intervention in Form einer transarteriellen Chemoembolisation oder einer Mikrowellenablation als Therapie erhielten. Dafür wurde in Vorversuchen eine neuartige Methode zur Isolation und Detektion von zirkulierenden Tumorzellen entwickelt.
Zugleich sollte ein potenzieller Einsatz dieser Methode als Screeningverfahren für hepatozelluläre Karzinompatienten mithilfe der Sensitivität und Spezifität überprüft werden. Darüber hinaus wurde eine mögliche Korrelation der Kurzzeitdynamik zirkulierender Tumorzellen sowohl mit der Kurzzeitdynamik des AFP-Wertes als anerkannten HCC-Tumormarker, als auch des IL-6-Wertes als aktuell diskutierten Tumormarker analysiert. Ferner wurde die Kurzzeitdynamik zirkulierender Tumorzellen mit dem klinischen Verlauf der Patienten verglichen.
Im Zeitraum von September 2017 bis Juni 2018 konnten Blutproben von 18 Patienten mit einem hepatozellulären Karzinom untersucht werden. Davon wurden zehn Patienten mittels Mikrowellenablation und acht Patienten mittels transarterieller Chemoembolisation behandelt. Daneben wurden Blutproben von 13 gesunden Probanden ausgewertet.
Methodisch wurden jeweils im Anschluss an die Gewinnung des Patientenblutes, vor und unmittelbar nach jeweiliger radiologischer Intervention, die zirkulierenden Tumorzellen aus dem Blut isoliert und die gewonnenen Zellen durch die Durchflusszytometrie nachgewiesen und quantifiziert. Als zirkulierende Tumorzellen wurden dabei jene Zellen betrachtet, die eine Negativität auf den Marker CD45 sowie eine Positivität auf die Marker ASGPR-1, CD146, CD274 und CD90 zeigten.
Durch den Vergleich der Proben vor und nach radiologischer Intervention konnte gezeigt werden, dass die Anzahlen zirkulierender Tumorzellen nach der radiologischen Intervention im Mittel niedriger sind als vor der Therapie. Die Anzahl zirkulierender Tumorzellen sank dabei im Schnitt bei den mit Mikrowellenablation behandelten Patienten stärker im Vergleich zu denen, die eine transarterielle Chemoembolisation erhielten. Dies bestätigte den klinischen Verlauf der Patientengruppen, da die Mortalität der Gruppe, die eine transarterielle Chemoembolisation erhielten deutlich höher war als bei den übrigen Patienten.
Als klinisch einsetzbare Screening-Methode im Sinne einer „Liquid Biopsy“ für das HCC müssen die Sensitivität und Spezifität weitergehend optimiert werden. Eine signifikante Korrelation zwischen der Kurzzeitdynamik der Anzahlen zirkulierender Tumorzellen und der Kurzzeitdynamik der AFP-Werte und der IL-6-Werte konnte nicht festgestellt werden. Entgegen des erwarteten Trends, legte die angewendete Methode, durch das Absinken der zirkulierenden Tumorzellen, die positive Wirkung der transarteriellen Chemoembolisation und der Mikrowellenablation in hepatozellulären Karzinompatienten dar.
Im Rahmen des BIOKLIM-Projekts wurden im Nationalpark Bayerischer Wald Daten zu verschiedenen Tier- und Pflanzenarten sowie Umweltfaktoren erhoben. Die folgende Auswertung beschränkt sich auf die Weichtiere (Gastropoda, Bivalvia). Ziel war es, herauszufinden, welche Umweltfaktoren die Arten- und Individuenanzahlen beeinflussen, was die Lebensgemeinschaften steuert und welche Parameter sich auf ausgewählte Einzelarten auswirken. In Quasi-Poisson-Modellen haben sich als Einflussgrößen für die Individuenanzahl Höhe, Alter, Magnesium und pH-Wert feststellen lassen. Auf die Artenanzahl wirkte sich der Vegetationsreichtum, die Höhe und der Managementtyp aus. Die Einzelarten werden von sehr unterschiedlichen Faktoren beeinflusst. Die Lebensgemeinschaften werden vor allem von der Höhe über dem Meeresspiegel, der Temperatur und dem Auflichtungsgrad bestimmt, was sich in verschiedenen Ordinationsverfahren gezeigt hat.
Mutationen in Blutstammzellen müssen nicht unbedingt zu Blutkrebs führen. Erst vor Kurzem hat man entdeckt, dass Klone mutierter Blutzellen bei vielen gesunden Menschen im Alter nachweisbar sind. Dennoch stufen Forscher die klonale Hämatopoese inzwischen als Risikofaktor für Herz-Kreislauf-Erkrankungen ein – mit einer ähnlichen Bedeutung wie Rauchen, Übergewicht oder Bluthochdruck.
Nanotechnologie
(2016)
Die Nanotechnologie behauptet ihren Status als Schlüsseltechnologie der Zukunft seit geraumer Zeit und sie tut dies mit gehörigem Aufwand. Sie gilt, wie weit über den wissenschaftlichen Bereich hinaus zu lesen ist, als Zukunftschiffre schlechthin. Ihre Verheißungen sind weitreichend und werden entsprechend vollmundig vorgetragen, betreffen sie doch grundlegend neue Möglichkeiten in der Gestaltung technischer Um- und menschlicher Lebenswelten. Nicht zuletzt das Zusammengehen mit anderen zukunftsträchtigen Techniken und ihr Zusammenschluss in der so genannten NBIC-Konvergenz ('nano', 'bio', 'info' und 'cogno') steigern diese Potentiale um ein Beträchtliches. Die Liste der an Nanotechnologie geknüpften Versprechen ist beeindruckend, scheint sie doch Lösungen für sämtliche Zukunftsprobleme anzubieten. Diese betreffen Rohstoffbewirtschaftung und Energieversorgung, Produktion und flächendeckende Verfügbarkeit von Nahrungsmitteln, politische Teilhabe aller bis hin zur Realisation des Weltfriedens, umfassenden Umweltschutz, Revolution des Gesundheitswesens, Bereitstellung verbesserter Informationstechnologien und handlungsfähiger Materialien.
"Ciaglia Blue Rhino Punktionstracheotomie" : perioperative Komplikationen und Langzeitergebnisse
(2009)
Im klinischen Alltag der Intensivstationen haben sich in den letzten Jahren verschiedene Verfahren der perkutanen Tracheotomie aufgrund ihrer einfachen Durchführbarkeit und dem geringen Komplikationsrisiko gegenüber dem chirurgischen Verfahren durchgesetzt. Die Blue Rhino Technik nach Ciaglia ist eine Methode, bei der zur Anlage des Tracheostomas nur ein einzelner Dilatationsschritt mittels eines, mit einer speziellen hydrophilen Beschichtung versehenen, gebogenen Dilatators notwendig ist. Die vorliegende Arbeit zeigt die Auswertung der Daten von 50 Patienten, die nach dieser Methode tracheotomiert wurden. Die Evaluation beinhaltet neben der Auswertung der peri- und postoperativen Komplikationen, die Ergebnisse einer telefonischen Befragung von 19 Patienten anhand eines standardisierten Fragebogens, hinsichtlich ihrer subjektiven Einschätzung bezüglich Veränderungen der Stimme, Luftnot, Schluckbeschwerden sowie dem kosmetischen Ergebnis des verschlossenen Tracheostomas. Die Ergebnisse wurden mit den in der Literatur vorhandenen Daten der verschiedenen perkutanen Verfahren verglichen, um potentielle Vorund Nachteile der Blue Rhino Technik zu eruieren. Es konnte gezeigt, dass bei der Blue Rhino Methode im Vergleich zu anderen Verfahren keine signifikant höhere perioperative Komplikationsrate auftrat. Die in verschiedenen Arbeitenbeschriebene Häufung an Trachealspangenfrakuren konnten auch wir in unserem Patientengut finden. Einen Beweis für die klinische Relevanz dieser Beobachtung wurde aber bisher in keiner Studie erbracht. Im Gegensatz dazu kann es als gesichert angesehen werden, dass ein höherer BMI ein Risikofaktor ist, der mit einer Erhöhung der perioperativen Komplikationsrate einhergeht. Auch in unserer Untersuchung traten die beiden einzigen schwerwiegenden Komplikationen bei Patienten mit einem BMI deutlich über 30 kg/m2 auf. Postoperative Komplikationen wie Blutungen oder Infektionen des Stomas konnten wir in unserem Patientenkollektiv nicht beobachten. Nach allgemeiner Studienlage treten diese Komplikationen bei den perkutanen Verfahren auch nur in Einzelfällen auf. Die bei der Befragung ein Jahr nach der Tracheotomie gefundenen Veränderungen der Stimme, Heiserkeit und das Vorliegen von Luftnot in verschiedenen Ausprägungen lassen sich bei den meisten Patienten auf ihre Vorerkrankungen zurückführen oder sind Ausdruck einer Schädigung der Stimmbänder durch die vorangegangene orotracheale Intubation. Nur bei 2 Patienten konnten wir eine Trachealstenose nicht sicher ausschließen. Einen schlüssigen Nachweis, dass eine Stenose bei Patienten nach Tracheotomie ursächlich auf die Tracheotomie alleine zurückzuführen ist, konnten wir bei Durchsicht der Literatur nicht finden. Das kosmetische Ergebnis beurteilten die meisten unserer Patienten (79%) als sehr gut bis gut. Unter Beachtung der absoluten Kontraindikationen, die für alle perkutanen Verfahren gültig sind, erfüllt die Blue Rhino Methode nach Ciaglia hinsichtlich der leichten Durchführbarkeit und der niedrigen peri- und postoperativen Komplikationsraten alle Anforderungen, die an ein perkutanes Verfahren gestellt werden.
Ziel der Studie war, die diagnostische Aussagekraft von vier nicht invasiven Nachweisverfahren von Helicobacter pylori (H. pylori) für ein Patientenkollektiv des Universitätsklinikums Frankfurt am Main zu überprüfen. Es wurden der 13CHarnstoff-Atemtest, ein Stuhl-Antigennachweis mittels ELISA, ein Stuhl-Schnelltest sowie ein Urin-Schnelltest untersucht. In die Studie wurden 169 Patienten aufgenommen. Bei allen Patienten wurde eine diagnostische Gastroskopie durchgeführt, um den H. pylori Status mittels Histologie oder Urease-Schnelltest zu definieren - H. pylori positiv waren 52 Patienten, H. pylori negativ 85 Patienten. Bei 32 Patienten konnte kein invasiver H. pylori Nachweis geführt werden. In dieser Studie zählten die Einnahme von PPI, H2-Blocker, Antazida und Antibiotika nicht zu den Ausschlusskriterien. Die Studie bestätigte den aus der Literatur bekannten Einfluss von säurehemmenden Medikamenten auf die diagnostische Aussagekraft nicht invasiver Testverfahren mit direktem Erregernachweis. Eine nicht invasive Diagnostik sollte immer vor dem Beginn einer Therapie mit solchen Medikamenten erfolgen. Alle vier Nachweisverfahren lieferten in dieser Studie hohe Werte für die Spezifität (ELISA 100%, Urin-Schnelltest 96,5%, 13C-Harnstoff-Atemtest 94,7%, Stuhl-Schnelltest 93%). Die in der Studie ermittelten Werte für die Sensitivität waren niedriger als in publizierten Studien bzw. niedriger als die Herstellerangaben. Der ELISA schnitt mit 79,2% am besten ab. Die Sensitivität des Stuhl-Schnelltests lag bei 72,9%, die des 13C-Harnstoff-Atemtests bei 68,8% und die des Urin-Schnelltests 62,5%. Die diagnostische Aussagekraft der vier untersuchten Tests ist als akzeptabel, beim ELISA als gut zu bewerten. Der gerechtfertigte Ersatz der Gastroskopie in der H. pylori Diagnostik durch ein nicht invasives Verfahren reduziert die Kosten beträchtlich.
Ueber Renaissance der Kunst
(1895)
Die Pflanze in der Kunst
(1898)
»Welche sprachlichen Formen sollten Kinder kennen, um gewinnbringend aktuelle Kinder-und Jugendliteratur lesen und verstehen zu können?« (11) Diese Frage stellt die frühere Grund- und Hauptschullehrerin und Lehrerin für Sonderpädagogik Rita Zellerhoff an den Beginn des von ihr vorgelegten schmalen Bändchens, das in der kleinformatigen Reihe »ZOOM – Kultur und Kunst« des Peter Lang Verlages erschienen ist. ...