Refine
Year of publication
Document Type
- Article (13366)
- Part of Periodical (8494)
- Book (5911)
- Doctoral Thesis (3606)
- Part of a Book (2790)
- Review (2562)
- Contribution to a Periodical (2335)
- Working Paper (1016)
- Report (1014)
- Conference Proceeding (511)
Language
- German (43009) (remove)
Keywords
- Deutsch (787)
- Literatur (742)
- Rezension (434)
- Deutschland (388)
- Frankfurt <Main> / Universität (341)
- Rezeption (284)
- Geschichte (258)
- Vorlesungsverzeichnis (224)
- Film (223)
- Hofmannsthal, Hugo von (217)
Institute
- Präsidium (5076)
- Medizin (2336)
- Extern (1768)
- Gesellschaftswissenschaften (1379)
- Rechtswissenschaft (1034)
- Geschichtswissenschaften (916)
- Biochemie und Chemie (887)
- Neuere Philologien (821)
- Wirtschaftswissenschaften (777)
- Physik (695)
Am 30. April und 01. Mai 2005 fand im Hörsaal des Institutes für Geobotanik der Martin-Luther-Universität Halle eine pilzkundliche Fachtagung statt. Die Tagung war zwei Jubiläen gewidmet: dem 50-jährigen Bestehen der Fachgruppe Mykologie Halle und dem 10-jährigen Landesverband der Pilzsachverständigen Sachsen-Anhalts (LVPS).
Anlässlich des 65. Geburtstages von Horst Jage, den er am 30. September 2000 beging, fand ein phytoparasitisches Pilzexkursionswochenende statt. Für den überaus engagierten Botaniker und Mykologen ist es typisch, dass er dieses Ereignis zum Anlass nahm, Freunde mit gleichen Interessen vom 29.9 bis 1.10.2000 ins mittlere Elbetal einzuladen. Besonderes Augenmerk wurde bei der Exkursion auf die Brandpilze gelegt, gewissermaßen nebenbei wurde aber auch eine Fülle weiterer phytoparasitischer Kleinpilze nachgewiesen.
Dem Inzesttabu gilt die Aufmerksamkeit in Verena Richters Beitrag "'C'est comme blasphémer: ça veut dire qu'on y croit encore.' Inzest und 68er-Diskussionen in Louis Malles "Le souffle au coeur" (1971)". Louis Malle inszeniert im Film einen Mutter-Sohn-Inzest vor dem Hintergrund eines französischen Nationalfeiertags. Dieses mit kultureller Bedeutung aufgeladene Setting erlaubt es der Autorin nicht nur, den Inzest vor dem Hintergrund einer kritischen Auseinandersetzung mit der Familienstruktur der bürgerlichen Kleinfamilie zu lesen, sondern als kritische Revision paternalistischer Gesellschaftsstrukturen grosso modo.
What do corpora reveal about ongoing grammaticalization and transitions between word class categories? Everything, something, or nothing? Using the example of the lexemes nicneříkající, nichtssagend, všeříkající and vielsagend the authors examine the syntactic distribution and semantics of participial adjectives. To what extent do the Czech and German equivalents differ? What (if any) effect does the orthography have (i.e. whether the expressions are written as compounds or as chains of separate words)? Is a new form accompanied by a new function? The text presents an analysis of monolingual corpora (SYN, DeReKo) and a parallel corpus (InterCorp).
Emil Staiger und Thomas Mann
(2007)
Im Folgenden geht es um Emil Staigers Sicht auf Thomas Mann, um die oft fehl eingeschätzte, zutiefst ambivalente Haltung, die der berühmte Germanist gegenüber dem noch berühmteren Schriftsteller zeitlebens einnahm. Anregende Anmerkungen finden sich bereits in Thomas Sprechers Buch „Thomas Mann und Zürich“ von 1992. Diese sind aber ganz der Sicht Thomas Manns verpflichtet. Dagegen gibt es bislang keine Darstellung der Staiger’schen Beurteilung Thomas Manns. Nachfolgend werden vier Staiger-Texte aus unterschiedlichen Lebensphasen heraus gegriffen. Neben dem umstrittenen Jugendaufsatz „Dichtung und Nation“ von 1933 und der „Doktor Faustus“-Rezension von 1947 handelt es sich um zwei wenig bekannte Manuskripte aus dem Staiger-Nachlass in der Zentralbibliothek Zürich: einen Text, der vermutlich 1935 im Umkreis von Manns sechzigstem Geburtstag entstanden ist sowie die Vorlesung „Erzähler des 20. Jahrhunderts“, die Staiger im Sommersemester 1965 an der Universität Zürich gehalten hat.
Zürich, 22. März 1937 - im ersten Stock des renommierten Herrenausstatters "London House" probiert Thomas Mann gerade einen neuen Anzug an, als ihn ein Verkäufer informiert, dass im Erdgeschoss Gerhart Hauptmann eingetroffen sei. "Möchten Sie ihn sehen?" Nach kurzem Zögern lehnt Thomas Mann ab - mit den Worten: "Ach, da wollen wir vielleicht doch andere Zeiten abwarten." Replik des Verkäufers: "Genau das hat Herr Hauptmann auch gesagt." Die Zürcher Nicht-Begegnung der beiden Nobelpreisträger ist in verschiedener Hinsicht bemerkenswert. Schließlich handelte es sich nicht nur um die international bekanntesten deutschen Schriftsteller, sondern auch um alte Bekannte. Und jeder von beiden hatte dem anderen manches zu verdanken. Warum also wollten die beiden einander nicht begegnen?
Um die literaturgeschichtliche Bedeutung der Situation im Zürcher Herrengeschäft einschätzen zu können, muss man die gesamte Beziehung zwischen beiden in den Blick fassen. Sie könnte wechselvoller kaum sein. Nach dreißig Jahren kollegialer, phasenweise nahezu freundschaftlicher Verbundenheit brach der Kontakt abrupt ab und wurde bis zu Hauptmanns Tod 1946 nicht mehr aufgenommen. Nach dem Ableben des älteren Kollegen ändert sich Thomas Manns Sicht auf Gerhart Hauptmann jedoch wieder. Und – soviel vorweg – dabei spielten Jubiläumsgeburtstage stets eine wichtige Rolle. Ich gehe zunächst auf die Phase der engen Bekanntschaft ein; im zweiten Teil dann auf die Umstände des Abbruchs der Beziehungen. Dabei soll vor allem der letzte Kontaktversuch genauer analysiert werden. Ein resümierender Blick auf die dritte Phase steht am Ende dieser Überlegungen. ...
Grenzüberschreitungen : Tabu-Wahrnehmung und Lach-Inszenierung in mittelalterlicher Literatur
(2009)
In einem ersten Schritt soll nach ästhetischen Strategien der Wahrnehmung und Inszenierung von Tabu und Tabubruch in hoch- und spätmittelalterlichen Texten aus den Bereichen Roman, Lyrik und Schauspiel gefragt werden. Im ›Parzival‹ Wolframs von Eschenbach, in den Liedern Neidharts,im ›Ring‹ Heinrich Wittenwilers und auch in Nürnberger Fastnachtspielen kommen aggressive sexuelle Handlungen zur Sprache. Im Zentrum der folgenden Ausführungen steht der männliche Übergriff auf den weiblichen Körper, der Griff an das Geschlecht, als symbolische Geste für diesen Typ von Grenzüberschreitung. Schon im ›Parzival‹ ist die Spannung zwischen Strategien der Vermeidung (als Folge gesellschaftlicher Tabuisierung) und Strategien der Wahrnehmung von sexuellen Übergriffen (als Folge ästhetischer Reflexion von Tabuisiertem) als komisches Vexierspiel zwischen Erzählhandlung und Erzählerkommentar erfahrbar. Neidhart gilt als derjenige, der dem unerlaubten Griff einen neuen Kontext, das bäuerliche Milieu, schafft. Seine Liedkunst gewinnt dadurch eine neue Spannungsdimension, eine neue Quelle komischer Effekte und einen neuen Raum der Reflexion. Das Tabu des sexuellen Übergriffs scheint in der Welt der Bauern nicht mehr von Bedeutung; als ein gravierender Akt der Störung von sozialen Vereinbarungen existiert es jedoch fort. Die triebgesteuerte Bauernwelt ist dann im ›Ring‹ auf der einen Seite mit der Sphäre gelehrten Wissens konfrontiert, auf der anderen in eine Perspektive von Krieg und Selbstvernichtung gerückt. Motive aus Neidharts Liedern, auch der sexuelle Übergriff, rücken auf diese Weise in eine andere Wahrnehmungsperspektive. Kultureller Kontext der Fastnachtspiele ist die Fastnacht als Fest der Grenzüberschreitung und der Verkehrung. Die Imagination von aggressivem sexuellem Verhalten, auch und gerade von Übergriffen der besprochenen Art, ist ein wichtiges Element der temporären Suspendierung von körperbezogenen Tabus.
Viel wurde bereits über die Natur des Netzes diskutiert. 2010, nachdem Angela Merkel auf dem IT-Gipfel in Dresden im Rahmen der Urheberrechtsdebatte sagte, das Internet dürfe kein rechtsfreier Raum sein. 2013, nachdem Angela Merkel ihren berühmten Satz beiläufig zum Besuch des US-Präsidenten Barack Obama über das #Neuland fallen lies. Die selbstbewusst zur Schau gestellte Ahnungslosigkeit schockierte nicht nur Netzaktivisten und -Experten.
Die anhaltende Beliebtheit elektronischer Datenverarbeitung hat dazu geführt, dass Daten uns in unseren Alltag immer wieder unterschiedlich begegnen. Dadurch hat sich ein breites Begriffsfeld entwickelt: Inhaltsdaten, Metadaten, personenbezogene und anonyme Daten, Big Data, Datenklau, Datenschutz und Datenkraken, um nur einige zu nennen. Doch um Daten wird nicht nur wirtschaftlich gekämpft, sondern auch politisch...
Ransomware wie WannaCry und Petya/NotPetya versetzten weltweit Unternehmen in Sorge und verursachen erheblichen Schaden. Dabei sind sie nur der sichtbare Teil einer unzureichenden Sicherheitskultur, die dringend ein Update benötigt.
Ransomware, auch Kryptotrojaner genannt, sind kein neues Phänomen, sondern die zunehmend sichtbare Begleiterscheinung kollektiver IT-Unsicherheit. Die Ransomware WannaCry infizierte Mitte Mai weltweit mindestens 220.000 Windows Rechner. Dabei verschaffte sich der Trojaner Zugang zu den Dateien der Computer und verschlüsseln diese um eine Lösegeldzahlung zu erpressen. Dies war möglich über die als EternalBlue bekannte Lücke, die seit dem Betriebssystem Windwos XP auftrat und erst in diesem Jahr im Februar durch Microsoft geschlossen wurde. EternalBlue war für eine unbekannte Zeit in den Händen der NSA bis sie Anfang dieses Jahres durch eine Hackergruppe namens Shadow Brokers von der NSA „gestohlen“ und veröffentlicht wurde. Und obwohl Microsoft eiligst einen Patch veröffentlichte, offenbarten die bisher folgenreichsten bekannte Kryptowurm das Dilemma, in dem sich die Cyber-Sicherheitskultur aktuell befindet: Es ist eine Kultur des Schweigens, die dazu führt, dass das Sammeln und der Missbrauch von Sicherheitslücken gefördert statt verhindert wird....
Im Jahr 2011 beging der Landschaftspflegeverband Harz e.V. (LPV Harz) sein 20-jähriges Bestehen. Die Gründung des ersten Landschaftspflegeverbandes in Sachsen-Anhalt geschah nicht zufällig im Harz. Das kleine Mittelgebirge ist für seine außergewöhnliche landschaftliche und natürliche Vielfalt bekannt. Experten verschiedenster Fachrichtungen, Einheimische und Gäste wissen sie gleichermaßen zu schätzen. Extensive Landnutzung über viele Jahrhunderte hat eine attraktive und naturschutzfachlich wertvolle Kulturlandschaft entstehen lassen.
In Menschenobhut können junge von Menschenhand aufgezogene Dachse sehr zahm werden. Daher kennt man eine Eigenheit der Dachsheit, auf die es mir hier ankommt: Man kann Dachse nur bedingt erziehen. Sie reagieren nämlich nicht auf negative Verstärker, wie man im Fachjargon all jene Bestrafungstechniken von Ausschimpfen, Futterentzug über Prügel bis zu Elektroschocks nennt, die immer noch die Grundlage fast jeder Dressur, sei es im Zirkus, im Pferdesport oder Hundespektakel bilden. Der Verhaltensforscher Irenäus Eibl-Eibesfeldt ist an dieser Eigenheit des Dachses im Falle seines von Hand aufgezogenen zahmen Dachses schier verzweifelt, bis er erkannte: Dass es Tiere gibt, die die Reaktion auf den negativen Verstärker nicht in ihrem Verhaltensprogramm haben und somit undressierbar sind. Eibl mochte seinen Dachs aber trotzdem, und nachdem er es aufgegeben hatte, dem Dachs das freie Geruchsmarkieren im Haus verbieten zu wollen, gestaltete sich das Zusammenleben auch wieder ohne Verzweiflung. Damit bin ich bei meinem Titel angekommen: Reden wie ein Hund - Pfeifen wie eine Maus - Lernen wie ein Dachs. Über abgebrochene Serien des Tier-Werdens in Kafkas Erzählungen. Das Vorhaben ist der Versuch, anhand dreier Erzählungen Kafkas - nämlich die 'Forschungen eines Hundes', 'Josefine, die Sängerin' und 'Der Bau' - eine Art Entwicklungslinie im Tier-Werden Kafkas aufzuzeigen, die mit dem unerziehbaren Dachs abbricht, aber damit nicht, wie man Kafka oft unterstellt hat, im unentschiedenen Nichts landet, sondern einen Ausweg zeigt, mit dem man leben kann. Das hoffe ich zum Ende deutlich machen zu können.
Stickstoffmonoxid (NO) ist ein gasförmiger Botenstoff, der auf die Regulation des Gleichgewichts der Haut einwirkt. Ein NO produzierendes Enzym in der Haut ist die endotheliale NO- Synthase, deren Aktivität unter anderem durch Caveolin-1 und das 2002 von Zimmermann et al. neu identifizierte Protein Nostrin (=eNos traffic inducer) reguliert wird. Im Rahmen der vorliegenden Arbeit gelang der immunhistologische Nachweis von Nostrin in menschlicher Haut und in den Zellkulturlinien von HaCaT, Melanozyten, HEK und G361. In allen 138 Gewebeproben gesunder und kranker menschlicher Haut wurde Nostrin immunhistologisch mit einem polyklonalen Nostrin Antikörper und immunhistologischer Polymere in der Epidermis nachgewiesen. In gesunder Haut (14 Präparate) war Nostrin in allen Schichten der Epidermis gleichmäßig entweder homogen oder punktförmig verteilt. Bei den histologischen Schnitten von Patienten, die an Psoriasis (20 Präparate) und atopischer Dermatitis (22 Präparate) litten, kam es zu einem Verlust von Nostrin in den basalen Schichten der Epidermis und einer Anreicherung in den oberen Schichten. Zusätzlich lagen das punktförmige und homogene Färbemuster parallel vor, wobei das Stratum granulosum bevorzugt punkförmig und alle anderen Schichten bevorzugt homogen angefärbt waren. Bei den Schnitten von Patienten, die an einer aktinischen Keratose (15 Präparate) oder Morbus Bowen (20 Präparate) litten, war eine ähnliche Veränderung gegenüber der gesunden Haut wie bei den entzündlichen Dermatosen zu beobachten. Bei entzündlichen Dermatosen und Präkanzerosen liegt eine Proliferations- und Differenzierungsstörung vor, so dass Nostrin möglicherweise diese entweder mit beeinflusst oder durch diese beeinflusst wird. Tumorzellen von spinozellulären Karzinomen (SCC) (18 Präparate), Basalzellkarzinomen (BCC) (12 Präparate) und malignen Melanomen (MM) (17 Präparate) enthielten scheinbar weniger Nostrin als nicht entartete Zellen. Insgesamt waren die SCC mit einem Mittelwert von 54% und einem Median von 63,5% gegenüber den BCC mit einem Mittelwert von 30% und einem Median von 33% und den MM mit einem Mittelwert von 7,8% und einem Median von 5% am Nostrin reichsten. Es ist bekannt, dass NO an der Entartung von Zellen beteiligt sein kann, denn es hat sowohl einen fördernden als auch einen hemmenden Effekt auf die Tumorzellbiologie (Weller et al. 2002, Xu et al. 2002). Die immunhistologische Färbung der Dermis zeigte, dass das kollagene Bindegewebe kein Nostrin aufweist und dass Haarschäfte, Schweiß- und Talgdrüsen Nostrin reich sind. Gefäße zeigten entgegen den Beobachtungen an Endothelzellkulturen nur eine sehr geringe Expression von Nostrin. In den vier Zellkulturen konnte mit einem monoklonalen Nostrin Antikörper und einem Fluoreszenz gekoppelten Zweitantikörper Nostrin nachgewiesen werden. Die Keratinozytenzelllinie HaCaT wies sehr viel Nostrin auf, das vesikulär oder filamentartig verteilt war. Bei der Tumorzelllinie HEK war viel weniger Nostrin sichtbar. Auch die Melanozyten und Melanomzellen (G361) enthielten weniger Nostrin als HaCaT. Die Beobachtungen entsprechen den Ergebnissen der Schnittpräparate von gesunder und kranker Haut. Die vier Zelllinien wurden zusätzlich mit einem polyklonalen Antikörper gegen Caveolin-1 angefärbt. Caveolin-1 konnte in allen vier Zelllinien nachgewiesen werden und kolokalisiert partiell mit Nostrin an Vesikeln im perinukleären Raum. Die Ergebnisse lassen vermuten, dass Nostrin auch in der Haut Einfluss auf die NO Produktion hat und somit an der Pathologie der Hautkrankheiten mitbeteiligt sein kann.
Über das Verhältnis von Germanistik und universitärem Spracherwerb geht es in dem Beitrag von Andrea Riedel von der Universität Lissabon. Ihre Überlegungen zielen auf eine Umstrukturierung des universitären DaF-Unterrichts, der so erneuert auch die Germanistik unterstützt und Literatur schon auf Anfängerniveau berücksichtigt.
Charakterisierung prolylhydroxylase-vermittelter Effekte in der Physiologie von Glioblastomen
(2006)
Der Transkriptionsfaktor HIF übernimmt eine Schlüsselrolle in der Adaption an Hypoxie. In der Tumorgenese werden dem HIF-System in Abhängigkeit von HIF-Proteinmengen sowohl pro- als auch anti-tumorigene Effekte zugeschrieben. Die Regulation von HIF-Proteinmengen erfolgt maßgeblich über vier Mitglieder der Enzymfamilie der 2-Oxoglutarat-abhängigen Dioxygenasen, PHD1-4. Aufgabe dieser Arbeit war die Charakterisierung prolylhydroxylase-vermittelter Effekte in der Physiologie von Glioblastomen. Es konnte gezeigt werden, dass sich die vier PHD-Orthologe in ihrer zellulären Lokalisation in Glioblastomzellen unterscheiden. Während PHD1 nukleär sowie perinukleär und PHD2 eher homogen verteilt in Zytoplasma und Nukleus zu finden waren, zeigten PHD3 und PHD4 eine exklusiv perinukleäre Lokalisation. Kolokalisations-Studien der PHDs mit subzellulären Strukturen ergab vor allem ein hohes Maß an Kolokalisation der Orthologe PHD1, PHD3 und PHD4 mit den Mitochondrien. Weiterhin variierten die mRNA-Expressionshöhen der PHDs in verschiedenen Glioblastomzelllinien, wobei PHD1 und PHD2 die höchste Expression aufwiesen und PHD4 die niedrigste. Zudem induzierte Hypoxie die mRNA-Expression von PHD2 und PHD3, wobei die PHD3-Induktion bis zu zwei Log-Stufen umfasste. Auch auf Proteinebene bestätigte sich die Hypoxie-Induzierbarkeit von PHD2 und PHD3, während Proteinmengen der anderen beiden Orthologe davon nicht beeinflusst wurden. Überexpressions- sowie Knockdown-Studien identifizierten PHD2 als ein HIF-1alpha-Zielgen, während PHD3 durch HIF-1alpha und HIF-2alpha reguliert wurde. Trotz ihrer O2-Abhängigkeit behielten die PHDs, insbesondere PHD2 und PHD3, auch unter niedrigen pO2 ihre enzymatische Aktivität und reduzierten effektiv HIF-Proteinmengen sowie -Zielgenexpression. Des weiteren übernehmen die PHDs eine anti-apoptotische Rolle, da PHD-Inhibierung zu erhöhter, PHD-Überexpression dagegen zu reduzierter Apoptose-Induktion führte. Offenbar agieren die PHD-Orthologe in Glioblastomzellen als negatives Feedback-System, das über effektive und gleichzeitig variable Regulation von HIF-Leveln, bzw. -Aktivität das Gleichgewicht zwischen Zell-Überleben und Zelltod entscheidend beeinflusst.
Das Monitoring von Ökosystemeigenschaften leistet einen wichtigen Beitrag zur Renaturierung von Ökosystemen. Dabei ist es entscheidend, nicht nur Vegetationsdaten, sondern auch Standortfaktoren, wie zum Beispiel Licht, direkt zu erfassen. Das Projekt "Dynamisierung der Donauauen zwischen Neuburg und Ingolstadt" (Bayern) wurde mit der Zielsetzung implementiert, das typische Flutungsregime und die damit verbundenen Grundwasserschwankungen eines naturnahen Auwaldes wiederherzustellen. Ein Teilprojekt des darauf abgestimmten Monitoringprogramms konzentriert sich seit 2007 auf die Beobachtung von Vegetationsveränderungen an einem neu angelegten Umgehungsgewässer, die entlang von rechtwinklig zum Gewässer verlaufenden Transekten erfasst werden. Hierbei wurde der Standortfaktor Licht anhand der sogenannten "Wörlein-Skala" abgeschätzt. Das Ziel dieser Arbeit war es, eine quantitative Methode auf der Basis der digitalen Hemisphärenphotographie zu entwickeln, die genauere Ergebnisse als die Schätzung liefert und dabei zeitsparend und flexibel eingesetzt werden kann. Aufgrund der so erhobenen Daten sollten folgende Fragen beantwortet werden: (1) Liefert die Wörlein-Skala im Vergleich zu den Messdaten eine verlässliche Datengrundlage? (2) Stellen Ellenberg-Lichtzeigerwerte eine sinnvolle Alternative zur direkten Messung oder Schätzung des Standortfaktors Licht dar? In einer Vorstudie wurde die Vergleichbarkeit spezieller Kameraaufbauten unter verschiedenen Umweltbedingungen getestet. Die Bearbeitung der digitalen Photographien erfolgte mit dem Programm "SideLook" zur Schwellenwertermittlung und der Modellierungssoftware "Gap Light Analyzer". Die Prüfung der Verlässlichkeit der Wörlein-Skala und der Ellenberg-Zeigerwerte erfolgte anhand von induktiver Statistik. Der Methodenvergleich ergab deutliche Unterschiede in der Erfassung des Standortfaktors Licht im Auwald: Die Wörlein-Skala repräsentierte die aus den Photographien abgeleiteten Messwerte relativ gut, nur die Schätzungen für die schattigeren Bereiche waren weniger gut aufgelöst. Die Ellenberg-Lichtzeigerwerte korrelierten nur schwach mit den Messwerten sowohl bei logarithmischer Korrektur der Deckung, als auch bei Gewichtung entsprechend der Deckung der Pflanzenarten. Zusammenfassend erfüllt die digitale Hemisphärenphotographie die meisten Anforderungen an Messungen des Standortfaktors Licht. Die Wörlein-Skala kann als verlässliche Alternative betrachtet werden, solange ihr logarithmischer Verlauf entsprechend des Weber-Fechner`schen Gesetzes beachtet wird. Der Ellenberg-Zeigerwert eignet sich dagegen weniger zur Erfassung des Standortfaktors Licht in Auwaldgebieten.
Die Feminisierung der Migration ist trotz ihrer verspäteten öffentlichen Wahrnehmung kein neues Phänomen: Seit den Anfängen der Arbeitsmigration immigrierten Frauen nicht nur als 'Anhängsel' ihrer Männer, sondern auch selbständig in die deutschsprachigen Länder. In der Öffentlichkeit werden sie bis heute, von stereotypen medialen Zerrbildern beeinflusst, als Opfer wahrgenommen, als die fremde Frau, die sprach- und chancenlos ist. Der Beitrag untersucht vor diesem Hintergrund und am Beispiel von Julya Rabinowichs Roman 'Die Erdfresserin' (2012) die weibliche Identitätssuche unter den Bedingungen der nicht-privilegierten Formen der Migration nach Österreich und im Spannungsfeld von Ethnizität, Kultur, Geschlecht und Klasse.
Franz Fühmann gehört zu den profiliertesten deutschsprachigen Schriftstellern aus der zweiten Hälfte des 20. Jahrhunderts. Im Rahmen seines Gesamtwerkes nimmt das Thema 'Griechenland' - namentlich die Zeit der Okkupation - einen beträchtlichen Raum ein; ja, Fühmann ist sogar derjenige DDR-Autor, der sich am intensivsten damit befasst hat.
Die Besatzung Griechenlands im Zweiten Weltkrieg ist ein Thema, das gerade im Kontext der krisenhaften Erschütterungen in der Europäischen Union und der mannigfachen Spannungen innerhalb des deutsch-griechischen Verhältnisses im zweiten Jahrzehnt des 21. Jahrhunderts von erheblicher historisch-politischer Brisanz ist; ihre literarischen Gestaltungen sind wichtige Dokumente zeitgenössischer Reflexion und sollten Anregungen geben für das Problembewusstsein späterer Generationen. Zugleich aber sind diese Gestaltungen Teil eines schriftstellerischen Gesamtwerkes, und im Falle Franz Fühmanns ist insbesondere zu fragen, ob sich das Erlebnis Griechenlands – über seine Bedeutung für die Auseinandersetzung mit Krieg und Faschismus in den Erzählungen bis 1965 hinaus - auch im Schaffen der Folgezeit niedergeschlagen hat.
Franz Fühmann wurde am 15. Januar 1922 in Rochlitz an der Iser (Rokytnice nad Jizerou) im Riesengebirge geboren und starb am 8. Juli 1984 in Berlin. Anfang der fünfziger Jahre war er zunächst als Lyriker, ab 1955 auch als Erzähler bekannt geworden. Seit Mitte der sechziger Jahre wandte sich der Schriftsteller der antiken Mythologie zu (der Nacherzählung der Homerischen Epen unter dem Titel Das Hölzerne Pferd, dem 'mythologischen Roman' Prometheus sowie mehreren Erzählungen und dramatischen Texten) und schrieb eine Anzahl programmatischer Essays - darunter Das mythische Element in der Literatur (1974).
Die übergreifende theoretisch-historische Fragestellung für die folgenden Ausführungen lautet: Warum wird die Antike rezipiert? Konkret handelt es sich um Wandlungsprozesse in der zweiten Hälfte des 18. Jahrhunderts in Deutschland, die von Winckelmann ausgingen, an der zahlreiche Intellektuelle dieser Zeit Anteil hatten und die im weimarisch-jenaischen Kulturkreis kulminierten - bei Schriftstellern und Gelehrten, die mehr oder weniger lange und mehr oder weniger enge Verbindungen mit Thüringen hatten (auch wenn manche ihrer Äußerungen schon vor oder erst nach ihrer Thüringer Zeit lagen). Die auffallendste Wandlung in der europäischen (mit besonderem Nachdruck in der deutschen) Antikerezeption des 18. Jahrhunderts ist die Verlagerung des Schwerpunktes von Rom auf Griechenland (und zwar auf Athen bzw. auf ein von Athen her bestimmtes Griechentum) - eine Wandlung, die zugleich die Wende von einer primär politischen zu einer vorrangig kulturellen Antikerezeption bedeutete. Ich werde darauf eingehen, das Problem aber einem anderen Aspekt unterordnen: der Frage nämlich, ob die Beziehung zum Altertum in erster Linie die Ästhetik und Poetik oder die Geschichtsphilosophie, Anthropologie und Ethik betrifft, ob sie der Kunstschönheit oder dem Menschenbild gilt, ob sie auf eine Normativität des Stils und der literarischen Gattungen oder auf eine Aufnahme von Stoffen und Motiven zielt. Es soll demnach vor allem untersucht werden, ob es sich um eine detaillierte, punktuelle, selektive oder um eine universelle Rezeption handelt und ob die imitatio von musterhaften künstlerischen Werken sowie die Befolgung allgemeinverbindlicher kunsttheoretischer Lehren oder die Affinität zum Leben, zur Geschichte, zur Kultur und zum Mythos - also zur Antike als einer ganzheitlichen Erscheinung - ausschlaggebend ist.
Schiller sagt in seinem - laut Thomas Mann - "tiefsten und glänzendsten Essay": "Der Dichter [...] ist entweder Natur, oder er wird sie suchen. Jenes macht den naiven, dieses den sentimentalischen Dichter." Der naive Poet könne sich auf die "Nachahmung des Wirklichen" beschränken und habe deshalb "zu seinem Gegenstand auch nur ein einziges Verhältnis"; Aufgabe des sentimentalischen Schriftstellers hingegen sei "die Darstellung des Ideals", und hierfür gebe es "drei [...] mögliche Arten": "Satyre, Elegie und Idylle". Schiller verwendet hier Bezeichnungen für literarische Gattungen, die aus der Antike stammen und im 18. Jahrhundert noch in hohem Ansehen standen, betont aber mehrfach, daß er diese Bezeichnungen "in einem weiteren Sinne [...] als gewöhnlich" verstehen wolle: nämlich als "Empfindungsweise[n]" oder "Dichtungsweise[n]". Der satirische Dichter schildere "die Entfernung von der Natur und den Widerspruch der "Wirklichkeit mit dem Ideale"; der elegische Dichter setze "die Natur der Kunst und das Ideal der Wirklichkeit [...] entgegen" und stelle dabei die "Natur" als "verloren" und das "Ideal" als "unerreicht" dar; der idyllische Dichter schließlich gestalte die "Uebereinstimmung" zwischen Ideal und Realität (20,436-467).
Schiller hat damit den in den drei literarischen Gattungen dominierenden Merkmalen eine übergreifende Bedeutung gegeben. Gewiss treten die einzelnen künstlerischen Verfahrensweisen nicht rein auf und sollten deshalb nicht verabsolutiert werden - der Dichter selbst hat in seinen Werken diese Elemente durchaus miteinander vermischt Dennoch hat er - wie schon bei der grundsätzlichen Unterscheidung zwischen "naiver" und "sentimentalischer" Dichtung - heuristisch äußerst fruchtbare Distinktionen getroffen. Ich möchte seine Untergliederung zum Ausgangspunkt nehmen, um eine konkrete Problematik des Schillerschen Werkes zu untersuchen - nämlich das Verhältnis zwischen idyllischen und elegischen Zügen in seinem Antike-, insbesondere seinem Griechenbild - und darüber hinaus die Vielschichtigkeit dieses Bildes überhaupt herausstellen. (Satirische Elemente sind seinem Werk nicht fremd, spielen aber keine dominierende Rolle.)
Die vorliegende Arbeit liefert einen Beitrag zum besseren Verständnis des stratosphärischen Transports. Dieser ist ein wichtiger Parameter im komplexen gekoppelten System der Stratosphäre, das neben dem Transport vor allem von Chemie und Strahlungshaushalt geprägt wird. Neben verschiedenen Modelliertechniken bietet die Messung langlebiger Spurengase das effektivste Werkzeug für Untersuchungen von stratosphärischen Transportprozessen. Daher wurde am Institut für Meteorologie und Geophysik an der Universität Frankfurt ein Instrument zur in-situ-Messung von Spurengasen entwickelt, das sowohl an Stratosphärenballonen als auch auf dem russischen Höhenforschungsflugzeug M-55 "Geophysica" Echtzeitmessungen von Spurengasmischungsverhältnissen durchführen kann. Der "High Altitude Gas Analy- ser" (HAGAR) ist in der Lage, mit einem Zwei-Kanal-Gaschromatographen die Mischungsverhältnisse von N 2 O, F12, F11 und Halon-1211 mit einer Zeitauflösung von 90 s und das von SF 6 alle 45 s zu bestimmen. Ein an die speziellen Gegebenheiten von Stratosphärenmessungen angepasster CO 2 -Sensor der Firma LI-COR erreicht eine Zeitauflösung von ca. 10 s. Im Rahmen dieser Arbeit wurden entscheidende Beiträge zur Entwicklung von HAGAR geleistet. Für die Steuerung des Instruments auf Basis eines Industrie-PCs wurde ein umfangreiches Softwarepaket entwickelt, das die zuverlässige vollautomatische Steuerung des Instruments, sowie eine komfortable Konfigurationsmöglichkeit bietet. Nach einem ersten Ballontestflug am 13.5.1998 wurde das Instrument vollständig neu aufgebaut, um einen Sensor zur Messung von CO 2 zu integrieren. Des Weiteren wurden eine Reihe von Verbesserungen und Anpassungen durchgeführt, die für den Betrieb an Bord der Geophysica notwendig waren. Im Zeitraum von Dezember 1998 bis Oktober 1999 nahm HAGAR an drei Messkampagnen teil. Im Rahmen von APE-ETC ("Airborne Platform for Earth Observation - Extensive Test Campaign") wurde das Instrument erstmals an Bord der Geophysica montiert und eingesetzt. Trotz einer Reihe von kleineren Schwierigkeiten erwies sich das HAGAR-Konzept als gut ge- eignet für den Einsatz an Bord eines Höhenforschungsflugzeugs. So konnten zumindest während drei von sechs Testflügen Daten aufgezeichnet werden. Im Februar/März 1999 war HAGAR Teil der Geophysica-Nutzlast während der Messkampagne APE-THESEO ("Airborne Platform for Earth Observation - The Contribution to the Third European Stratospheric Experiment on Ozone"), die Mahè/Seychellen als Basis nutzte. HAGAR konnte hier während ca. 30 Flugstunden Daten aufnehmen. Dabei konnte ein umfangreicher Datensatz vor allem im Bereich der tropischen Tropopausenregion gewonnen werden. Die Tropen sind von besonderer Bedeutung für den stratosphärischen Transport, unter anderem da hier der Haupteintrag von troposphärischer Luft in die Stratosphäre stattfindet. Der Untersuchung des antarktischen Polarwirbels in der Phase des maximalen Ozonabbaus war die Messkampagne APE-GAIA ("Airborne Polar Experiment - Geophysica Aircraft in Antarctica") gewidmet, die im September und Oktober in Ushuaia/Argentinien stattfand. Als südlichste Stadt der Erde bietet Ushuaia die beste geographische Lage, um den stratosphärischen Polarwirbel mittels Flugzeugmessungen zu untersuchen. HAGAR arbeitete zuverlässig während aller wissenschaftlichen Flüge und einem Testflug in Ushuaia. Zusätzlich konnte während sechs Transferflugetappen zwischen Sevilla und Ushuaia zumindest für einen Teil der Substanzen Daten aufgezeichnet werden. Insgesamt liegen für etwa 60 Flugstunden Daten vor, darunter auch erstmals ein hochaufgelöstes Vertikalprofil im Polarwirbel, dass von über 20 km Höhe bis hinunter zur Tropopausenregion reicht. Für ein neu entwickeltes Messinstrument wie HAGAR ist eine Validierung der Daten sehr wichtig. Da eine direkte Validierung durch parallele Messungen nicht möglich war, musste auf ältere, vergleichbare Datensätze zurückgegriffen werden, die anhand des troposphärischen Trends korrigiert wurden. Als Vergleich dienten Datensätze der in-situ-Gaschromatographen GhOST und ACATS, der kryogenen Luftprobensammler und des CO 2 -Instrumentes der Harvard University. Dabei zeigte sich stets eine gute bis sehr gute quantitative Übereinstimmung der Daten. Auch die Präzision der Messungen, die bereits endgültig ausgewertet wurden, sind sehr zufriedenstellend und zumindest vergleichbar mit denen von "etablierten" Instrumenten. So war die Präzision für N 2 O, F12 und F11 zumeist deutlich besser als 1 %. Für CO 2 konnte die Präzision für APE-GAIA auf 0,15 ppm bzw. 0,05 % verbessert werden. Die Präzision der vorläufigen Daten von Halon-1211 und SF 6 beträgt bisher etwa 5 %. Der im Jahre 1999 von HAGAR aufgenommene Datensatz bietet umfangreiche Möglichkeiten zur wissenschaftlichen Analyse. Nur exemplarisch sind daher die Punkte zu sehen, die in dieser Arbeit diskutiert werden. Das mittlere Alter der Luft kann als die Zeit beschrieben werden, die die Bestandteile eines Luftpakets im Mittel benötigten, um von der tropischen Tropopausenregion an seine aktuelle Position in der Stratosphäre zu gelangen. Zur Bestimmung des mittleren Alters der Luft werden Messungen von Spurengasen verwendet, die in der Stratosphäre konservativ sind und deren troposphärisches Hintergrundmischungsverhältnis einen zeitlich linear ansteigenden Trend aufweist ("Alterstracer"). HAGAR ist in der Lage, die Mischungsverhältnisse der beiden gebräuchlichsten Alterstracer CO 2 und SF 6 zu messen. Das Alterskonzept bietet eine einfach zu bestimmende Kenngröße für den stratosphärischen Transport, die im Gegensatz zu Mischungsverhältnissen direkt mit Messungen, die zu anderen Zeitpunkten gewonnen wurden, vergleichbar ist. Es konnte gezeigt werden, dass die erreichbare Genauigkeit der Altersbestimmung nicht von der Messgenauigkeit von CO 2 und SF 6 limitiert ist, sondern von der Abweichung der troposphärischen Trends vom (zeitlich linear ansteigenden) Ideal. Insbesondere im Fall von CO 2 wird dies deutlich, wobei die von HAGAR erreichte Messgenauigkeit für eine maximale Unsicherheit in der Altersbestimmung von ca. zwei Monaten ausreichen würde. Neben den saisonalen Schwankungen, die in mittleren Breiten ab ca. 16 km Höhe keine Rolle mehr spielen, sorgen vor allem die jährlichen Schwankungen dafür, dass die Altersbestimmung mit CO 2 momentan kaum besser als mit einem Fehler von etwa 0,7 Jahren durchgeführt werden kann. In den Tropen kann die Messung des CO 2 -Mischungsverhältnisses nicht direkt zur Altersbestimmung herangezogen werden. Durch die starke Vertikalbewegung in den Tropen kann das saisonale CO 2 -Signal im Vertikalprofil beobachtet werden. HAGAR konnte solche Profile während zweier Jahreszeiten (Februar/März bzw. Mitte September) aufzeichnen. Die Tropen sind in der Stratosphäre durch sogenannte Mischbarrieren für den horizontalen Transport gegenüber den mittleren Breiten abgegrenzt. Dies zeigt sich unter anderem in veränderten Tracer-Tracer-Korrelationen. Gealterte Luft aus den mittleren Breiten, die groÿteils bereits einmal die groÿräumige Brewer-Dobson-Zirkulation durchlaufen hat, wird jedoch zu einem geringen Maße erneut in den Bereich der tropischen Aufwärtsströmung eingemischt. Für die Gesamtverweilzeit von langlebigen Spurengasen in der Stratosphäre ist diese Einmischung von besonderer Bedeutung. Während nahezu aller Flüge von APE-THESEO (1° N - 19° S) ergaben die HAGAR- Daten eine kompakte F11-N 2 O-Korrelation; beim letzten Flug, der nur bis 15° S führte, ergaben sich jedoch Datenpunkte, die eher zu einer Korrelation passen, die aus mittleren Breiten bekannt ist. Es ist noch im Detail zu klären, ob hier möglicherweise direkt ein Einmischungsereignis beobachtet wurde. Auch der Polarwirbel ist im Winter von einer effektiven Transportbarriere umgeben. Hier ist eine wichtige Frage, inwieweit Luft aus dem Wirbel in die mittleren Breiten vordringen und dort die chemische Zusammensetzung der Stratosphäre verändern kann. Dieser Luftmassenaustausch findet häufig in Form von sogenannten Filamenten statt, Luftmassen also, die vom Wirbel abgetrennt wurden und sich nun immer länger gezogen vom Wirbelrand wegbewegen. Hochaufgelöste Tracermessungen, wie sie mit HAGAR durch- geführt werden, stellen eine ideales Werkzeug zur Untersuchung und Charakterisierung solcher Abläufe dar. So konnten zahlreiche Strukturen innerhalb und außerhalb des Wirbels untersucht werden, deren Tracermischungsverhältnis darauf hinwies, dass sie jeweils von der anderen Seite des Wirbelrandes stammten. Dabei konnten keine signifikanten Strukturen beobachtet werden, die eine geringere horizontale Ausdehnung als 50 km hatten. Mit dem Ende der vorliegenden Arbeit ist weder die Entwicklung des Instrumentes noch die Interpretation des 1999 gewonnenen Datensatzes abgeschlossen. So ist neben einer neuen Datenerfassung für Temperaturen auch eine Erweiterung von Kanal 1 des Gaschromatographen in Planung. Neben SF 6 soll in Zukunft auch noch CH 4 mit einer Zeitauflösung von etwa 90 s gemessen werden. Zudem soll mit einer verbesserten Druckregelung für den Kessel die Präzision insbesondere der CO 2 -Messungen optimiert werden. Die Präzision der Daten von Halon-1211 sowie SF 6 sind mit 5 % bisher nicht zufriedenstellend. Grund hierfür ist letzlich die Tatsache, dass das Signal-Rausch-Verhältnis für diese beiden Substanzen aufgrund ihrer geringen Mischungsverhältnisse von nur einigen ppt in der Stratosphäre sehr schlecht ist. Aus diesem Grunde wurde eine neue Auswertemethode entwickelt und innerhalb des Softwarepakets zur Datenauswertung (NOAH-Chrom) realisiert. Bei dieser Methode werden die Peaks durch Gauß-Funktionen angenähert. Erste Tests verliefen vielversprechend, zeigen jedoch, dass der Einsatz der Methode noch eine Menge Detailarbeit erfordert. Aus diesem Grunde steht eine vollständige Auswertung des HAGAR-Datensatzes für diese beide Substanzen noch aus; die Methodik ist jedoch im Anhang erläutert. Die in dieser Arbeit dargestellten Analysen sollten als Wegweiser für weitere Untersuchungen und Diskussionen dienen können. So wird insbesondere die Diskussion um die Altersbestimmung wieder aufgenommen werden müssen, wenn sowohl endgültige SF 6 -Daten von HAGAR als auch neue Daten über den aktuellen troposphärischen Trend von SF 6 aus dem NOAA/CMDL- Netzwerk vorliegen. Einen weiteren Schwerpunkt wird die Untersuchung der Mischung über den Rand des Polarwirbels hinweg bilden, wobei sich insbesondere die Frage nach der Höhenabhängigkeit der Mischung stellt. Hier sind insbesondere auch Modellstudien möglich, denen mit den HAGAR-Daten eine weit präzisere und vor allem höher aufgelöste Eingangsdatenbasis zur Verfügung steht, als sie etwa aus Satellitendaten gewonnen werden kann. Von besonderem Interesse ist dabei ein Phänomen, das in den HAGAR-Daten, aber auch bereits in einem Datensatz der ER-2 von 1994 zu beobachten ist: So weicht die F11-N 2 O-Korrelation im Bereich des Polarwirbels für F11-Mischungsverhältnisse zwischen 40 ppb und 170 ppb nach unten von der normalen, aus mittleren Breiten bekannten Korrelation ab (vgl. Abbildung 7.5 auf Seite 142). Dies ist möglicherweise auf noch nicht vollständig verstandene Mischungsprozesse zurückzuführen. In jedem Falle ist damit zu rechnen, dass der im Jahre 1999 von HA-GAR an Bord der Geophysica aufgezeichnete umfangreiche Datensatz weitere Schritte hin zu einem differenzierteren Verständnis des stratosphärischen Transportes einleiten wird.
In der rezensierten Monographie gelingt es, "New Public Management" als strategisches und politisches Projekt auszudeuten. Die Konsequenzen für die Liegenschaftspolitik können fundiert dargelegt werden. In der Rezension wird eine Einordnung in die bisherige Forschung sowie eine kritische Würdigung der rezensierten Arbeit versucht.
Das Gehirn weist in mehreren Bereichen anatomische Asymmetrien zwischen beiden Hemisphären auf, so auch in Bereichen der Hörrinde. Zudem ist bereits langjährig bekannt, dass menschliche Sprache vorrangig in der linken Gehirnhälfte, d.h. linksseitig lateralisiert, verarbeitet wird. Daraus folgend stellt sich die Frage, ob dies eine besondere Spezialisierung ist, oder ob es noch weitere lateralisierte Hirnfunktionen gibt. Viele akustische Signale haben dabei frequenzmodulierte (FM) Komponenten, die im Hörsystem für die Erkennung nach Parametern wie Richtung und Dauer der Modulation analysiert werden müssen. Ob die Analyse von FM-Komponenten oder einzelner Reizparameter im Gehirn lateralisiert stattfindet, wurde in der Literatur meist mit bildgebenden Verfahren untersucht.
Für das Erkennen und Unterscheiden der Modulationsrichtung weist eine Vielzahl von Studien auf eine erhöhte Aktivität in der rechten Hörrinde hin. Für die Analyse von Stimulusdauern ist es bisher allerdings noch unklar bzw. umstritten, ob diese lateralisiert erfolgt. Für die Untersuchung der Lateralisierung einfacher Sprachkomponenten werden häufig Konsonant-Vokal-Silben (CV-Silben) verwendet. In einer Vielzahl von Studien konnte eine linkslastige Lateralisierung, wie bei der Spracherkennung, gezeigt werden.
In der vorliegenden Arbeit wurde nun untersucht, ob ein eindeutigeres Muster von Lateralisierung zu finden ist, wenn diese in Wahrnehmungsexperimenten, untersucht wird. Dabei wurde ein zu untersuchender Teststimulus (FM-/CV-Stimulus) auf einem Ohr mit einem kontralateralen breitbandigen Rauschen auf dem anderen Ohr gleichzeitig präsentiert. Durch die Struktur der Hörbahn kann dabei davon ausgegangen werden, dass in einer Hemisphäre des Vorderhirns vorrangig Informationen aus dem kontralateralen Ohr verarbeitet und Informationen aus dem ipsilateralen Ohr unterdrückt werden und sich somit Rückschlüsse auf die Funktion/Beteiligung einer Hemishpäre ziehen lassen. Das Rauschen diente dabei zur unspezifischen Aktivierung der gegenüberliegenden Hemisphäre.
Die Lateralisierung wurde systematisch für unterschiedlich komplexe Reize untersucht. Dazu wurden in zwei Versuchsreihen Unterscheidungsexperimente durchgeführt, die sich in mehrere Messungen (mit mehreren Durchläufen) mit unterschiedlichen Parametereinstellungen gliederten. Pro Durchlauf musste sich die Versuchsperson immer zwischen zwei Antwortmöglichkeiten entscheiden (2-AFC-Verfahren). Der Schalldruckpegel des Rauschens war dabei für alle Messungen konstant. Der Schalldruckpegel der Teststimuli blieb zwar während einer Messung konstant, wurde jedoch innerhalb eines Experimentes von Messung zu Messung reduziert.
In einer gemeinsamen Analyse wurden jeweils die Fehlerraten und Reaktionszeiten beider Ohren, getrennt nach Seite und FM-/ CV-Stimulus, miteinander verglichen, um so auf eine mögliche Lateralisierung schließen zu können. Damit die Daten der Versuchspersonen bei vergleichbarer Schwierigkeit analysiert werden konnten, wurde als Vergleichswert zwischen allen Versuchspersonen der Schalldruckpegel der ersten Messung mit einer Fehlerrate von mindestens 15,0 % gewählt (15 %-Kriterium). Um auszuschließen, dass das Hörvermögen der Versuchspersonen Unterschiede zwischen beiden Ohren aufweist, wurde vor jeder Messung der „Punkt subjektiver Gleichheit“ für die Lautstärke-wahrnehmung zwischen linkem und rechten Ohr bestimmt.
In der ersten Versuchsreihe wurde dabei die Verarbeitung der Modulationsrichtung und der Stimulusdauer von FM-Stimuli untersucht. Es zeigte sich für beide Experimente, dass ein sinkender Schalldruckpegel des FM-Stimulus zu einer steigenden Fehlerrate führte. Unter Anwendung des 15 %-Kriteriums waren die Fehlerraten für die Unterscheidung der Modulationsrichtung signifikant geringer, wenn der FM-Stimulus auf dem linken Ohr präsentiert wurde. Dies ist ein deutlicher Hinweis für eine rechtslastige Lateralisierung.
Für die Unterscheidung der Stimulusdauer gab es dagegen keinen signifikanten Unterschied zwischen den Fehlerraten beider Ohren. Somit muss davon ausgegangen werden, dass beide Hemisphären für diese Aufgabe benötigt werden und eine bilaterale Verarbeitung stattfindet. In den Reaktionszeiten konnten in beiden Experimente keine signifikanten Unterschiede gezeigt werden. Die Unterscheidung der Modulationsrichtung wurde dabei von allen Versuchspersonen als einfacher eingestuft als die Unterscheidung der Stimulusdauer, was sich auch in niedrigeren Antwortschnelligkeit und Fehlerraten bei vergleichbaren Schalldruckpegeln zeigte.
In der zweiten Versuchsreihe wurde als Referenzmessung nochmals die Unterscheidung der Modulationsrichtungen von FM-Stimuli durchgeführt. Anschließend wurde die Unterscheidung von „da“ und „ga“ untersucht. Diese CV-Silben differieren ausschließlich in der FM-Komponente. Die Untercheidung von CV-Silben ohne Unterschied in der FM-Komponente wurde mittels „ta“ und „ka“ getestet. Für alle drei Experimente zeigte sich, dass ein geringerer Schalldruckpegel des FM- oder CV-Stimulus zu einer steigenden Fehlerrate führte. Unter Anwendung des 15 %-Kriteriums zeigte sich für die Unterscheidung der Modulationsrichtung ein Trend zu niedrigeren Fehlerraten bei der Präsentation des FM-Stimulus auf dem linken im Vergleich mit dem rechten Ohr. In den Reaktionszeiten konnten keine signifikanten Unterschiede gezeigt werden.
Für die Unterscheidung von „da“ und „ga“ ließ sich unter Anwendung des 15 %-Kriteriums in den Fehlerraten und Reaktionszeiten kein Vorteil eines Ohres nachweisen. Dagegen zeigten sich klare Unterschiede bei einzelnen Versuchspersonen. So waren die Fehlerraten für Versuchspersonen, die vorwiegend „da“ erkannt bzw. gehört hatten signifikant höher, wenn der CV-Stimulus auf dem rechten Ohr präsentiert wurde, für „ga“-Hörer war das Gegenteil der Fall. In den Reaktionszeiten konnte kein signifikanter Zusammenhang nachgewiesen werden. Somit ließ sich zeigen, dass je nach Strategie der Versuchsperson bzw. deren individueller Wahrnehmung der CV-Silben, Unterschiede in der Lateralisierung erreicht werden können.
Für die Unterscheidung von „ta“ und „ka“ zeigten sich unter Anwendung des 15 %-Kriteriums signifikant niedrigere Fehlerraten und Reaktionszeiten, wenn der CV-Stimulus auf dem linken Ohr präsentiert wurde. Dies weist deutlich auf eine rechtslastige Lateralisierung hin. Vergleicht man alle drei Experimente ließ sich zudem zeigen, dass die Unterscheidung der Modulationsrichtung einfacher war als die Unterscheidung verschiedener CV-Stimuli. Dabei war die Unterscheidung von „da“ und „ga“ für die Versuchspersonen schwieriger als die Unterscheidung von „ta“ und „ka“. Allerdings konnte in den Lateralisierungsdaten kein direkter Zusammenhang zwischen den FM- und „da“-/„ga“-Stimuli gezeigt werden.
Zusammenfassend konnte in allen fünf Experimenten eine verschieden stark lateralisierte Verarbeitung von akustischen Stimuli bei gleichzeitigem kontralateralen Rauschen gezeigt werden. Der Vorteil eines Ohres (bzw. einer Hemisphäre) war sowohl von der Aufgabe als auch vom Stimulustyp abhängig. Dabei gab es zum Teil starke Unterschiede in der Effektstärke und dem Grad der Lateralisierung zwischen den einzelnen Versuchspersonen. Insgesamt konnte gezeigt werden, dass sich die hier angewendete psychophysische Methode gut eignet, um Ergebnisse zur Lateralisierung von akustischen Stimuli zu gewinnen und somit die Verhaltensrelevanz von Ergebnissen aus Studien mit bildgebenden Verfahren zu überprüfen.
Ziel der vorliegenden Arbeit war die Untersuchung der Kurzzeitdynamik zirkulierender Tumorzellen bei hepatozellulären Karzinompatienten, die erstmalig eine radiologische Intervention in Form einer transarteriellen Chemoembolisation oder einer Mikrowellenablation als Therapie erhielten. Dafür wurde in Vorversuchen eine neuartige Methode zur Isolation und Detektion von zirkulierenden Tumorzellen entwickelt.
Zugleich sollte ein potenzieller Einsatz dieser Methode als Screeningverfahren für hepatozelluläre Karzinompatienten mithilfe der Sensitivität und Spezifität überprüft werden. Darüber hinaus wurde eine mögliche Korrelation der Kurzzeitdynamik zirkulierender Tumorzellen sowohl mit der Kurzzeitdynamik des AFP-Wertes als anerkannten HCC-Tumormarker, als auch des IL-6-Wertes als aktuell diskutierten Tumormarker analysiert. Ferner wurde die Kurzzeitdynamik zirkulierender Tumorzellen mit dem klinischen Verlauf der Patienten verglichen.
Im Zeitraum von September 2017 bis Juni 2018 konnten Blutproben von 18 Patienten mit einem hepatozellulären Karzinom untersucht werden. Davon wurden zehn Patienten mittels Mikrowellenablation und acht Patienten mittels transarterieller Chemoembolisation behandelt. Daneben wurden Blutproben von 13 gesunden Probanden ausgewertet.
Methodisch wurden jeweils im Anschluss an die Gewinnung des Patientenblutes, vor und unmittelbar nach jeweiliger radiologischer Intervention, die zirkulierenden Tumorzellen aus dem Blut isoliert und die gewonnenen Zellen durch die Durchflusszytometrie nachgewiesen und quantifiziert. Als zirkulierende Tumorzellen wurden dabei jene Zellen betrachtet, die eine Negativität auf den Marker CD45 sowie eine Positivität auf die Marker ASGPR-1, CD146, CD274 und CD90 zeigten.
Durch den Vergleich der Proben vor und nach radiologischer Intervention konnte gezeigt werden, dass die Anzahlen zirkulierender Tumorzellen nach der radiologischen Intervention im Mittel niedriger sind als vor der Therapie. Die Anzahl zirkulierender Tumorzellen sank dabei im Schnitt bei den mit Mikrowellenablation behandelten Patienten stärker im Vergleich zu denen, die eine transarterielle Chemoembolisation erhielten. Dies bestätigte den klinischen Verlauf der Patientengruppen, da die Mortalität der Gruppe, die eine transarterielle Chemoembolisation erhielten deutlich höher war als bei den übrigen Patienten.
Als klinisch einsetzbare Screening-Methode im Sinne einer „Liquid Biopsy“ für das HCC müssen die Sensitivität und Spezifität weitergehend optimiert werden. Eine signifikante Korrelation zwischen der Kurzzeitdynamik der Anzahlen zirkulierender Tumorzellen und der Kurzzeitdynamik der AFP-Werte und der IL-6-Werte konnte nicht festgestellt werden. Entgegen des erwarteten Trends, legte die angewendete Methode, durch das Absinken der zirkulierenden Tumorzellen, die positive Wirkung der transarteriellen Chemoembolisation und der Mikrowellenablation in hepatozellulären Karzinompatienten dar.
Im Rahmen des BIOKLIM-Projekts wurden im Nationalpark Bayerischer Wald Daten zu verschiedenen Tier- und Pflanzenarten sowie Umweltfaktoren erhoben. Die folgende Auswertung beschränkt sich auf die Weichtiere (Gastropoda, Bivalvia). Ziel war es, herauszufinden, welche Umweltfaktoren die Arten- und Individuenanzahlen beeinflussen, was die Lebensgemeinschaften steuert und welche Parameter sich auf ausgewählte Einzelarten auswirken. In Quasi-Poisson-Modellen haben sich als Einflussgrößen für die Individuenanzahl Höhe, Alter, Magnesium und pH-Wert feststellen lassen. Auf die Artenanzahl wirkte sich der Vegetationsreichtum, die Höhe und der Managementtyp aus. Die Einzelarten werden von sehr unterschiedlichen Faktoren beeinflusst. Die Lebensgemeinschaften werden vor allem von der Höhe über dem Meeresspiegel, der Temperatur und dem Auflichtungsgrad bestimmt, was sich in verschiedenen Ordinationsverfahren gezeigt hat.
Mutationen in Blutstammzellen müssen nicht unbedingt zu Blutkrebs führen. Erst vor Kurzem hat man entdeckt, dass Klone mutierter Blutzellen bei vielen gesunden Menschen im Alter nachweisbar sind. Dennoch stufen Forscher die klonale Hämatopoese inzwischen als Risikofaktor für Herz-Kreislauf-Erkrankungen ein – mit einer ähnlichen Bedeutung wie Rauchen, Übergewicht oder Bluthochdruck.
Nanotechnologie
(2016)
Die Nanotechnologie behauptet ihren Status als Schlüsseltechnologie der Zukunft seit geraumer Zeit und sie tut dies mit gehörigem Aufwand. Sie gilt, wie weit über den wissenschaftlichen Bereich hinaus zu lesen ist, als Zukunftschiffre schlechthin. Ihre Verheißungen sind weitreichend und werden entsprechend vollmundig vorgetragen, betreffen sie doch grundlegend neue Möglichkeiten in der Gestaltung technischer Um- und menschlicher Lebenswelten. Nicht zuletzt das Zusammengehen mit anderen zukunftsträchtigen Techniken und ihr Zusammenschluss in der so genannten NBIC-Konvergenz ('nano', 'bio', 'info' und 'cogno') steigern diese Potentiale um ein Beträchtliches. Die Liste der an Nanotechnologie geknüpften Versprechen ist beeindruckend, scheint sie doch Lösungen für sämtliche Zukunftsprobleme anzubieten. Diese betreffen Rohstoffbewirtschaftung und Energieversorgung, Produktion und flächendeckende Verfügbarkeit von Nahrungsmitteln, politische Teilhabe aller bis hin zur Realisation des Weltfriedens, umfassenden Umweltschutz, Revolution des Gesundheitswesens, Bereitstellung verbesserter Informationstechnologien und handlungsfähiger Materialien.
"Ciaglia Blue Rhino Punktionstracheotomie" : perioperative Komplikationen und Langzeitergebnisse
(2009)
Im klinischen Alltag der Intensivstationen haben sich in den letzten Jahren verschiedene Verfahren der perkutanen Tracheotomie aufgrund ihrer einfachen Durchführbarkeit und dem geringen Komplikationsrisiko gegenüber dem chirurgischen Verfahren durchgesetzt. Die Blue Rhino Technik nach Ciaglia ist eine Methode, bei der zur Anlage des Tracheostomas nur ein einzelner Dilatationsschritt mittels eines, mit einer speziellen hydrophilen Beschichtung versehenen, gebogenen Dilatators notwendig ist. Die vorliegende Arbeit zeigt die Auswertung der Daten von 50 Patienten, die nach dieser Methode tracheotomiert wurden. Die Evaluation beinhaltet neben der Auswertung der peri- und postoperativen Komplikationen, die Ergebnisse einer telefonischen Befragung von 19 Patienten anhand eines standardisierten Fragebogens, hinsichtlich ihrer subjektiven Einschätzung bezüglich Veränderungen der Stimme, Luftnot, Schluckbeschwerden sowie dem kosmetischen Ergebnis des verschlossenen Tracheostomas. Die Ergebnisse wurden mit den in der Literatur vorhandenen Daten der verschiedenen perkutanen Verfahren verglichen, um potentielle Vorund Nachteile der Blue Rhino Technik zu eruieren. Es konnte gezeigt, dass bei der Blue Rhino Methode im Vergleich zu anderen Verfahren keine signifikant höhere perioperative Komplikationsrate auftrat. Die in verschiedenen Arbeitenbeschriebene Häufung an Trachealspangenfrakuren konnten auch wir in unserem Patientengut finden. Einen Beweis für die klinische Relevanz dieser Beobachtung wurde aber bisher in keiner Studie erbracht. Im Gegensatz dazu kann es als gesichert angesehen werden, dass ein höherer BMI ein Risikofaktor ist, der mit einer Erhöhung der perioperativen Komplikationsrate einhergeht. Auch in unserer Untersuchung traten die beiden einzigen schwerwiegenden Komplikationen bei Patienten mit einem BMI deutlich über 30 kg/m2 auf. Postoperative Komplikationen wie Blutungen oder Infektionen des Stomas konnten wir in unserem Patientenkollektiv nicht beobachten. Nach allgemeiner Studienlage treten diese Komplikationen bei den perkutanen Verfahren auch nur in Einzelfällen auf. Die bei der Befragung ein Jahr nach der Tracheotomie gefundenen Veränderungen der Stimme, Heiserkeit und das Vorliegen von Luftnot in verschiedenen Ausprägungen lassen sich bei den meisten Patienten auf ihre Vorerkrankungen zurückführen oder sind Ausdruck einer Schädigung der Stimmbänder durch die vorangegangene orotracheale Intubation. Nur bei 2 Patienten konnten wir eine Trachealstenose nicht sicher ausschließen. Einen schlüssigen Nachweis, dass eine Stenose bei Patienten nach Tracheotomie ursächlich auf die Tracheotomie alleine zurückzuführen ist, konnten wir bei Durchsicht der Literatur nicht finden. Das kosmetische Ergebnis beurteilten die meisten unserer Patienten (79%) als sehr gut bis gut. Unter Beachtung der absoluten Kontraindikationen, die für alle perkutanen Verfahren gültig sind, erfüllt die Blue Rhino Methode nach Ciaglia hinsichtlich der leichten Durchführbarkeit und der niedrigen peri- und postoperativen Komplikationsraten alle Anforderungen, die an ein perkutanes Verfahren gestellt werden.
Ziel der Studie war, die diagnostische Aussagekraft von vier nicht invasiven Nachweisverfahren von Helicobacter pylori (H. pylori) für ein Patientenkollektiv des Universitätsklinikums Frankfurt am Main zu überprüfen. Es wurden der 13CHarnstoff-Atemtest, ein Stuhl-Antigennachweis mittels ELISA, ein Stuhl-Schnelltest sowie ein Urin-Schnelltest untersucht. In die Studie wurden 169 Patienten aufgenommen. Bei allen Patienten wurde eine diagnostische Gastroskopie durchgeführt, um den H. pylori Status mittels Histologie oder Urease-Schnelltest zu definieren - H. pylori positiv waren 52 Patienten, H. pylori negativ 85 Patienten. Bei 32 Patienten konnte kein invasiver H. pylori Nachweis geführt werden. In dieser Studie zählten die Einnahme von PPI, H2-Blocker, Antazida und Antibiotika nicht zu den Ausschlusskriterien. Die Studie bestätigte den aus der Literatur bekannten Einfluss von säurehemmenden Medikamenten auf die diagnostische Aussagekraft nicht invasiver Testverfahren mit direktem Erregernachweis. Eine nicht invasive Diagnostik sollte immer vor dem Beginn einer Therapie mit solchen Medikamenten erfolgen. Alle vier Nachweisverfahren lieferten in dieser Studie hohe Werte für die Spezifität (ELISA 100%, Urin-Schnelltest 96,5%, 13C-Harnstoff-Atemtest 94,7%, Stuhl-Schnelltest 93%). Die in der Studie ermittelten Werte für die Sensitivität waren niedriger als in publizierten Studien bzw. niedriger als die Herstellerangaben. Der ELISA schnitt mit 79,2% am besten ab. Die Sensitivität des Stuhl-Schnelltests lag bei 72,9%, die des 13C-Harnstoff-Atemtests bei 68,8% und die des Urin-Schnelltests 62,5%. Die diagnostische Aussagekraft der vier untersuchten Tests ist als akzeptabel, beim ELISA als gut zu bewerten. Der gerechtfertigte Ersatz der Gastroskopie in der H. pylori Diagnostik durch ein nicht invasives Verfahren reduziert die Kosten beträchtlich.
Ueber Renaissance der Kunst
(1895)
Die Pflanze in der Kunst
(1898)
»Welche sprachlichen Formen sollten Kinder kennen, um gewinnbringend aktuelle Kinder-und Jugendliteratur lesen und verstehen zu können?« (11) Diese Frage stellt die frühere Grund- und Hauptschullehrerin und Lehrerin für Sonderpädagogik Rita Zellerhoff an den Beginn des von ihr vorgelegten schmalen Bändchens, das in der kleinformatigen Reihe »ZOOM – Kultur und Kunst« des Peter Lang Verlages erschienen ist. ...
Die im Zuge des globalen Klimawandels erwarteten Veränderungen des Wärmehaushaltes werden mit großer Wahrscheinlichkeit erhebliche Auswirkungen auf die Entwicklung und Stabilität der brandenburgischen Waldökosysteme haben. Im vorliegenden Beitrag erfolgen zum einen die statistische Herleitung und räumliche Abgrenzung von Risikogebieten und zum anderen die Ausweisung von Flächen, die für ein Klima-Monitoring auf der ökologischen Wirkungsebene geeignet sind. Grundgedanke der methodischen Herangehensweise ist die raum-zeitliche Verknüpfung von Klimaindikatoren auf multivariat- statistischer Basis. Für die Risikobewertung wurde ein Algorithmus entwickelt, bei dem die nach dem Klimaszenario A1B zu erwartenden zeitlichen Veränderungen bis zur Mitte bzw. bis zum Ende dieses Jahrhunderts in Relation zur aktuellen räumlichen Streubreite der ökologischen Kenngrößen des Wärmehaushaltes gesetzt und dadurch in ihrem Ausmaß und ihrer Bedeutung als Störungspotenzial bewertet werden. Die errechneten Störungspotenziale werden als Rasterkarten mit einer Auflösung von 1 x 1 km Rasterweite präsentiert. Waldökosysteme sind in ihrem Ursache-Wirkungs-Verhalten komplex. Bei gleichen Einflussbedingungen sind verschiedene Systemzustände denkbar, die Vorhersagen schwer möglich machen. Deshalb erscheint es am erfolgversprechendsten, den Folgen des Klimawandels empirisch durch Beobachtung der artspezifischen Reaktionsnormen und populationsdynamischen Anpassungspotenziale der Waldökosysteme aufgrund des laufenden Witterungsgeschehens in ausgewählten Regionen zu begegnen. Aus den Beobachtungen können dann großräumige und insbesondere für die erarbeiteten Risikogebiete gültige Vorhersagen abgeleitet werden (prognostizierendes Klima-Monitoring). Für dieses Klima-Monitoring geeignete Gebiete wurden analog zum dargelegten Vorgehen bei der Risikogebietsableitung unter Verwendung der Differenz zwischen aktueller Ausprägung der ökologischen Wärmehaushaltskennwerte und deren durchschnittlicher zukünftiger Ausprägung (Dekade 2090 – 2100) auf der Waldfläche Brandenburgs ermittelt. Die Gebiete mit maximaler Ähnlichkeit zu den zukünftigen Verhältnissen werden als Rasterkarte vorgestellt. Die hier präsentierten Ergebnisse zum Wärmehaushalt sollen in bevorstehenden Auswertungsschritten mit räumlich hoch aufgelösten Risikoindikatoren zu potenziellem Wassermangel und Trockenstress (100 x 100 m Raster) verknüpft werden.
Teil von: Johann Riem's physikalisch-ökonomische Bienenbibliothek, oder Sammlung auserlesener Abhandlungen von Bienenwahrnehmungen und ausführliche Urtheile über ältere und neuere Bienenbücher / Johann Riem ; 3. Anhang bildet--> Riem, Johann: Johann Riem's Geprüfte Grundsätze der schlesischen Bienenpflege