Refine
Year of publication
Document Type
- Article (31128)
- Part of Periodical (11550)
- Book (8266)
- Doctoral Thesis (5713)
- Part of a Book (3967)
- Working Paper (3385)
- Review (2939)
- Contribution to a Periodical (2368)
- Preprint (2084)
- Report (1560)
Language
- German (42718)
- English (29217)
- French (1060)
- Portuguese (840)
- Spanish (309)
- Croatian (302)
- Multiple languages (258)
- Italian (198)
- mis (174)
- Turkish (168)
Has Fulltext
- yes (75568) (remove)
Keywords
- Deutsch (1076)
- Literatur (868)
- taxonomy (760)
- Deutschland (553)
- Rezension (511)
- new species (449)
- Rezeption (354)
- Frankfurt <Main> / Universität (341)
- Übersetzung (326)
- Geschichte (300)
Institute
- Medizin (7691)
- Präsidium (5170)
- Physik (4464)
- Extern (2738)
- Wirtschaftswissenschaften (2686)
- Gesellschaftswissenschaften (2369)
- Biowissenschaften (2184)
- Biochemie und Chemie (1975)
- Frankfurt Institute for Advanced Studies (FIAS) (1686)
- Center for Financial Studies (CFS) (1628)
Gesichter und Gesichte, im Sinne von Visionen des Gewesenen oder Möglichen, sind in epischen, dramatischen und den filmischen Arbeiten von Samuel Beckett eng miteinander verknüpft. Becketts Arbeiten im Sektor der bewegten Bilder, um die es mir hier geht, umfassen einen Zeitraum von gut 20 Jahren, beginnend mit dem 1963 konzipierten "Film" und endend mit "Was wo" im Jahr 1986, einem Fernsehspiel, das Beckett zusammen mit dem SDR in Stuttgart produzierte. Sehen, Gesehenwerden, Gesicht und Gesichtetwerden, das Auflösen und Auslöschen des Gesichts im dreifachen Wortsinn, nämlich der physischen Erscheinung, des geschauten Bewusstseinsinhalts und des Gesichtssinns sind zentrale Themen der Arbeit auch in diesem Feld.
In der Moderne wird das Menschengesicht, das lange Zeit Sinnbild für die Ebenbildlichkeit Gottes und somit für menschliche Ganzheitlichkeit war, radikalen Auflösungsprozessen unterzogen. Zugleich scheinen immer wieder Erlösungsutopien durch, die eine neue Suche nach dem verlorenen oder erst noch zu schauenden Gesicht initiieren. Dieser Doppelstrebigkeit wird im Folgenden unter dem Leitbegriff des Rätsels nachgegangen. Letzterer lässt sich hierbei auf seinen zweifachen altgriechischen Ursprung zurückführen, auf 'griphos' ('Fischernetz, Schlinge': Ratespiel) und 'ainigma' ('dunkle Andeutung': das Rätselhafte). Das Rätsel wird in der Theologie seit jeher - in der Philosophie vermehrt in der Moderne – mit dem Gesicht (in seiner Doppeldeutigkeit von gesehenem und sehendem Gesicht) assoziiert, dessen Les- und Lösbarkeit es einer hermeneutischen Bewährungsprobe unterzieht. An zwei philosophischen Werken soll in einem ersten Schritt dieses Junktim von Rätsel und Gesicht(e) im Diagramm der beiden Lösungsbewegungen von Auflösung und Erlösung nachgezeichnet werden: an Friedrich Nietzsches 'Also sprach Zarathustra' (1883–1885) und Franz Rosenzweigs 'Stern der Erlösung' (1921) sowie seinen "nachträgliche[n] Bemerkungen" hierzu in "Das neue Denken" (1925).
Gesichter in Lyrik und Prosa verweisen auf vielfältige Techniken ihrer verbalen Kreation - und ihrer Auflösung. Anders als die Bildkunst, die Gesichter simultan evident macht, konstituiert sich das Verbalporträt (in der Regel) linear-sukzessiv. Es ist medial zur Fragmentierung des Motivs und zur Anordnung der semiotischen Einheiten in einer eindimensionalen Abfolge gezwungen: das heißt, die Zerlegung des darzustellenden Gesichts ist zwingend notwendig, ein Moment der Auflösung ist ihm seit jeher eingeschrieben. Daher experimentiert es aber auch seit jeher mit den Verfahren der Zusammenfügung (Re-Komposition) der Einzelteile. Diesbezüglich verzeichnet das poetische Porträt schon in der Renaissance erste spielerische Höhepunkte, die frappierende Ähnlichkeiten aufweisen mit den ungewöhnlichen, heute sehr bekannten Porträts des manieristischen Malers Giuseppe Arcimboldo, dessen Gesichter sich aus Blumen, Früchten, Büchern u.a. zusammensetzen und Kippfiguren zwischen Menschenähnlichkeit und Realitätsferne bilden, indem sie ihren Komposit-Charakter ostentativ zur Schau stellen. Die punktuelle Feststellung vergleichbarer Darstellungsprinzipien wirft notwendig die Frage auf, ob und inwiefern sich Auflösungserscheinungen in verbalen und pikturalen Porträts trotz ihrer Mediendifferenz stilhistorisch parallelisieren lassen – so lautet die Rahmenfrage, die erneut aufzugreifen ist nach einer Betrachtung verschiedener in Auflösung befindlicher Verbalporträts. Die einzelnen Werkanalysen sind konzise, zugunsten eines möglichst breiten Spektrums fazialer De-Kompositionen.
Sozusagen als Motto meiner Ausführungen zur Gattung des Porträts bzw. zur Porträtkunst habe ich eine Arbeit von Robert Rauschenberg gewählt. 1961 plante die Pariser Galeristin Iris Clert eine Porträt-Ausstellung und lud Robert Rauschenberg, den amerikanischen Pop-Künstler, zu einem Beitrag ein. Dieser reagierte mit einem aus Stockholm geschickten Telegramm mit dem Inhalt: 'This is a portrait of Iris Clert if I say so – Robert Rauschenberg'. Als Motto zeige ich die Arbeit deshalb, weil das Porträt im Laufe der Moderne und insbesondere im 20. Jahrhundert zu einer umstrittenen, ja in gewisser Hinsicht unmöglichen Gattung wird, und Rauschenbergs Telegramm nun zeigen kann, dass dieses Umstrittene zwei unterschiedliche Dimensionen hat: zum einen ist es der Streit über das, was als legitimes Porträt eines Menschen angesehen werden kann; zum anderen ist es der Streit darüber, was legitimerweise als ein Kunstwerk angesehen werden kann.
Ausgangspunkt der folgenden Überlegungen ist meine Dissertation mit dem Thema "Porträt – Ikone - Kunst. Methodische Studien zum Porträt in der Kunstliteratur. Zu einer Bildtheorie der Kunst", aus deren Breite ich mich für das Bildparadigma Kunst auf Francis Bacon (mit einem Ausblick auf Alberto Giacometti) beschränke. Das Porträt, in dem Sinne, wie es die Neuzeit versteht, mit all den Implikationen an Authentizität und Ähnlichkeit und unmittelbarer Wiedergabe einer gesehenen Wirklichkeit, hat es in der europäischen Bilderkultur nicht immer gegeben. Auch vorneuzeitliche Bilder, wie eben die Ikone, hatten als besonders wichtige, ihnen übertragene Aufgabe die Vergegenwärtigung einer bestimmten Person, ohne dass man sie deshalb als Bildnisse oder Porträts bezeichnen kann. Sie werden auf diese Vergegenwärtigung sehr wohl verpflichtet, also zu garantieren, dass die gemeinte Person in ihnen wirklich getroffen ist, aber durch signifikant andere bildliche Strategien als dies bei Porträts beschrieben werden kann. Das war für mich der Grund von unterschiedlichen „Bildparadigmen“, dem der Ikone und dem des Kunstwerks zu sprechen. Bilder zu machen und zu betrachten dürfen wir wohl als Grundkonstante menschlicher Kultur seit ihren allerersten Anfängen ansehen. Wie aber Bilder hergestellt und verstanden werden ist bildhistorisch zu beschreiben, das heißt es gibt Perioden der kulturellen Geltung und Dominanz eines Bildverständnisses und Zeiten des Umbruchs und des Wechsels im Verständnis, der Entstehung, der Betrachtung und des Sprechens über Bilder.
Gesichter sind in der modernen Gesellschaft zwiespältig geworden: Einerseits ist von einer "facialen Gesellschaft" die Rede, entsprechend der Leitfunktion, welche Gesichter als Vorbilder in der Medienkultur einnehmen, ob nun bei Stars, Politikern, Sportlern, Promis - Berufsgruppen für die face lifting selbstverständlich zur Vorbildfunktion mit Nachahmungseffekten hinzugehört. Fernsehformate wie Casting- Shows beruhen auch darauf, dass Gesichter zur Nachahmung vorgegeben werden. Selbstverständlich sind diese Gesichter nie natürlich oder wahrhaft, wie dies die Anthropologie seit dem 18. Jahrhundert behauptet hatte, sondern künstlich und verstellt. Aber der Topos des natürlichen Ausdrucks wird gleichwohl aufrecht erhalten und rhetorisch angewendet. Die biopolitische Diskursmacht führt dazu, dass trotz der maskenhaften Verstellung der Mediengesichter der empathisch-emotive Effekt eintritt. Es handelt sich um eine bemerkenswerte Leistung von Medienkultur, Indikator einer anthropologischen Macht der Medien. Michael Taussig spricht unter Berufung auf Benjamin vom mimetischen Vermögen, das durch Medien zustande kommt und Fremdheit durch Nachahmung minimiert, entsprechend dem antirassistischen Leitmotiv von Kafkas "Wunsch, Indianer zu werden". Insbesondere Gefühle wie Liebe oder Angst werden dabei im Gesichtsausdruck der Medienbilder präsentiert und unter Zuhilfenahme der anthropologischen Topik einer Entsprechung des Äußeren im Inneren vom Zuschauer mimetisch hervorgebracht oder ihm zur Nachahmung angeboten.
Gesichtsauflösung und Biometrie sind zunächst nur schwer zusammenzubringen. Beschäftigt man sich jedoch ein wenig mit der Informationstechnologie, so kommt man schnell darauf, dass Auflösung bei Bildern eine eklatante Rolle spielt, allerdings nicht im Sinne von wegbrechen, verschwinden sondern ganz im Gegenteil; hier meint man eher einen Detaillierungsgrad. Je höher die Auflösung eines Bildes, desto mehr kann man erkennen, desto mehr kann man aus dem Bild auslesen.
In unserem visuell geprägten Kulturkreis bestimmt das Gesicht die Identität eines Menschen - doch ab wann kann von einer Gesichtsauflösung gesprochen werden? Deutliche Abweichungen von der in der Gesellschaft bekannten und deshalb akzeptierten Norm lassen sich als Gesichtsdefekte, Gesichtsdeformitäten oder eben als Gesichtsauflösung betrachten. Ursächlich können beispielsweise Unfälle, Infektionen, Tumorerkrankungen oder angeborene Fehlbildungen sein. Der Alterungsprozess sollte hingegen nicht als Gesichtsauflösung interpretiert werden. Hier handelt es sich um eine Strukturanpassung des Gewebes. Aufgabe der Medizin bzw. in diesem Falle der gesichtschirurgischen Profession ist es, dem Vorgang der Gesichtsauflösung entgegen zu wirken. Sie bietet die Möglichkeit, durch rekonstruktive Verfahren das Gesicht in seiner Ursprünglichkeit zu erhalten bzw. wieder herzustellen. Besteht im Falle von Gesichtsdefekten keine Möglichkeit mehr, durch operative Techniken eine adäquate Wiederherstellung zu gewährleisten, so kann auf die Versorgung mit künstlichen Gesichtsteilen zurück gegriffen werden. Ziel ist es, ein dysmorphes (fehlgestaltetes) Gesicht in ein wieder erkennbares, also in dem soziokulturellen Umfeld des Betroffenen akzeptiertes Gesicht umzuwandeln. Angestrebt wird, das durch die unterschiedlichen Ursachen geschädigte Gesicht im Rahmen ästhetischer Aspekte wieder herzustellen. Dadurch soll dem Betroffenen die problemlose Integration in sein soziales Umfeld ermöglicht werden. Für den Betroffenen kann dadurch ein Teil der bekannten Normalität wieder hergestellt sowie ein akzeptables Dasein vermittelt werden.
Gesichtsauflösungen
(2013)
Zu Beginn des 18. Jahrhunderts wird aus einem wiedergeöffneten Stollen der Bergwerke von Falun in Schweden der nahezu unversehrte Leib eines verschütteten Mannes geborgen. Die verblüfften Bergleute blicken in ein frisches Gesicht, in "die noch unveränderten Gesichtszüge eines verunglückten Jünglings" – wie es in der Quelle, in Gotthilf Heinrich von Schuberts Ansichten von der Nachtseite der Naturwissenschaften (1808) heißt. Gleichsam eingelegt in Kupfervitriolwasser hat das Gesicht in 300 Ellen Tiefe überdauert, doch kann dessen Konservierung der Berührung mit Luft und Licht und mithin dem Auge der Umstehenden nicht standhalten. Gesicht und Körper lösen sich auf, zerfallen zu Staub, doch erst, nachdem ein altes Mütterchen "an Krücken und mit grauem Haar" den Konservierten erkennt und an ihre Brust drücken kann: Nicht die Mutter, nein sie ist die Braut des Jünglings von vor fünfzig Jahren, und ihr eingefallenes, "verwelktes" Gesicht kontrastiert der Wirkung des seinen. Die Geschichte vom konservierten Bergmanngesicht ist eine der bekanntesten Kombinationen von Literatur und anorganischer Chemie. Johann Peter Hebel und E.T.A. Hoffmann haben diese Geschichte der Flüssigkeiten als eine Art Antidoton gegen die Auflösungserscheinungen des Gesichts erzählt, die zumindest bei Hebel von einer Verwirrung der Chemikalien und ihrer Wirkungen geprägt ist. Denn die schnelle Auflösung, freilich nach vollzogener Identifikation durch die alte Braut, widerspricht dem chemischen Prozess, durch die jedoch deutlich werden soll, dass der unversehrte Kopf in Vitriol, seine Erkennbarkeit und Präsenz nur um den Preis der Sichtbarkeit zu haben ist: Allein als ein den Blicken und Interaktionen mit den Menschen entzogener Kopf bleibt er sich gleich, ist er intakt, unvergänglich. Damit wird gleichsam auf dem Haupt des aus der Zeitlichkeit herausgefallenen Bergmanns ein Spiel um natürliche und erworbene Konservierungsmodalitäten durch das Vitriol des Berges einerseits und das Gedächtnis der ergrauten Braut andererseits ausgetragen. Als Garanten gegen die Auflösung buhlen sie um die Haltbarkeit und physische Integrität des Menschen, genauer um das Bild von ihm. Durch eine "Verwirrung der Chemikalien", die im Übertrag von der Quelle zur Prosaerzählung erfolgte, wird der Konservierungsstoff Kupfervitriol oft als Eisenvitriol oder folgenreicher und entgegen der Nomenklatur gar als Schwefelsäure überliefert. In dieser starken Säure allerdings hätten sich nicht nur Gesicht und Körper des Bergmanns in maximal zwei Stunden, sondern auch das ganze Bergwerk zersetzt. Im konservierten Bergmann als der Geschichte einer aufgeschobenen Auflösung konvergieren einige Themenfelder der folgenden Beiträge: Neben dem Entzug und der Bergung eines unversehrten Antlitzes, dem eine Art facelifting zuteil wurde, sind es die Umstände seiner Erinnerung und die Bedingungen zu seiner Wiedererkennung, seine Fragilität und sein Zerfall. Themen, in die an dieser Stelle ein wenig eingeführt werden soll.
Beirut und Berlin, die libanesische und die deutsche Hauptstadt, weisen – neben zahlreichen evidenten Unterschieden – eine Reihe von Parallelen auf, die im Zusammenhang mit Krieg und Teilung, Zerstörung und Wiederaufbau ihres Stadtzentrums stehen. Ähnlich wie die Gegend um den Potsdamer Platz in Berlin nach dem Ende des Zweiten Weltkriegs und in den Jahrzehnten der deutschen Teilung war das Beiruter Stadtzentrum im Laufe des Bürgerkriegs (1975−1990) zu einer Art Niemandsland geworden. Als Schauplatz heftiger Kämpfe war es bereits zu Beginn des Krieges weitgehend zerstört und in der Folge von Bewohnern wie Geschäftsleuten verlassen worden. [...] Im Anschluss an einen kurzen Exkurs zur Geschichte des Beiruter Stadtzentrums werden im Folgenden einige Ausschnitte aus der Debatte vorgestellt. Auf der einen Seite wird es um die Wiederaufbaupläne gehen, um die mit hohem Aufwand betriebene Medien-Kampagne und das Vorgehen der mit dem Wiederaufbau betrauten Immobilienfirma sowie um den Widerstand, den dies hervorrief. Auf der anderen Seite werden künstlerische Positionen, Einwände und Gegenentwürfe vorgestellt: Am Beispiel zweier in den 1990er Jahren erschienener Romane wird illustriert, wie das Beiruter Stadtzentrum als Schauplatz für Debatten dient, in denen Fragen von Identität, Erinnerung und Verantwortung verhandelt werden.
Das im Norden Ägyptens an der Küste des Mittelmeers gelegene Alexandria gehört zu denjenigen Städten, deren Name auch literaturhistorisch einschlägig ist. Der von gegenwärtigen Besuchern meist als schäbig und heruntergekommen erlebten modernen Großstadt steht dabei das literarisch überhöhte Bild einer levantinisch-kosmopolitischen Gesellschaft gegenüber, die von Mitte des 19. bis Mitte des 20. Jahrhunderts in voller Blüte stand.
Der in Pamuks Memoiren zentrale Begriff 'hüzün' lässt sich nicht einfach mit Melancholie übersetzen. Im Gegensatz zu dem individuell erlebten Gefühl der Melancholie – im Türkischen verwendet Pamuk hier den dem Französischen entlehnten Begriff 'melankoli' – beschreibt 'hüzün' ein kollektives Gefühl, das die Stadt in ihren Bewohnern auslöst. 'Hüzün' ist die Reaktion auf die Schwarzweißatmosphäre der Stadt an einem grauen Wintertag, Ausdruck der Schicksalsergebenheit ihrer Bewohner und gleichzeitig ein Gefühl, das der Anblick der Ruinen der einstmaligen osmanischen Hauptstadt im Betrachter hervorruft. Pamuks Werk zeichnet das Bild der Istanbuler als eine affektive, durch 'hüzün' verbundene Gemeinschaft. [...] Die Memoiren veranschaulichen die Faszination, die für Pamuk mit den melancholischen Porträts der Stadt in der westeuropäischen wie der türkischen Literatur, Kunst und Fotografie verbunden ist. Sie verfolgen, wie der Autor sich 'hüzün' als Quelle literarischen Schaffens zu eigen macht. Ob und zu welchem Zweck Pamuk, wie Kemal und Tanpınar vor ihm, 'hüzün' zu einem kollektiven, nationalen Affekt stilisiert, soll im Folgenden untersucht werden.
Den Kaukasus als einen Grenzraum anzusehen ist in der Forschung über die russische Kaukasusliteratur längst Konsens. Trotzdem wurde er auf die raumsemantische Spezifik der Grenze hin kaum untersucht. Während die sowjetische Literaturwissenschaft den Kaukasus als Thema bzw. Topos der russischen Literaturgeschichte betrachtete, hat die primär westliche Forschung der letzten Jahre die russische Kaukasusliteratur im Orientalismusdiskurs verortet. Harsha Ram erweitert den Kontext, indem er diese Literatur im Rahmen einer Poetik des Imperiums untersucht. Ohne den Anspruch zu erheben, die Poetik der Grenze erschöpfend zu behandeln, möchte ich im folgenden das kaukasische Kapitel der Poetik der Grenze in der russischen Literatur thematisieren. Dabei werde ich exemplarisch die Semantik des Grenzraums im 'Kaukasussujet' bei Aleksandr Puškin (1799-1837), Aleksandr Bestužev-Marlinskij (1797-1837) und Michail Lermontov (1814-1841) untersuchen.
Nach 1989 ist Europa – wieder einmal – in Bewegung geraten und die Mitte des Kontinents hat sich "ostwärts" verlagert. Diese Verschiebung Europas, die Frage nach neuen und alten Grenzen und Zentren, ist Anlass, sich mit jener vergessenen Himmelsrichtung und ihren Gebieten zu befassen, die 'plötzlich' wieder auf der Landkarte und in den Köpfen aufgetaucht sind. Wird der Osten zum Standort gemacht, von dem aus Europa zu konturieren ist, so erschließt sich dieser Osten in seinen unterschiedlichen geographischen, historischen und imaginären Mehrdeutigkeiten. Europa wird dabei zu einem dezentralen Gebilde, für dessen kulturelle Semantiken gerade die Peripherien von entscheidender Bedeutung sind.
In den Beiträgen des Bandes werden diese "schmerzenden Nähte" (Jurij Andruchowitsch) aufgesucht: von Vilnius über den Balkan, den Kaukasus, die Schwarzmerregion bis nach Istanbul, Alexandria oder Beirut. Es eröffnen sich plurale Kulturen, deren Umgang mit Sprachen, Religionen, Bild- und Zeichensystemen in vielem quer zu westlich-europäischen Ordnungskonzepten liegen. Zugleich liegt die Brisanz dieser Kulturen darin, dass sie auf vielfältige Weise mit modernen kulturellen Homogenisierungsstrategien verbunden sind und immer wieder auf die auch diesen inhärenten, verdeckten oder getilgten Pluralitäten verweisen. Die Beiträge zeigen, wie die Vermessung dieser Orte zu allen Zeiten zu einem beträchtlichen Teil in Literatur und Kunst stattfindet. Hier werden territorial-kulturelle Zugehörigkeiten verhandelt, wird ein nuanciertes Spiel mit geopolitischen Verschiebungen, Verwerfungen und Umkodierungen von Topographien, mit ironischen oder melancholischen Wahrnehmungen "fremder" Räume und Gepflogenheiten betrieben.
Vom wüsten Raum zur affektiven Provinz : westliche Semantisierungen östlicher Landschaft 1800−1960
(2011)
In Europa meint die Zuschreibung der Himmelsrichtung stets mehr als eine rein kartographische Situierung. Was als "Osten" bezeichnet wird, unterliegt historisch ständigen Verschiebungen, bei denen sich eine enge Kopplung zwischen geographischer und semantischer Dimension verfolgen lässt. Bei dieser beweglichen Grenzziehung nimmt Deutschland einen besonderen Platz ein: Das Land erscheint in Selbst- wie Fremdbeschreibungen als Hybrid zwischen Ost und West und unterhält gleichzeitig eine eigene Faszinationsgeschichte mit der Figur des Ostens, die zwischen Abwehr, Okkupation und Identifikation schwankt. Es bildet daher den Ausgangs- oder vielmehr Durchgangsort, um im Folgenden die semantischen Wanderungen im (westlichen) Blick auf östliche Landschaften nachzuzeichnen. Die Etappen reichen von der Wahrnehmung der Gegend um Berlin als wüsten Raum um 1800 bis zur affektiven Besetzung der ehemaligen deutschen Gebiete in Osteuropa nach dem Zweiten Weltkrieg. Aus geographischen Provinzen werden dabei Provinzen des Gedächtnisses.
Wir alle wissen ungefähr, was Epigenetik heute ist. Wir haben das Gefühl, dass wir über die gleiche Sache reden und dies auch aus ähnlichen Gründen tun. Die Frage, was epigenetische Vererbung ist, zielt also nicht so sehr darauf, was diese Klasse von Phänomenen, über die wir reden (epigenetische Vererbung, transgenerationelle epigenetische Effekte etc.) ist, sondern darauf, warum wir über sie reden. Die Antwort lautet wahrscheinlich: Weil es in den letzten zehn, zwanzig Jahren zu einem Umbruch gekommen ist, der mit Stichworten wie "New Genetics", "postgenomische Ära" usw. beschrieben wird. Irgendetwas Dramatisches ist passiert, und im Zentrum des zu beobachtenden Umbruchs steht die epigenetische Vererbung - was auch immer das eigentlich ist. Diese mehr oder weniger intuitive Antwort möchte ich infrage stellen: Gibt es überhaupt so etwas wie "epigenetische" Vererbung?
Für die stabile Weitergabe von phänotypischen Merkmalen an nachfolgende Generationen über die Keimbahn ist in der Biologie der Begriff der Vererbung reserviert. In diesem ist die Transgenerationalität immer schon mitgemeint, sie muss nicht gesondert angezeigt werden. Dies ist anders im Forschungsfeld der "Epigenetik". Hier werden seit einigen Jahren molekularbiologische Übertragungsprozesse mit dem Wort "transgenerationell" bezeichnet. Das Wort wird sowohl im Zusammenhang mit Übertragung ("transmission") als auch mit Vererbung ("inheritance") verwendet. "Transgenerational epigenetic inheritance" bezeichnet dabei die Weitergabe von epigenetischen Modifikationen von einer Organismen-Generation auf nachfolgende Generationen. Die Bezeichnung wird in Abgrenzung zur Weitergabe epigenetischer Modifikationen von einer Zelle an eine andere Zelle innerhalb somatischer Zellteilung (cell-cell inheritance) verwendet. Transgenerationelle epigenetische Vererbung meint also letztlich die über mehrere Generationen stabile Weitergabe epigenetischer Modifikationen in mehrzelligen Organismen. Dass der biologische Vererbungsbegriff im Zusammenklang mit "epigenetisch" den Zusatz "transgenerationell" benötigt, ist klärungsbedürftig. Hierin zeigt sich, so die These dieses Beitrags, dass der angenommene Übertragungsprozess instabil oder dessen Nachweis prekär ist. Im Folgenden werde ich zunächst drei historische Einschnitte skizzieren, die für diese Konnotation transgenerationeller Vererbung als "prekäre" Übertragung prägend waren: 1. die Verengung des biologischen Vererbungsbegriffs auf die Weitergabe über die Keimbahn und die Theorie der Konstanz des Keimplasmas von August Weismann; 2. die Unterscheidung zwischen Vererbung und kultureller oder psychosozialer Übertragung von Phänotypen in der frühen Entwicklungspsychologie; und 3. die familiale Übertragung psychischer Traumata von Holocaust-Überlebenden. Abschließend werde ich darstellen, wie in epigenetischer Forschung Transgenerationalität modelliert wird, und hieran die Prekarität der Übertragungsannahme diskutieren.
Die Interaktionen von DNA mit Umwelt, die Kopplungen zwischen biologischen Prozessen und mentaler Erfahrung, deren mögliche Vererbbarkeit sowie das Aufzeigen der potentiellen Reversibilität von "krankhaften" Entwicklungen innerhalb solcher Wechselspiele bilden Faszinationen, die jenseits der molekularbiologischen Labore das öffentliche Interesse entzündet haben. Diese Faszinationen sollen hier im Mittelpunkt stehen. Denn fast unvermeidlich verfallen die Forschungsbefunde einem Deutungsanspruch auf Humankultur, auf einen Bereich, der zunächst einmal jenseits der konkreten Forschung liegt und weit über diesen hinaus zeigt. Die folgende Mischung aus Glosse und Essay zur epigenetischen Weltbildproduktion – höher kann der Anspruch angesichts einer unabgeschlossenen, derzeit noch emergierenden Publizistik nicht sein – hat mehrere Teile. Die beiden ersten sind dem Auftritt der Epigenetik in der Öffentlichkeit gewidmet: Zuerst in einer impressionistischen Bestandsaufnahme der diesbezüglichen Publizistik, danach, um einen prominenten Bildbereich festzuhalten, wie er sich in der öffentlichen Diskussion der Epigenetik sedimentiert hat. Die darauf folgenden Teile widmen sich dem Emporkommen einer molekularen Vergemeinschaftungsrhetorik. Abschließend soll kurz die soteriologische Hoffnung erörtert werden, mit welcher der epigenetischen Forschung zumindest in ausgewählten theologischen Diskursen begegnet wird.
Die zwei folgenden Vortragsskripte sowie die Transkripte von Kommentar und Diskussion entstammen einem Workshop, auf dem die "Verfahren" der Epigenetik im Fokus der Diskussion standen. Darin wurden die Technologien der Epigenetik innerhalb der Forschung und an ihren Schnittstellen mit anderen Disziplinen und der Öffentlichkeit beobachtet. Leitend war die Frage, wie das Wissen um epigenetische Prozesse in Forschungslabor und Öffentlichkeit zwischen 'techne' und 'logos' greifbar wird, wie es dargestellt, modelliert, angewendet wird. Das schließt ausdrücklich sowohl die geschichtliche Herkunft dieser Verfahren ein, als auch die Art und Weise, wie Epigenetik als Wissenschaft und wie ihre Befunde kulturell verankert und zur Darstellung gebracht werden. Die hier aus diesem Diskussionszusammenhang ausgekoppelten Beiträge werfen einen Blick auf die Konstruktionen von Übertragungsphänomenen in Forschung und Öffentlichkeit. Der Beitrag von Jörg Thomas Richter unternimmt eine kurze Medienschau, die skizziert, welche Relevanz den Befunden dieser Forschung in der breiteren Publizistik beigemessen wird. Vanessa Lux eruiert die konzeptionellen Interferenzen, auf die die Forschung trifft, wenn sie transgenerationelle Übertragung als Vererbung modelliert. Ohad Parnes geht in seinem Kommentar sowohl auf historische als auch systematische Probleme des Vererbungsbegriffs ein, wie er aus der Genetik in die Epigenetik übertragen wird. Dem beigeordnet sind Auszüge aus der Abschlussdiskussion. Sie belegen ihrerseits das faszinierende Schillern, das die Epigenetik umgibt, aber sie suchen darüber hinaus die Spiegel und Splitter zu orten, von denen es möglicherweise ausgeht.
Die dreibändige Sammlung der Fragmente der römischen Historiker bildet den Abschluss eines langjährigen Unternehmens (vii). Bereits 1996 fand ein Zusammenschluss verschiedener Wissenschaftler statt, die den Nutzen einer derartigen Kollektion erkannten und die ersten Planungsschritte vollzogen. Es folgten mehrere weitere Treffen, die der Konzeption des Corpus und der Vergrößerung des Autorenkreises gewidmet waren. Nach vielen Jahren der Zusammenarbeit und Diskussion der Ergebnisse liegt nunmehr ein beeindruckendes Ergebnis vor: 1203 Fragmente, die in jeder nur wünschenswerter Weise dokumentiert und kommentiert werden...
Zur großen Ausstellung „Imperium der Götter“ des Badischen Landesmuseums Karlsruhe, die vom 16. November 2013 bis zum 18. Mai 2014 die Vielfalt und Bedeutung der Kulte und Religionen im römischen Reich mit einer Fülle an beeindruckenden Exponaten vor Augen führte, ist ein Ausstellungsband erschienen, in dem nicht nur die ausgestellten Objekte präsentiert, sondern auch die im Blickfeld stehenden Kulte, die „orientalischen“ Kulte einschließlich des frühen Christentums und Judentums, durch zahlreiche, kurze Beiträge näher beleuchtet werden...
Gedenkrituale für Kriegsgefallene ebenso wie die Erinnerung an vergangene Kriege befinden sich in einem Zustand fortwährenden Wandels und passen sich an die jeweiligen sozialen und politischen Begebenheiten an. Dies gilt besonders für jene Gedenkrituale, mit denen an die Gefallenen in Grenzkonflikten erinnert wird: Da es derartige Situationen immer wieder gibt, werden die Gedenkrituale dazu genutzt, um im Hinblick auf neuere Konflikte die Erinnerung zu bewahren. Dies wird im Folgenden am repräsentativen Beispiel Spartas untersucht. In der ersten Hälfte des 7. Jh.s. v. Chr. wurde dort das Gymnopaidiai-Fest eingeführt, das in Verbindung zu den argivisch-spartanischen Feindseligkeiten stand. Dabei lassen sich drei Ereignisse in den Auseinandersetzungen zwischen Argos und Sparta ausmachen, die sich auf die Rituale in den Gymnopaidiai ausgewirkt haben – alle drei betreffen Thyrea. Der erste Fall greift die spartanisch-argivischen Zusammenstöße im 8. bzw. 7. Jh. v. Chr. auf, die in Thyrea stattgefunden haben dürften. Die zweite Auseinandersetzung, etwa in der Mitte des 6. Jh.s. v. Chr., war der Kampf der Dreihundert. Der dritte Konflikt lässt sich auf den Anfang des zweiten Viertels des 4. Jh.s. v. Chr. datieren, als Argos der Überlieferung nach wieder die Kontrolle über die Thyreatis erlangte. In den Quellen lassen sich hingegen keine Belege für die Einführung der Gymnopaidiai finden, die auf einen Kampf zwischen Sparta und Argos, sei es in der Thyreatis oder in Hysiai, hinweisen.
Rezension zu: Alison E. Cooley, The Cambridge Manual of Latin Epigraphy (Cambridge u.a. 2012)
(2015)
The project is focusing on a monumental funerary complex which is located in the Valley of the Nobles at Luxor. The topographic context is certainly very interesting, both because it is not very well known and deeply investigated, as well as because it appears to have been densely exploited in antiquity and for long time. It was then intensively inhabited in the last two centuries, fact that determined the obliteration of numerous tombs, but also the loss of the sense of context of this section of the ancient necropolis of Luxor. It was certainly in antiquity an important section of the necropolis, looking at the monumentality of some of the tombs, and it has been continuously used for centuries for funerary purposes, not only during the "pharaonic period", but also during later periods, as clearly suggested by Ptolemaic tombs, Greco-Roman inscriptions and finds.
A large team is collaborating at the project, including very different scholars and senior students working together from the excavation to the topographic survey, from the diagnostic mapping to the conservation, from the anthropometric analysis to the archaeometric studies, from the epigraphic interpretation to the historical reconstruction. A multidisciplinary approach to the study of this funerary complex can guarantee both an interdisciplinary interpretation of the monuments, as well as of their evolution and use throughout a long period. Too often, in fact, the monuments in Egypt are analysed just looking at their original plan and use in the pharaonic period; nevertheless, in the Theban necropolis the interesting phenomenon of the ‘re-use’ is widely attested, and the tombs present frequent enlargements, later openings, junctions with neighbor tombs, later passages transforming the original plans.
The Neferhotep’s Complex represents one of the most interesting in this sense because about six tombs have been built around a large courtyard in the late Bronze period, but about three more phases are clearly attested now by the new excavations and surveys, showing that also in the ‘later periods’, from the 7th to the 1st centuries BC, the tombs in this complex were continuously reused for burials and widely reorganized, transforming slowly their original shapes. In Roman times, the presence of the legions in the area, has determined a partial change of use of some of the areas of the necropolis, while some other contexts have continued to be used for funerary purposes.
The plan of the funerary complex is quite articulated (fig.1), with a central square courtyard, crowning and emphasizing the larger tomb, which is known as TT49. It was built just at the end of the XVIII dynasty and still preserves the original spectacular paintings. The conservation of the decorations is based on the use of a non-invasive laser methodology. A German team (PROCON) is conservating the tomb, and within the last eight seasons a large portion of the paintings in the funerary chapel have been completely cleaned and consolidated. An equip of Egyptologists, both Argentinian (the University of Buenos Aires and the CONICET) and Brasilian (of the National Museum of Rio de Janeiro) is studying and interpreting hieroglyphics and iconographies. Moreover, a team of archaeologists, geologists and topographers from the University of Chieti is working at the excavations of other two tombs of this architectonic complex and at the mapping of the context and of the tombs. During the last seasons also a team of anthropologists and palaeo-botanists from the Museum of Chieti University has joined the team, especially because of the large quantity of human and organic remains coming from the excavations. The aim of this paper is to present the project, its interdisciplinary methodologies and the preliminary results of the last seasons. Moreover, the complex is presented here analyzing not only the main original tombs and monuments, but including the numerous phases through the centuries till recent times.
Im Jahre 1891 entdeckte man bei Grabungsarbeiten in der Flur "Ob der Kaul" (heute Steinfelder Straße) in Nettersheim/Marcomagus (Kr. Euskirchen) in einem frühmittelalterlichen Gräberfeld eine fragmentarische Weihinschrift aus rötlichem Sandstein (Höhe 65,5 cm – Breite 40 cm – Tiefe 15 cm). Der in zwei Hälften gebrochene Stein diente in Zweitverwendung als Deckplatte für ein fränkisches Grab und wurde offenbar für diesen Zweck passend geschlagen,1 so dass die gesamte linke Hälfte der Inschrift und einige Buchstaben der rechten Seite verloren gingen. Obwohl die Inschrift teilweise stark verwittert ist, können die erhaltenen Buchstaben noch relativ sicher gelesen werden. Die Buchstabenhöhe beträgt in der ersten Zeile 4,5 cm, in den folgenden Zeilen 4 cm. Der Zeilenabstand misst 2 cm...
Das Hauptziel dieses Beitrags besteht darin, anhand einer tiefergehenden prosodisch-phonologischen Analyse der häufigsten Rufnamen von 1945-2008 der Frage nachzugehen, ob im Laufe der Zeit eine Androgynisierung unserer Rufnamen dahingehend stattgefunden hat, dass Strukturen, die bislang dominant für das eine Geschlecht galten, zunehmend auch für das andere Geschlecht gewählt werden bzw. geschlechtspräferente Strukturen nivelliert oder gar abgebaut werden. Ein weiteres Ziel besteht darin, auf onymischer Ebene der These nachzugehen, dass in verschiedenen gesellschaftlichen Bereichen eine sog. Informalisierung und Intimisierung stattgefunden habe, die sich möglicherweise in heutigen Namen wie Lilly oder Nico statt früher Elisabeth und Nikolaus niederschlagen.
Eine Reihe von Penisverletzungen bei Masturbation mit Staubsaugern, die im Laufe der letzten Jahre am Klinikum rechts der Isar der Technischen Universität München zur Behandlung kam, gab Anlaß zu einer eingehenden Untersuchung dieses Problems, zumal in der Literatur bisher noch keine zusammenhängende Darstellung zum obigen Thema erschienen war. Nur Waterhouse und Gross, 1969 (52) erwähnten in ihrer Arbeit über 251 Fällen von UrogenitaltraktVerletzungen eine Staubsaugerverletzung des Penis durch Masturbation. Kammerer, 1972 fand unter 60 Penisverletzungen 8 Verletzungen durch Staubsauger...
Contents:
Yuki Chiba, Santiago Escobar, Naoki Nishida, and David Sabel, and Manfred Schmidt-Schauß : Preface:
The Collection of all Abstracts of the Talks at WPTE 2015 xi
Brigitte Pientka : Mechanizing Meta-Theory in Beluga
Giulio Guerrieri : Head reduction and normalization in a call-by-value lambda-calculus
Adrián Palacios and Germán Vidal : Towards Modelling Actor-Based Concurrency in Term Rewriting
David Sabel and Manfred Schmidt-Schauß : Observing Success in the Pi-Calculus
Sjaak Smetsers, Ken Madlener, and Marko van Eekelen : Formalizing Bialgebraic Semantics in PVS 6.0
Various static analyses of functional programming languages that permit infinite data structures make use of set constants like Top, Inf, and Bot, denoting all terms, all lists not eventually ending in Nil, and all non-terminating programs, respectively. We use a set language that permits union, constructors and recursive definition of set constants with a greatest fixpoint semantics in the set of all, also infinite, computable trees, where all term constructors are non-strict. This internal report proves decidability, in particular DEXPTIME-completeness, of inclusion of co-inductively defined sets by using algorithms and results from tree automata and set constraints, and contains detailed proofs. The test for set inclusion is required by certain strictness analysis algorithms in lazy functional programming languages and could also be the basis for further set-based analyses.
The calculus LRP is a polymorphically typed call-by-need lambda calculus extended by data constructors, case-expressions, seq-expressions and type abstraction and type application. This report is devoted to the extension LRPw of LRP by scoped sharing decorations. The extension cannot be properly encoded into LRP if improvements are defined w.r.t. the number of lbeta, case, and seq-reductions, which makes it necessary to reconsider the claims and proofs of properties. We show correctness of improvement properties of reduction and transformation rules and also of computation rules for decorations in the extended calculus LRPw. We conjecture that conservativity of the embedding of LRP in LRPw holds.
The calculus LRP is a polymorphically typed call-by-need lambda calculus extended by data constructors, case-expressions, seq-expressions and type abstraction and type application. This report is devoted to the extension LRPw of LRP by scoped sharing decorations. The extension cannot be properly encoded into LRP if improvements are defined w.r.t. the number of lbeta, case, and seq-reductions, which makes it necessary to reconsider the claims and proofs of properties. We show correctness of improvement properties of reduction and transformation rules and also of computation rules for decorations in the extended calculus LRPw. We conjecture that conservativity of the embedding of LRP in LRPw holds.
Rezension zu: Fabian Schuppert, Freedom, Recognition and Non-Domination: A Republican Theory of (Global) Justice (Dordrecht: Springer, 2014).
Rezension zu:
Margaret Moore, A Political Theory of Territory (New York: Oxford, 2015).
Rezension zu:
Frank Vogl, Waging War on Corruption (Lanham: Rowman & Littlefield Publishers, 2012).
Shaazka Beyerle, Curtailing Corruption, People Power for Accountability and Justice (Boulder: Lynne Rienner Publishers, 2014)
Rezension zu:
Ruben Andersson, Illegality, Inc. (Oakland, CA: University of California Press, 2014)
Amy Nethery and Stephanie J. Silverman (eds.), Immigration Detention: The Migration of a Policy and its Human Impact. (London and New York: Routledge, 2015)
Imperialism is the domination of one state by another. This paper sketches a nonrepublican account of domination that buttresses this definition of imperialism. It then defends the following claims. First, there is a useful and defensible distinction between colonial and liberal imperialism, which maps on to a distinction between what I will call coercive and liberal domination. Second, the main institutions of contemporary globalization, such as the WTO, the IMF, the World Bank, etc., are largely the instruments of liberal imperialism; they are a reincarnation of what Karl Kautsky once called ‘ultraimperialism’. Third, resistance to imperialism can no longer be founded on a fundamental right to national self-determination. Such a right is conditional upon and derivative of a more general right to resist domination.
The concept of freedom as non-domination that is associated with neo-republican theory provides a guiding ideal in the global, not just the domestic arena, and does so even on the assumption that there will continue to be many distinct states. It argues for a world in which states do not dominate members of their own people and, considered as a corporate body, no people is dominated by other agencies: not by other states and not, for example, by any international agency or multi-national corporation. This ideal is not only attractive in the abstract, it also supports a concrete range of sensible, if often radical international policies.
Contemporary liberalism and republicanism present clearly distinct programs for domestic politics, but the same cannot be said when it comes to global politics: the burgeoning literature on global republicanism has reproduced the divide between cosmopolitan and associational views familiar from long-standing debates among liberal egalitarians. Should republicans be cosmopolitans? Despite presence of a range of views in the literature, there is an emerging consensus that the best answer is no. This paper aims to resist the emerging consensus, arguing that republicans should be cosmopolitans. The considerations offered against cosmopolitanism generally rest on an incomplete understanding of the relationship between economic inequality or poverty on the one hand, and domination on the other. Insofar as republicans agree that promoting freedom from domination should be our central political aim, they should regard the reduction of economic inequality and poverty at home and abroad as equally pressing.
The article aims to sharpen the neo-republican contribution to international political thought by challenging Pettit’s view that only representative states may raise a valid claim to non-domination in their external relations. The argument proceeds in two steps: First I show that, conceptually speaking, the domination of states, whether representative or not, implies dominating the collective people at least in its fundamental, constitutive power. Secondly, the domination of states – and thus of their peoples – cannot be justified normatively in the name of promoting individual non-domination because such a compensatory rationale misconceives the notion of domination in terms of a discrete exercise of power instead of as an ongoing power relation. This speaks in favour of a more inclusive law of peoples than Pettit (just as his liberal counterpart Rawls) envisages: In order to accommodate the claim of collective peoples to non-domination it has to recognize every state as a member of the international order.
This report documents the extension LRPw of LRP by sharing decorations. We show correctness of improvement properties of reduction and transformation rules and also of computation rules for decorations in the extended calculus LRPw. We conjecture that conservativity of the embedding of LRP in LRPw holds.
An improvement is a correct program transformation that optimizes the program, where the criterion is that the number of computation steps until a value is obtained is decreased. This paper investigates improvements in both { an untyped and a polymorphically typed { call-by-need lambda-calculus with letrec, case, constructors and seq. Besides showing that several local optimizations are improvements, the main result of the paper is a proof that common subexpression elimination is correct and an improvement, which proves a conjecture and thus closes a gap in Moran and Sands' improvement theory. We also prove that several different length measures used for improvement in Moran and Sands' call-by-need calculus and our calculus are equivalent.
An improvement is a correct program transformation that optimizes the program, where the criterion is that the number of computation steps until a value is obtained is decreased. This paper investigates improvements in both { an untyped and a polymorphically typed { call-by-need lambda-calculus with letrec, case, constructors and seq. Besides showing that several local optimizations are improvements, the main result of the paper is a proof that common subexpression elimination is correct and an improvement, which proves a conjecture and thus closes a gap in Moran and Sands' improvement theory. We also prove that several different length measures used for improvement in Moran and Sands' call-by-need calculus and our calculus are equivalent.
An improvement is a correct program transformation that optimizes the program, where the criterion is that the number of computation steps until a value is obtained is decreased. This paper investigates improvements in both { an untyped and a polymorphically typed { call-by-need lambda-calculus with letrec, case, constructors and seq. Besides showing that several local optimizations are improvements, the main result of the paper is a proof that common subexpression elimination is correct and an improvement, which proves a conjecture and thus closes a gap in Moran and Sands' improvement theory. We also prove that several different length measures used for improvement in Moran and Sands' call-by-need calculus and our calculus are equivalent.
Mis-selling by banks has occurred repeatedly in many nations over the last decade. While clients may benefit from competition – enabling them to choose financial services at lowest costs – economic frictions between banks and clients may give rise to mis-selling. Examples of mis-selling are mis-representation of information, overly complex product design and non-customized advice. European regulators address the problem of mis-selling in the "Markets in Financial Instruments Directive" (MiFID) I and II and the "Markets in Financial Instruments Regulation" (MiFIR), by setting behavioral requirements for banks, regulating the compensation of employees, and imposing re-quirements on offered financial products and disclosure rules.
This paper argues that MiFID II protects clients but is not as effective as it could be. (1) It does not differentiate between client groups with different levels of financial literacy. Effective advice requires different advice for different client groups. (2) MiFID II uses too many rules and too many instruments to achieve identical goals and thereby generates excessive compliance costs. High compliance costs and low revenues would drive banks out of some segments of retail business.
Das Ergebnis des Volksentscheids im Vereinigten Königreich ist ein Weckruf. Alle Entscheidungsträger der Europäischen Union und ihrer Mitgliedstaaten sind aufgerufen, grundlegende Reformen der Verfassung einer Europäischen Union, möglicherweise nur noch einer europäischen „Kontinentalunion“ unverzüglich in Angriff zu nehmen. Unverzüglich bedeutet, einen Reformprozess nicht erst dann zu beginnen, wenn die Verhandlungen über ein Austrittsabkommen beendet worden sind. Eine Rückentwicklung der Europäischen Union zu einer bloßen Wirtschaftsgemeinschaft dürfte dabei keine Lösung sein. Es ist jetzt angezeigt, offen und – notfalls kontrovers – zu diskutieren, wie ein künftiger Bundesstaat auf europäischer Ebene aussehen könnte.
Given the current Middle Eastern scenario, one may reasonably hold the argument that the on-going turmoil in the Middle East owes its burden equally to the Machiavellian Anglo-American policies in the region and the harrowing failure of the Muslim governments/leaderships in the Middle East to rationally respond to those challenges. But are there any dimensions beyond religion?
Der deutsche und französische Innenminister haben eine Initiative gestartet um gegen Verschlüsselung vorzugehen. Ihr Argument, was von mehr oder weniger allen Geheimdiensten/Strafverfolgungsbehörden unisono vorgetragen wird lautet, dass verschlüsselte Kommunikation die Arbeit der Behörden behindere. Bereits im Jahr 1993 wurde die gleiche Debatte geführt, endete aber mit dem Konsens, dass die Vorteile von Verschlüsselung die Nachteile deutlich überwiegen. Dieser Konsens, getragen von Industrie, Datenschützern und Politik (sowohl Liberale als auch Konservative) schien sicher, war er doch die vernünftigste Antwort auf ein komplexes Problem. Heute stellen die von Rechtspopulisten getriebenen Innenminister wieder einmal die Verschlüsselung in Frage. Warum das eine schlechte Idee ist, soll dieser Beitrag klären.NSA Chef Inman argumentierte bereits 1980: “There is
a very real and critical danger that unrestrained public discussion of crypto-logic matters will seriously damage the ability of this government to conduct signals intelligence and the ability of this government to carry out its mission of protecting national security information from hostile exploitation” (1980). Kern dieses “going dark” Arguments ist also, dass digitale Überwachung schwerer würde, wenn alle verschlüsseln. Terroristen und andere bad guys könnten also nicht mehr gefangen werden. Die Debatte ist also gar nicht so neu und überraschend wie immer behauptet wird....
From 1963 through 2015, idiosyncratic risk (IR) is high when market risk (MR) is high. We show that the positive relation between IR and MR is highly stable through time and is robust across exchanges, firm size, liquidity, and market-to-book groupings. Though stock liquidity affects the strength of the relation, the relation is strong for the most liquid stocks. The relation has roots in fundamentals as higher market risk predicts greater idiosyncratic earnings volatility and as firm characteristics related to the ability of firms to adjust to higher uncertainty help explain the strength of the relation. Consistent with the view that growth options provide a hedge against macroeconomic uncertainty, we find evidence that the relation is weaker for firms with more growth options.
This study looks at the interrelationship between fiscal policy and safe assets as there is surprisingly little analysis about this beyond fleeting references. The study argues that from a certain point more public debt will not “buy” more safety: countries face a kind of “safe-assets Laffer curve” with a maximum amount of safe assets at some level of indebtedness. The position and “stability” of this curve depend on a number of national and international factors, including the international risk appetite and, as a more recent factor, QE policies by central banks. The study also finds evidence of declining safe assets as reflected in government debt ratings.
Im Rahmen der vorliegenden Diplomarbeit wurden die bei den Kalttests der supraleitenden 360 MHz CH-Prototypkavität gewonnenen Messergebnisse sowie das Prinzip der Hochfrequenzmessung an supraleitenden Resonatoren vorgestellt. Zudem wurde bei dem Aufbau eines eigens für diese Messungen optimierten horizontalen Kryostaten mitgearbeitet. Die wesentlichen Elemente des Kryostaten wurden dargestellt und das Kaltfahren des gesamten Kryosystems erläutert. Das am IAP erarbeitete Tuningkonzept, bei dem ein langsamer, kettenbetriebener Tuner für den Ausgleich statischer Frequenzänderungen und zusätzlich drei Piezotuner zur Kompensation schneller Frequenzschwankungen eingesetzt werden, konnte aufgrund der zu groÿen Schwankungen der Resonanzfrequenz, die durch die stetige Befüllung des Kryostaten mit Helium hervorgerufen wurde, nur bedingt getestet werden. Dennoch konnte gezeigt werden, dass der Piezotuner die Frequenz der Kavität für kurze Zeit konstant hält und der langsame, mechanische Tuner einen Frequenzhub von 400 kHz erreichen kann. Für weitere Kalttests der CH-Struktur im horizontalen Kryostaten werden zur Zeit sowohl das Regelsystem für die schnellen Piezotuner als auch die Motorsteuerung des mechanischen Tuners optimiert.
In einem weiteren Arbeitsschritt wurden mit Hilfe der Simulationssoftware ANSYS Rechnungen zur Geometrieoptimierung des neuen dynamischen Balguners für zukünftige supraleitende CH-Strukturen durchgeführt. Das Hauptaugenmerk der Optimierung lag hierbei auf der Reduktion der auftretenden Materialspannungen bei einem vorgesehenen Hub von ca. ± mm, der durch eine äuÿere Belastung hervorgerufen wird. Dabei wurden verschiedene geometrische Gröÿen variiert und die optimalen Parameter gefunden. Zudem wurde eine Modalanalyse durchgeführt, um zu verhindern, dass die mechanischen Eigenfrequenzen des Balgtuners in den Betriebsbereich des Piezotuners, der letztlich für den Antrieb der dynamischen Balgtuner vorgesehen ist, fallen. Die nach sämtlichen Simulationsschritten berechnete und final vorgesehene Tunergeometrie und deren Parameter, die bezüglich des auftretenden von-Mises-Stresses optimiert wurden, sind in Abbildung bzw. Tabelle 9.1 dargestellt.
Desweiteren wurden mit Hilfe des Simulationsprogramms CST MicroWave Studio Untersuchungen zu Multipacting durchgeführt. Aufgrund der problematischen Spannungswerte im oberen Gap des Tuners müssen in weiteren Arbeitsschritten zusätzliche Simulationsrechnungen durchgeführt werden, um die Gefahr von Multipacting zu verhindern. Um die strukturmechanischen Simulationsergebnisse und deren Genauigkeit zu validieren, wurde zu Testzwecken ein Balgtunerprototyp bestehend aus eineinhalb Zellen von der Firma RI in Bergisch Gladbach gefertigt. Messungen der maximalen Auslenkung zeigten zwischen simulierten und gemessenen Werten eine Diskrepanz von einem Faktor von ungefähr 3.
Für weitere Testzwecke soll ein weiterer Balgtunerprototyp bestehend aus 6 Zellen nach den simulierten Parametern angefertigt und später sowohl bei Raumtemperatur als auch unter kryogenen Bedingungen auf dessen Auslenkung getestet werden.
Hepatitis B caused by infection with the hepatitis B virus (HBV) still ranks among the most challenging infectious diseases of our time. Despite the availability of an effective prophylactic vaccine, 240 million people worldwide are estimated to be chronically infected with HBV and are at risk of developing life-threatening liver diseases, including cirrhosis and liver cancer. The underlying pathogenic mechanisms of HBV-associated liver diseases are only incompletely understood. It is widely accepted that liver pathology results from long-term immune-mediated liver injury and inflammation as a consequence of inefficient viral elimination. This injury can be naturally compensated by liver regeneration. However, chronic liver damage and permanent inflammation debilitates the regenerative capacity of the liver and fosters fibrosis as well as accumulation of chromosomal aberrations, which both contribute to cirrhosis and liver cancer. Liver regeneration requires the presence of the redox-sensitive transcription factor Nrf2 and intact insulin receptor signaling. A lack of Nrf2 causes increased intracellular levels of reactive oxygen species (ROS) that inactivate insulin receptor signaling and induce insulin resistance. Interestingly, HBV was observed to activate Nrf2 and the expression of Nrf2-regulated genes. This argues against an inhibitory effect of HBV on insulin receptor signaling by increased ROS levels. However, chronic HBV infection is associated with dysregulation of hepatocyte proliferation and retardation of liver regeneration. Hence, the aim of this thesis was to investigate the influence of HBV on the process of liver regeneration with respect to the insulin receptor signaling pathway. After short-term carbon tetrachloride (CCl4)-induced liver damage, HBV transgenic mice present prolonged liver damage and impaired liver regeneration as reflected by reduced hepatocyte proliferation and increased apoptosis. Impaired hepatocyte proliferation in HBV transgenic mice correlates with diminished activation of the insulin receptor. It was further observed in vitro that the activation of Nrf2 by HBV induces increased levels of the insulin receptor mRNA and protein in HBV-expressing cells. Strikingly, stably HBV-expressing cells as well as primary mouse hepatocytes from HBV transgenic mice bind less insulin due to reduced amounts of insulin receptor on the cell surface. This is caused by intracellular retention of the insulin receptor in HBV-expressing cells as a consequence of increased amounts of the cellular trafficking factor α-taxilin. The reduced amounts of insulin receptor on the cell surface impair insulin sensitivity in HBV-expressing cells and inactivate downstream signaling cascades that initiate insulin-dependent gene expression and glucose uptake. As a consequence of impaired hepatocyte proliferation and liver regeneration, HBV transgenic mice exhibit increased development of fibrosis after long-term CCl4-induced liver damage. Taken together, in this thesis, a novel pathomechanism could be uncovered that includes inactivation of insulin receptor signaling by HBV via intracellular retention of the insulin receptor leading to impaired liver regeneration after liver damage and promotion of liver fibrosis. These findings significantly contribute to an enhanced understanding of HBV-associated liver pathogenesis.
Molecular signaling networks, organized in discrete subsets of proteins in space and time, represent the major principle by which the cell achieves its functional specificity and homeostasis. Complex network organization is preserved by numerous mechanisms, including sequestration of proteins into specific subcellular compartments (eg. organelles), post-translational modifications and most importantly by balanced timing of their biosynthesis and turnover. Two routes of protein degradation, which are fundamentally quite different, are proteasomal and lysosomal-mediated destruction. The latter not only governs degradation of molecules that passed through endocytic or secretory process (trafficking from plasma membrane or Golgi compartment), but also the degradation of cytoplasmic molecules that have been sequestered by a process called macroautophagy (henceforth autophagy). Recently our understanding of autophagic regulatory mechanisms has increased significantly, as molecular details of how autophagy contributes to the degradation of proteins (old, misfolded or aggregated), damaged organelles or pathogens have been deciphered. Initially described as bulk, nonspecific membrane sequestration process induced primarily by nutrient deprivation, autophagy is now known to be selective in terms of cargo recognition and integration into dynamic cellular membrane trafficking system.
My work has addressed the fundamental question of how small ubiquitin-like modifiers LC3/GABARAP, that are conjugated to the autophagic membranes, function within the process of cargo selection and crosstalk between autophagic and endocytic membrane trafficking events. We have employed an initial yeast twohybrid screen to identify LC3/GABARAP interacting partners. Using this technique, we have identified several novel autophagy receptor proteins, mitochondrial protein Nix (BNIP3L), and adaptor proteins, including Rab GTPase activating proteins (TBC family of proteins). Through a conserved LC3 interacting region (LIR), Nix, Rab GAPs and other autophagy adaptor/receptor molecules share a common mode of binding to LC3/GABARAP. However, in contrast to Nix, which specifically facilitates removal of mitochondria in maturing erythrocytes, Rab GAP proteins preferably regulate the dynamics of autophagosome formation and maturation as well as sorting of cargo. Fourteen out of 36 screened Rab GAPs interacted with LC3/GABARAPs. Importantly, identified Rab GAPs are clustered in different regulatory nodes according to the conservation of their GAP domain hence they impact various cellular membrane compartments and organelles, marked by specific subsets of small Rab GTPases. Identification of Rab GAPs that are directly involved in autophagy via binding to LC3 was the first report that clearly pointed to a broader implication of autophagy in all aspects of cellular membrane trafficking. Currently, only few of Rab GAPs are studied in context of autophagy regulation, while large number of them requires further functional characterization.
I have identified two LIR motifs in TBC1D5, Rab7 GAP. LIR1 has also the ability to interact with retromer complex subunit, Vps29. Using several functional assays I have shown that this motif, as well as catalytic Arg within GAP domain are particularly important for function of TBC1D5 in retrograde transport of CI-M6PR from endosomes to the trans-Golgi network (TGN). I have also shown that TBC1D5 binds to LC3 and Vps29 in mutually exclusive way and that Thr at the position 1 and Phe at position 5 of LIR1 motif are both required for TBC1D5 interaction with Vps29. Upon autophagy induction TBC1D5 dissociates from retromer, and associates with autophagic vesicles, while silencing of TBC1D5 significantly impairs autophagic flux. These findings led to the hypothesis that LIR interacting surface on TBC1D5 acts as molecular switch for dual function of TBC1D5. This also indicated that similar surfaces for LIR interaction (similarly to ubiquitin-like domains) are present on proteins other than LC3, and pointed to a dual functionality of the LIR sequence within both endocytic and autophagic pathways.
Following these initial studies, I have also shown that TBC1D5 interacts with AP2 complex subunit AP2M1, and that this interaction plays critical role in TBC1D5-dependent trafficking of Atg9. It is known that Atg9, the only trans-membrane autophagic protein, plays essential role in initiation of autophagy and growth of nascent phagophore membranes. However, machinery that specifically recruits Atg9 traffic carriers to the site of autophagosomes was not known. I subsequently demonstrated that TBC1D5 associates not only with LC3, but also with Atg9 traffic carriers and major initiatory kinase ULK1 during autophagy, while retromer failed to do so. Association of TBC1D5 with Atg9 was dependent on presence of AP2 complex, and on functional clathrin-mediated endocytosis (CME). Based on these and previous findings, model was proposed, that upon induction of autophagy TBC1D5 re-routes Atg9-containing clathrin vesicles from plasma membrane to the site of autophagosome. This led us to the better understanding of TBC1D5 function, but also to the first molecular cue that Atg9 traffics within clathrin-coated vesicles (CCVs). In fact, mutation of Leu-Leu motif within N terminus of Atg9, that potentially mediates interaction with adaptor protein complexes, led to enrichment of Atg9 on plasma membrane and in TGN. This suggested that the sorting motif could be important for interaction of Atg9 with AP2 and AP1 complex, as well. More importantly, TBC1D5 and Atg9 could be directly involved in dynamic regulation of growth factor receptor sorting during autophagy, thus explaining vital role of autophagy in organism development and pathogenesis.
In summary, the work contained within my thesis provides data on the mechanism by which autophagy adaptor proteins participate in cargo selection and regulation of trafficking during autophagy. Firstly, the LIR motif can target proteins or organelles for autophagic degradation (eg. Nix). Secondly, specific LIR motifs can play essential function in recruiting membrane trafficking regulatory proteins that subsequently facilitate phagophore expansion (eg. TBC1D5). Thirdly, by means of reorganization of different protein assemblies (eg. TBC1D5-VPS29 vs. TBC1D5-LC3-Atg9), dynamics of membrane remodeling mediated by Rab GTPases is kept in control during autophagy, thus keeping the organelle integrity and balance within cellular lipid sources unaffected.
Aus Wissen wird Gesundheit : das Magazin des Universitätsklinikums Frankfurt. Ausgabe 02/2016
(2016)
Aus Wissen wird Gesundheit : das Magazin des Universitätsklinikums Frankfurt. Ausgabe 01/2016
(2016)
Aus Wissen wird Gesundheit : das Magazin des Universitätsklinikums Frankfurt. Ausgabe 04/2015
(2015)
Aus Wissen wird Gesundheit : das Magazin des Universitätsklinikums Frankfurt. Ausgabe 03/2015
(2015)
Aus Wissen wird Gesundheit : das Magazin des Universitätsklinikums Frankfurt. Ausgabe 02/2015
(2015)
Aus Wissen wird Gesundheit : das Magazin des Universitätsklinikums Frankfurt. Ausgabe 01/2015
(2015)
Aus Wissen wird Gesundheit : das Magazin des Universitätsklinikums Frankfurt. Ausgabe 01/2014
(2014)
Aus Wissen wird Gesundheit : das Magazin des Universitätsklinikums Frankfurt. Ausgabe 03/2014
(2014)
Aus Wissen wird Gesundheit : das Magazin des Universitätsklinikums Frankfurt. Ausgabe 02/2014
(2014)
Aus Wissen wird Gesundheit : das Magazin des Universitätsklinikums Frankfurt. Ausgabe 04/2014
(2014)
Social movements and institutions are central actors in national and transnational politics as well as core categories of social inquiry. Despite their importance, both terms are still haunted by a lack of thorough definitions. We introduce a blog series with ten weekly contributions on their interrelation, outlining several innovative approaches and suggesting some vantage points for rethinking ‘Movements’ and ‘Institutions’ in a productive manner.
Prehistoric dental treatments were extremely rare, and the few documented cases are known from the Neolithic, when the adoption of early farming culture caused an increase of carious lesions. Here we report the earliest evidence of dental caries intervention on a Late Upper Palaeolithic modern human specimen (Villabruna) from a burial in Northern Italy. Using Scanning Electron Microscopy we show the presence of striations deriving from the manipulation of a large occlusal carious cavity of the lower right third molar. The striations have a "V"-shaped transverse section and several parallel micro-scratches at their base, as typically displayed by cutmarks on teeth. Based on in vitro experimental replication and a complete functional reconstruction of the Villabruna dental arches, we confirm that the identified striations and the associated extensive enamel chipping on the mesial wall of the cavity were produced ante-mortem by pointed flint tools during scratching and levering activities. The Villabruna specimen is therefore the oldest known evidence of dental caries intervention, suggesting at least some knowledge of disease treatment well before the Neolithic. This study suggests that primitive forms of carious treatment in human evolution entail an adaptation of the well-known toothpicking for levering and scratching rather than drilling practices.
Cardiac arrhythmias are often associated with mutations in ion channels or other proteins. To enable drug development for distinct arrhythmias, model systems are required that allow implementing patient-specific mutations. We assessed a muscular pump in Caenorhabditis elegans. The pharynx utilizes homologues of most of the ion channels, pumps and transporters defining human cardiac physiology. To yield precise rhythmicity, we optically paced the pharynx using channelrhodopsin-2. We assessed pharynx pumping by extracellular recordings (electropharyngeograms--EPGs), and by a novel video-microscopy based method we developed, which allows analyzing multiple animals simultaneously. Mutations in the L-type VGCC (voltage-gated Ca(2+)-channel) EGL-19 caused prolonged pump duration, as found for analogous mutations in the Cav1.2 channel, associated with long QT syndrome. egl-19 mutations affected ability to pump at high frequency and induced arrhythmicity. The pharyngeal neurons did not influence these effects. We tested whether drugs could ameliorate arrhythmia in the optogenetically paced pharynx. The dihydropyridine analog Nemadipine A prolonged pump duration in wild type, and reduced or prolonged pump duration of distinct egl-19 alleles, thus indicating allele-specific effects. In sum, our model may allow screening of drug candidates affecting specific VGCCs mutations, and permit to better understand the effects of distinct mutations on a macroscopic level.
Während sich die Fernverkehrsangebote auf der Schiene über Jahrzehnte hinweg und im Laufe eines kontinuierlichen Infrastrukturausbaus entwickelten, muss sich die städtische Verkehrsplanung in kurzer Zeit auf die neuen Angebote des Fernbuslinienmarktes einstellen. Dabei sehen sich die Städte mit verschiedenen Herausforderungen konfrontiert: Sie müssen Verknüpfungspunkte in Form von Fernbus-terminals vorhalten und sie stehen vor der Aufgabe, die Fernbuslinienangebote in die regionalen Verkehrssysteme zu integrieren. Durch die dynamische Entwicklung des Fernbusmarktes nach seiner Liberalisierung, den schnellen Ausbau der Linienverbindungen und den unvorhergesehenen Anstieg der Fahrgastzahlen waren die lokalen Akteure bislang kaum in der Lage, fundiertes Erfahrungswissen im verkehrsplanerischen Umgang mit Fernbuslinienangeboten aufzubauen. Das Projekt „Integration von Fernbuslinienangeboten“ nimmt sich am Beispiel der Stadt Frankfurt am Main den Handlungsnotwendigkeiten der städtischen Verkehrsplanung an und formuliert auf Grundlage einer Fahrgastbefragung an zwei Standorten mögliche Optionen aus der Perspektive der Fahrgäste. Dabei stehen insbesondere die Anforderungen an und Handlungsoptionen für die städtebauliche und verkehrliche Integration der Fernbuslinienangebote in lokale Verkehrssysteme im Fokus.
Das Fahren ohne (gültigen) Fahrschein wird bereits seit den späten 1980er Jahren in der Wissenschaft thematisiert. Bis heute wird das Thema vorwiegend aus einer rechtswissenschaftlichen, einer betriebswirtschaftlichen sowie einer kriminologischen Perspektive betrachtet. Weiterhin wird das Fahren ohne (gültigen) Fahrschein in Ansätzen sozialwissenschaftlich betrachtet. Eine Analyse des Themas aus der Perspektive der sozialwissenschaftlichen Mobilitätsforschung würde den wissenschaftlichen Diskurs erweitern. In den Print- und Onlinemedien wird das Thema ebenfalls relativ häufig thematisiert. Der Forschungsstand spiegelt sich in den Medien wieder, allerdings ist die Auseinandersetzung weitaus differenzierter, da beispielsweise auch politische Motivationen zum Fahren ohne (gültigen) Fahrschein angesprochen werden. Insgesamt lässt sich feststellen, dass Das Fahren ohne (gültigen) Fahrschein bereits Einzug in wissenschaftliche Untersuchungen und Debatten gefunden hat. Das Arbeitspapier fasst den Stand der Forschung zum Fahren ohne (gültigen) Fahrschein zusammen und bildet somit einen Einstieg für die Fokussierung des Themas aus Sicht der sozialwissenschaftlichen Mobilitätsforschung.
Die Goethe-Universität befindet sich seit einigen Jahren in einem deutlichen Wandel. Der Campus Westend wird zum Zentralcampus ausgebaut und auch personell wächst die Goethe-Universität. Fast 47.000 Studierende und mehr als 5.000 Beschäftigte (Stand Herbst 2014) studieren und arbeiten an den Campussen.
Die Goethe-Universität ist damit einer der bedeutendsten Verkehrserzeuger in Frankfurt, da nahezu täglich über 50.000 Personen ihren Studien- oder Arbeitsplatz an der Goethe-Universität erreichen müssen und auch zwischen den verschiedenen Standorten pendeln.
Das folgende Arbeitspapier befasst sich mit der Mobilität der Studierenden und der Beschäftigten der Goethe-Universität, die mittels zweier Online-Befragungen erhoben und analysiert wurden. Es werden die zentralen Erkenntnisse bezüglich der vorhandenen Mobilitätsressourcen und wohnungsnahen Mobilitätsangebote, des Verkehrsverhaltens hinsichtlich der Häufigkeit, Dauer und Länge von Wegen zu und zwischen den Campussen und der Nutzung von Verkehrsmitteln, den Einstellungen zu den verschiedenen Verkehrsmitteln und die Nutzungsbereitschaft bezüglich optionaler Mobilitätsangebote der Universität vorgestellt.
Abschließend wird ein Resümee über den durch die Universität erzeugten Verkehr gezogen und auf Basis umfassender zielgruppenspezifischer Erkenntnisse werden Vorschläge zur Entzerrung, Verlagerung und Optimierung für ein universitäres Mobilitätsmanagement entwickelt.
Im Rahmen dieser Arbeit wurden zum Vergleich die Strukturen der ATP-Synthasen von Arabidopsis thaliana, Asparagus officinalis, Allium cepa, Helianthus annus, Solanum tuberosum, Bos taurus und Saccharomyces cerevisiae gelöst. Die ATP-Synthase von S. cerevisiae konnte mit einer Auflösung von 19 Å gelöst werden. Der Winkel zwischen den zwei ATP-Synthase-Monomeren in dem ATP-Synthase-Dimer hatte für jede Spezies einen bestimmten Wert. Dieser Winkel änderte sich innerhalb einer Spezies nur wenig im Gegensatz zu Untersuchungen mit Einzelpartikelanalyse.
Die ATP-Synthase-Dimere aus den untersuchten Spezies besitzen unterschiedliche Winkel zwischen 78˚ und 122˚. Der Winkel des ATP-Synthase-Dimers aus S. tuberosum (122˚) viel größer als der in anderen Pflanzen (~98˚), B. taurus (105˚) und S. cerevisiae (78˚). Die Proben von S. tuberosum und B. taurus waren jedoch dünner, was den Winkel eventuell beeinflussen könnte. Um dies auszuschließen müssen in Zukunft weitere Untersuchungen durchgeführt werden.
Des Weiteren wurde im peripheren Stiel der ATP-Synthasen von allen Pflanzenspezies eine Dichte entdeckt, die in B. taurus und S. cerevisiae nicht vorhanden ist. Die Dichte könnte durch eine zusätzliche Untereinheit oder veränderte Untereinheit im Vergleich zu B. taurus und S. cerevisiae kommen.
Weiterhin wurde die Bildung von Reihen aus ATP-Synthase-Dimeren untersucht. Es wurden ATP-Synthase-Dimere von Polytomella sp. gereinigt und in Lipid rekonstituiert. Es wurde das ATP-Synthase-Dimer von Polytomella sp. verwendet, da dieses besonders stabil ist und während der Reinigung nicht zum ATP-Synthase-Monomer zerfällt. Zur Rekonstitution wurde die milde GRecon-Methode verwendet. Hierbei werden Membranproteine in einem Zuckergradienten gleichzeitig in Lipid rekonstituiert und nach ihrer Dichte getrennt. Abhängig von der Dichte der Proteoliposomen ist die Konzentration an Membranproteinen unterschiedlich. In Proteoliposomen mit einer hohen Konzentration bilden sich dünne Schichten in denen die ATP-Synthase-Dimeren Zickzack-Muster formen. Dies deutet darauf hin, dass das ATP-Synthase-Dimer die Membran verformt. In Proteoliposomen mit einer niedrigeren Konzentration an ATP-Synthase-Dimeren wurden runde Vesikel detektiert, in denen die ATP-Synthase-Dimere lange Reihen bilden und die Membran innerhalb jedes ATP-Synthase-Dimer ebenfalls verformt ist. Molekulare Simulationen bestätigen dieses Ergebnis.
Zudem wurde das ATP-Synthase-Dimer in zwei verschiedene Lipide ohne Cardiolipin rekonstituiert, da Cardiolipin ein Lipid ist welches in der bakteriellen und mitochondrialen Membran gefunden wurde und in hohen Konzentrationen in Membrankrümmungen lokalisiert ist (Huang et al., 2006), wie auch die ATP-Synthase-Dimere. Ohne Cardiolipin ist die Rekonstitution nicht geglückt beziehungsweise sind die ATP-Synthase-Dimere weniger gut zueinander angeordnet. Das deutet auf die Wichtigkeit von Cardiolipin in der Stabilisierung der Reihen von ATP-Synthase-Dimeren hin. Weitere Experimente mit verschiedenen ATP-Synthase-Dimeren in verschiedenen Lipiden sind nötig um dies zu untermauern.
Ein weiteres Ziel dieser Arbeit war es ein klonierbares Label zu etablieren, um ein bestimmtes Protein in Kryo-Elektronentomogramme zu identifizieren. Das Label sollte klein sein, um das zu identifizierbare Protein nicht zu beeinflussen und groß genug um in Kryo-Elektronentomogramme identifizierbar zu sein. In Einzelbildern wurde das 6 kDa große Metallothionein gebunden mit Gold identifiziert, wenn zwei Metallothioneine an dem gewünschten Protein kloniert wurden. Metallothionein besteht zu 33 % aus Cysteinen, welche Schwermetalle binden.
In meinen Studien habe ich bewiesen, dass drei Metallothioneine, gebunden mit Gold, in Kryo-Elektronentomogramme detektiert werden können. Jedoch tritt bei der Verwendung von Metallothionein durch die hohe Anzahl an Cysteinen vermehrt Aggregation auf. Bei meinen Untersuchungen fand ich heraus, dass auch das Maltose-Binde-Protein (MBP) ein Signal gleicher Intensität erzeugt. Durch Verwendung von MBP tritt aber keine Aggregation auf und man kann MBP auch zum Reinigen des Proteins verwenden.
Die vorliegende Arbeit beschäftigt sich mit der Entwicklung von regionalen Klimasimulationen für die Region Ostasien. Hierfür werden zwei verschiedene Modellierungsansätze verwendet. Der dynamische Regionalmodellierungsansatz, vertreten durch COSMO CLM (CCLM), und der statistische Modellierungsansatz, vertreten durch STARS. Die Simulationen erfolgten unter den Rahmenbedingungen des Coordinated Regional Climate Downscaling Experiment (CORDEX). Beide Regionalmodelle wurden im Rahmen dieser Arbeit umfassend für die Region CORDEX-Ostasien kalibriert und evaluiert. Das statistische Modell STARS wurde hierbei erstmals auf kontinentaler Ebene angewendet. Auf Basis der kalibrierten Modelle wurden Projektionen der zukünftigen klimatischen Entwicklung der Region durchgeführt.
Zur Auswertung der einzelnen Kalibrierungsläufe wurde ein komplexes Evaluierungsschema, mit einem Gütekennzahlensystem basierend auf einer linearisierten Form der relativen Modelldifferenz, entwickelt. Neben den etablierten univariaten statistischen Kennwerten (Mittelwert, Varianz, Trend) enthält das Gütekennzahlensystem auch ein bivariates statistisches Maß, welches die zweidimensionalen Stichprobenverteilungen zweier Variablen (beispielsweise Temperatur und Niederschlag) bewertet.
Im Rahmen der Kalibrierung konnte ein Großteil des Parameterraums des statistischen Modells STARS systematisch untersucht werden. Es zeigte sich, dass nur wenige Parameter einen Einfluss auf die Simulationen haben. Die meisten Parameter zeigten eine geringe und teilweise unsystematische Beeinflussung. Es konnte zudem eine Schwachstelle des Modells in Bezug auf die Variablenkorrelationen identifiziert werden. Bei der Kalibrierung des dynamischen Regionalmodells CCLM zeigte sich, dass aufgrund der groben horizontalen Auflösung des Modells eine signifikante Verbesserung der Simulationen durch eine Anpassung der physikalischen Parametrisierungen erfolgen kann.
Im Rahmen einer abschließenden Evaluierung wurden beide Modelle hinsichtlich ihres räumlichen Bias, des simulierten Jahresgangs und der Abbildung des asiatischen Monsunphänomens untersucht. Im ersten Punkt ergab sich kein qualitativer Unterschied zwischen CCLM und STARS. Beide Modelle zeigen eine deutliche Überschätzung der 2m-Temperatur im Winter über dem nördlichen Teil CORDEX-Ostasiens und eine Überschätzung des Luftdrucks über dem Hochland von Tibet im Sommer. Unterschiede zwischen beiden Modellen ergaben sich hingegen beim simulierten Jahresgang.
In Bezug auf die Modellierung des Monsunphänomens zeigt CCLM eine Unterschätzung der Intensität des indischen Sommermonsuns und eine Überschätzung des Sommermonsuns über dem westlichen Nordpazifik. Das statistische Modell STARS zeigte eine Auffälligkeit bei der Simulation des Jahresgangs sowie der räumlichen und zeitlichen Entwicklung des Sommermonsuns. Aufgrund der Konzeption des Modells ergab sich in einzelnen Regionen eine systematische Deformation des Jahresgangs. Trotz der identifizierten Schwachstellen von CCLM und STARS, bilden beide Modelle das Klima über der Region CORDEX-Ostasien qualitativ ähnlich gut ab wie aktuelle Reanalysen (ERA-Interim).
Auf Basis der kalibrierten und evaluierten Modelle wurden Klimaprojektionen für einen nahen (2020-2046), mittleren (2041-2070), und späten (2071-2100) Projektionszeitraum unter den Emissionsszenarien RCP2.6, RCP4.5 und RCP8.5 durchgeführt. Aufgrund von Modellbeschränkungen begrenzen sich die Rechnungen des Modells STARS auf den nahen Projektionszeitraum und die Emissionsszenarien RCP2.6 und RCP4.5. Die Projektionen beider Modelle zeigen eine deutliche und statistisch signifikante Erhöhung der 2m-Temperatur über der gesamten Region mit einer stärkeren Erwärmung über dem Kontinent gegenüber dem Meer. Aufgrund der relativ großen interannulären Variabilität des Niederschlags und des Luftdrucks werden statistisch nicht signifikante Änderungssignale und teils widersprüchliche Änderungen für den nahen Projektionszeitraum simuliert. Für den späten Projektionszeitraum ergeben sich jedoch deutliche Änderungssignale in den Simulationen des Modells CCLM. Insbesondere über dem Hochland von Tibet wird für den Zeitraum von 2071-2100 eine Temperaturerhöhung von über 7.0°C simuliert. Der Luftdruck und der Niederschlag zeigen räumlich heterogene Änderungssignale. Die spezifische Ausprägung der Luftdruckänderungen deutet auf eine Abschwächung der indischen Sommermonsunzirkulation und eine deutlichen Intensivierung des Sommermonsun über dem westlichen Nordpazifik hin. Die Niederschlagsänderungen über dem ostasiatischen Monsungebiet lassen auf eine Entkopplung der östlichen Monsunsysteme schließen. Trotz der heterogenen Änderungssignale im Niederschlag wird in den meisten Regionen eine Zunahme der Intensität von Extremniederschlägen simuliert. Dies gilt selbst für Regionen mit einer simulierten Abnahme der jährlichen Niederschlagssumme wie Westindonesien.
This thesis is concerned with protein structures determined by nuclear magnetic resonance (NMR), and the text focuses on their analysis in terms of accuracy, gauged by the correspondence between the structural model and the experimental data it was calculated from, and in terms of precision, i.e. the degree of uncertainty of the atomic positions. Additionally, two protein structure calculation projects are described...
Photoinduzierte Energietransferprozesse und -reaktionen spielen in vielen Gebieten von Chemie, Physik und Biologie eine wichtige Rolle. Zu den prominentesten Beispielen zählen der Lichtsammelprozess in der Photosynthese und der Anregungsenergietransfer in funktionellen Materialien. Der Fokus dieser Arbeit liegt auf letzterem Bereich, genauer auf organischer Elektronik und flexiblen Donor-Akzeptor-Bausteinen und Schaltern. Im Besonderen werden hier zwei verschiedene Typen von funktionellen organischen Systemen betrachtet: zum einen oligomere Fragmente organischer halbleitender Polymere wie Oligo-p-Phenylen-Vinylen (OPV) und Oligo-Thiophen (OT), welche als Bausteine für neuartige organische Solarzellen dienen, und zum anderen kleine funktionelle Donor-Akzeptor-Einheiten wie Dithienylethen-Bordipyrromethen (DTE-BODIPY). Letzteres wurde in Kooperation mit den experimentellen Gruppen von K. Rück-Braun (TU Berlin) und J. Wachtveitl (Goethe Universität) untersucht. Um die relevanten Energietransfermechanismen genauer zu verstehen, wurden an diesen Systemen elektronische Strukturrechnungen und quantendynamische Untersuchungen durchgeführt. Hierzu wurden mittels ab initio-Methoden Modell-Hamiltonians parametrisiert und mit hochdimensionalen quantendynamischen oder semiklassischen Methoden kombiniert. Während die Parametrisierung für kleinere Fragmente durchgeführt wurde, lässt sich der so parametrisierte Hamiltonian ohne Weiteres auf größere Systeme erweitern. Die dynamischen Studien der betreffenden Systeme wurden mittels der Multikonfigurationellen Zeitabhängigen Hartree (MCTDH) Methode durchgeführt, welche eine vollständige quantendynamische Beschreibung des Systems zulässt. Für größere Systeme wurde die semiklassische Ehrenfest Methode in Verbindung mit dem Langevin-Ansatz zur Beschreibung von Umgebungseffekten genutzt. Hierzu wurde ein eigens für diese Methode und Systeme geschriebenes Programm eingesetzt. Im Falle der OT- und OPV-Oligomere wurde die Dynamik bei Vorliegen eines strukturellen Defekts untersucht. Ziel war es hierbei, die dynamischen Phänomene, welche durch die Photoanregung induziert werden, zu untersuchen. Des Weiteren wurde untersucht, ob das Konzept von „spektroskopischen Einheiten“, welche die Lokalisierung der Anregung durch strukturelle Defekte beschreibt, in diesen Systemen zutrifft. Hierzu wurden die Systeme in einer Frenkel-Basis definiert, welche ein auf einem Monomer lokalisiertes Elektron-Loch-Paar beschreibt. Delokalisierte elektronische Anregungen können somit als Superposition solcher Frenkel-Zustände beschrieben werden. Neben der Frenkel-Basis wurde aber auch eine verallgemeinerte Elektron-Loch-Basis verwendet, welche über zusätzliche Ladungstransferzustände eine räumliche Separation von Elektronen und Löchern erlaubt.Die Parametrisierung des OPV- und OT-Hamiltonians erfolgte mittels der Algebraischen Diagrammatischen Konstruktions (ADC(2))-Methode, welche in Kombination mit einer Übergangs-Dichte-Matrix-Analyse eine sehr akkurate Beschreibung der Frenkel- und Ladungstransferzustände basierend auf den supermolekularen Zuständen erlaubt. Um vibronische Effekte auf die Dynamik miteinzubeziehen,wurden nieder- und hochfrequente Torsions- und alternierende Bindungslängenmoden des Systems im Hamiltonian berücksichtigt. Hierzu wurden eindimensionale Schnitte der Potentialflächen entlang dieser Koordinaten berechnet und mittels einer Transformation in diabatische Potentialflächen überführt. Mit diesem Setup wurden die quantendynamischen und semiklassischen Simulationen für ein OPV/OT-Hexamer und ein 20-mer durchgeführt. Die Ergebnisse dieser Simulationen zeigen, dass der Energietransfer auf einer Subpikosekunden-Zeitskala stattfindet und eine starke Abhängigkeit vom Vorliegen eines strukturellen Defekts aufweist. Des Weiteren konnte auf einer Zeitskala von 100 Femtosekunden eine Lokalisierung des Exzitons beobachtet werden. Fluktuationseffekte werden zudem über Quantenfluktuationen im Falle von MCTDH bzw. über thermische Fluktuationen im Falle des Ehrenfest-/Langevin-Ansatzes berücksichtigt. Letzterer ist jedoch nicht in der Lage, die kohärente Charakteristik der mit den Schwingungsmoden gekoppelten Exziton- und Lokalisierungsdynamik wiederzugeben. Dagegen kann dieser Ansatz erfolgreich genutzt werden, um eine fluktuationsgetriebene „Hopping“-Dynamik des quasi- stationären Zustandes auf einer längeren Zeitskala in Abhängigkeit von der Temperatur zu beschreiben. Die Beschreibung der Photodynamik der DTE-BODIPY-Dyade zielt darauf ab, experimentell beobachtete vibrationelle Schwingungen des BODIPY-Fragments zu erklären, die ohne eine direkte Anregung dieses Fragments zustande kommen. Diese wurden nach einer selektiven Anregung des DTE-Fragments in zeitaufgelösten UV/Vis Anreg-Abtast-Experimenten beobachtet. Der Fokus der Untersuchung liegt daher auf der Beschreibung der photoinduzierten intramolekulare Energieumverteilung (IVR) auf einer Subpikosekunden-Zeitskala. Die DTE-BODIPY Dyade wurde mittels eines Hamiltonians, welcher durch TDDFT Rechnungen parametrisiert wurde, dargestellt. Basierend auf den Normalmoden des Systems, wurden lokale DTE- und BODIPY-Moden konstruiert, wobei einige dieser Moden miteinander gekoppelt sind und die Photoanregung des DTE auf das BODIPY-Fragment übertragen. Hierbei zeigte sich, dass die Zeitskala und die charakteristischen Frequenzen des Experiments mittels der hochdimensionalen MCTDH-Methode gut reproduziert wurden. Aus den Simulationen ergab sich zudem, dass der beobachtete Energietransfer stark von einem Reservoir von vibrationell angeregten lokalen DTE-Moden beeinflusst wird. Der untersuchte IVR- Prozess zeigt zudem eine ausgeprägte Abhängigkeit von lokalen Kopplungen und der Kopplung an eine Umgebung.