Refine
Year of publication
- 2009 (1397) (remove)
Document Type
- Article (513)
- Doctoral Thesis (275)
- Part of Periodical (201)
- Review (101)
- Book (85)
- Part of a Book (60)
- Working Paper (36)
- Report (32)
- Conference Proceeding (30)
- Diploma Thesis (11)
Language
- German (1397) (remove)
Is part of the Bibliography
- no (1397) (remove)
Keywords
- Deutsch (48)
- Filmmusik (21)
- Literatur (20)
- Lehrdichtung (17)
- Reiseliteratur (14)
- Mittelhochdeutsch (13)
- Zeitschrift (12)
- Film (11)
- Phraseologie (11)
- Linguistik (9)
Institute
- Medizin (174)
- Extern (118)
- Präsidium (78)
- Biowissenschaften (50)
- Biochemie und Chemie (47)
- Rechtswissenschaft (45)
- Gesellschaftswissenschaften (41)
- Geschichtswissenschaften (37)
- Physik (25)
- Pharmazie (24)
Rezensionen zu: Jörg Lesczenski: 100 Prozent Messer. Die Rückkehr des Familienunternehmens 1898 bis heute ; München 2007, Piper Verlag, ISBN 978-3-492-05085-2, 271 Seiten, gebunden, 24,90 Euro. Clemens Reichel : Vom Verbund zum Konzern. Die Metallgesellschaft AG 1945 – 1975 ; Schriften zur hessischen Wirtschafts- und Unternehmensgeschichte 8, Darmstadt 2008, Hessisches Wirtschaftsarchiv, ISBN 978-3-9804506-9-0, 332 Seiten, gebunden, 32 Euro.
Rezension zu: Ines Stickler : »mainhattanmanhattan – lebensgeschichten aus zwei metropolen« Grußworte: Petra Roth, Oberbürgermeisterin von Frankfurt am Main, und Dr. Hans-Jürgen Heimsoeth, Generalkonsul der Bundesrepublik Deutschland; Frankfurt, B3 Verlag 2008; ISBN 978-3-938783-53-5, 226 Seiten und zahlreiche Abbildungen, 19,90 Euro.
Dass die Stadt seit der Krise des Fordismus nicht mehr als ein eher ausführendes Organ des Wohlfahrtsstaates fungiert, sondern selbst unter Wettbewerbsbedingungen für die Aktivierung endogener Wachstumspotenziale und die Schaffung von Wohlstand und Arbeitsplätzen verantwortlich ist, hat seit längerem unter dem Begriff der „unternehmerischen Stadt“ Einzug in die kritische Stadtforschung erhalten. Gefordert werden aber immer wieder konkrete empirische Untersuchungen im Spannungsfeld zwischen zunehmendem interkommunalem Standortwettbewerb und den lokalen Regulationsformen vor Ort. Stadtpolitik verfügt auch weiterhin über eine relative Autonomie und kann somit durchaus einen Unterschied – beispielsweise in der Ausgestaltung der Sozialpolitik – machen. Als empirisches Ergebnis einer Untersuchung der Transformationsprozesse am Beispiel der Stadt Münster im Bundesland Nordrhein-Westfalen lässt sich festhalten, dass der Wandel zu einem „Unternehmen Münster“ samt den Folgen für benachteiligte Bevölkerungsgruppen nicht etwa kriseninduziert gewesen ist, sondern erstens politisch gewollt und strategisch durchgesetzt wurde. An Hand einer Analyse der diskursiven Deutungsmuster innerhalb der städtischen Verwaltung wird zweitens deutlich, dass das Ideal der unternehmerischen Stadt als hegemoniales Deutungsmuster von den leitenden Akteuren so verabsolutiert und verinnerlicht worden ist, dass sie ihr Handeln auch ohne direkten Zwang primär an dem Ideal der Verbesserung der lokalen Wettbewerbsfähigkeit ausrichten. Die unternehmerischen Stadtumstrukturierungsprozesse haben lokalpolitische Konflikte provoziert. Die daraus resultierenden sozialen Kämpfe konnten zwar die grundsätzliche Transformation zu einer unternehmerischen Stadt und die drastischen Kürzungen im Sozialbereich nicht verhindern, aber auf Grund plebiszitärer Elemente in der nordrheinwestfälischen Kommunalverfassung durchaus Teilerfolge erzielen.
Mobilität verstehen und verändern : Stiftungsprofessor Martin Lanzendorf sucht nachhaltige Konzepte
(2009)
Zielsetzung: Ziel des Projekts ist es, ein longitudinales Modell-Curriculum "Kommunikative und soziale Kompetenzen" für die medizinische Ausbildung zur Diskussion zu stellen. Vorgehen und Ergebnisse: Auf einem 2-tägigen Workshop wurde interfakultär und interdisziplinär auf der Grundlage des "Basler Consensus Statements: Kommunikative und soziale Kompetenzen im Medizinstudium" ein Curriculum entwickelt, das deutschsprachigen Fakultäten bei der Planung und Implementierung als Vorlage dienen kann. Das Modell lässt sich als Gesamt-Curriculum oder in Teilmodulen implementieren. Es kann auch bei der Umstellung auf Bachelor- und Masterstudiengänge genutzt werden. Das longitudinale Modell-Curriculum weist neben 131 definierten Ausbildungszielen geeignete didaktische Konzepte und Prüfungsformate auf und gibt Vorschläge, zu welchem Zeitpunkt die verschiedenen Fächer die entsprechenden Lernziele vermitteln können. Fazit: Mit diesem longitudinalen "Modell-Curriculum Kommunikative und Soziale Kompetenzen" liegt für den deutschen Sprachraum erstmalig ein curriculares Instrument vor, das breite Anwendung an einer Vielzahl deutscher, österreichischer und schweizerischer Fakultäten finden und eine Umsetzung des Bologna-Prozesses auch fakultätsübergreifend vereinfachen kann. Schlüsselwörter: Modell-Curriculum, kommunikative/soziale Kompetenzen, Basler Consensus Statement, medizinische Ausbildung, Didaktik, Prüfung, Bologna-Prozess
Ziel der vorliegenden, multizentrischen Studie war es, das Standardtherapieschema Mitoxantron-Chlorambucil-Prednison (MCP) mit der neueren Kombination Cladribin (2-CdA)-Mitoxantron (CdM) bezüglich Ansprechraten, Überlebensraten und Toxizität als firstline-Therapie bei Patienten mit niedrigmalignem Non-Hodgkin Lymphom zu vergleichen. Es wurden insgesamt 178 Patienten in die Studie aufgenommen, 92 wurden zu CdM randomisiert und 86 zu MCP. Es gab 15 Dropouts. Histologisch hatten 84 Patienten ein follikuläres Lymphom, 37 hatten ein Mantelzelllymphom, 28 ein Immunozytom und 14 ein Marginalzonenlymphom. Die Patienten bekamen bis zu sechs Therapiezyklen. Im Arm CdM wurden an den Tagen 1-3 5 mg/m² Cladribin als Infusion verabreicht, sowie an Tag 1+2 8 mg/m² Mitoxantron als i. v. Bolus. Die Patienten die dem Arm MCP zugeordnet waren bekamen an den Tagen 1–5 3x 3mg/m² Chlorambucil per os, sowie einmal täglich 25 mg/m² Prednison per os. An Tag 1+2 wurde außerdem 8 mg/m² Mitoxantron als i. v. Bolus verabreicht. Auf die Therapie mit MCP sprachen insgesamt 81 % der Patienten an (CR 24,1 %, PR 57 %). Die Therapie mit CdM hatte eine Remissionsrate von 85,7 % (CR 34,5 %, PR 51,2 %). Die Unterschiede waren nicht signifikant. Der Median des overall survival (OS) konnte nicht erreicht werden, in Arm CdM lag das OS nach 77 Monaten bei 64 %, im Arm MCP lag es nach 71 Monaten bei 51 %. Der Median des event-free survival lag bei MCP bei 20 Monaten und unter CdM bei 21 Monaten. Der Median des progression-free survival betrug 26 Monate bei MCP und 27 Monate bei CdM Keiner dieser Unterschiede war signifikant. Nicht-hämatologischen Nebenwirkungen gaben nur wenige Patienten an, diese waren hauptsächlich Übelkeit, Erbrechen, Durchfall und Alopezie. Häufigste hämatologische Nebenwirkung war eine Leukozytopenie. Bei CdM kam es in 81,7 % der Zyklen zu einer Leukozytopenie WHO Grad 3 oder 4, bei MCP in 64,1 % der Zyklen. Die Ergebnisse zeigen, dass CdM gegenüber MCP keine Vorteile aufweist, jedoch auch keine Nachteile hat. Die evtl. bessere Wirkung bei Mantelzelllymphomen lässt sich Aufgrund der nicht-repräsentativen Größe dieser Gruppe nur vermuten.
Im Herbst 2007 entbrannte der Streit um den Bau einer Moschee im Frankfurter Stadtteil Hausen. In der vorliegenden Arbeit wird die Repräsentation dieses Streits als "Kulturkonflikt" oder als "Integrationsproblem" zum Anlass genommen, nach den diskursiven Grenzziehungen gegenüber MuslimInnen innerhalb der Auseinandersetzung zu fragen. Prozesse der Zuschreibung und Essentialisierung werden hinsichtlich der Konzeptualisierung von Ethnizität und kultureller Identität in den Blick genommen und in Zusammenhang mit rassismustheoretischen Ansätzen dargestellt. Die Beobachtungen am konkreten Fall des Frankurter Moscheebaustreits werden so eingeordnet in die aktuellen Debatten zum Islam und zu Islamophobie in Europa.
HINTERGRUND: Ein Großteil der anästhesiologischen Dienstleistung wird vom Patienten häufig nicht wahrgenommen. Dem anästhesiologischen Aufklärungsgespräch kommt daher zur Evaluation der wahrgenommenen Dienstleistungsqualität und der damit verbundenen Reputation des Faches in der Öffentlichkeit eine große Bedeutung zu. Abseits vom medikolegalen Mindeststandard bietet das Aufklärungsgespräch zahlreiche inhaltliche sowie organisatorische Gestaltungsmöglichkeiten. Ziel dieser prospektiven Patientenbefragung war es, im Rahmen des DIN EN ISO 9001:2000 konformen QM-Systems, die Erwartungen der Patienten an das anästhesiologische Aufklärungsgespräch in Hinblick auf die organisatorischen Rahmenbedingungen und inhaltlichen Schwerpunkte zu evaluieren. MATERIAL UND METHODEN: In einer repräsentativen Umfrage wurden 429 Patientinnen und Patienten der Klinik für Anästhesiologie, Intensivmedizin und Schmerztherapie (KAIS) der Goethe-Universität Frankfurt am Main wurden vor Durchführung des Aufklärungsgespräches in einer anonymisierten schriftlichen Befragung hinsichtlich ihrer persönlichen Angsteinschätzung und zu ihren Erwartungen zu dem Aufklärungsgespräch befragt. Inhalt des Fragebogens waren neben organisatorischen Rahmenbedingungen auch inhaltliche Aspekte wie aufklärungspflichtige Risiken. Anhand einer 4stufigen Likert-Skala konnten die Patienten den von ihnen gewünschten Umfang der Aufklärung einstufen. ERGEBNISSE: Aufgrund der Erwartungen der Patienten konnten im organisatorischen Bereich Verbesserungspotetiale detektiert und realisiert werden. So wünscht die Mehrheit der Patienten (57%) das der konkrete Zeitpunkt des Gespräches bekannt ist. Essentielle Anforderungen sind weiterhin, dass der prämedizierende Anästhesist vor allem kompetent und freundlich ist und sich Zeit nehmen kann für das Gespräch. Hinsichtlich der aufklärungspflichtigen Risiken gaben zwischen 53,5% und 70,3% der befragten Patienten an, eine umfassende bzw. bis ins Detail gehende Aufklärung zu erwarten, wobei hier die subjektiv angegebene Angst vor der Anästhesie positiv mit dem gewünschten Umfang des Aufklärungsgespräches (rho 0,44-0,53) korreliert. SCHLUSSFOLGERUNG: Die Ergebnisse der Befragung fanden Eingang in die Gestaltung des Personalplans der Klinik. Sowohl die quantitative als auch qualitative Besetzung der Prämedikationsambulanz wurde optimiert, so dass die Gesprächszeit des Patienten mit dem Arzt insgesamt erhöht werden konnte. Patienten der KAIS mit subjektiv angegebener Angst vor der Narkose haben in der Mehrzahl der Fälle ein erhöhtes Informationsbedürfnis. Dies sollte von den gesprächsführenden ärztlichen Mitarbeitern bei der Durchführung des Gespräches berücksichtigt und im Gespräch ggf. aktiv nachgefragt werden.
In vorliegender Arbeit wurde eine Methode beschrieben, mit der an einem Patientenkollektiv nach dem Vorhandensein von Genvarianten im PC-Gen gesucht wurde. Das PC ist eine Serin-Protease, ihr Hauptbildungsort ist die Leber. Ein Defekt im Gen des PC erhöht das Risiko für die Manifestation thrombotischer Ereignisse. Die in einer Datenbank von 1995 zusammengefassten Mutationen sprechen für die Heterogenität des PC-Gens. Für die Untersuchung wurde aus Leukozyten gewonnene, genomische DNA verwendet. Anschließend erfolgte die Amplifizierung mittels PCR-Techniken und direkter Sequenzierung in einem Sequenzierautomaten. Die Amplifizierung des Gens erfasst Bereiche der Promotor-Region (Exon 1) sowie die kodierenden Exone 2-9 mit den flankierenden Intron-Grenzen. Insgesamt erhält man 8 PCR-Amplifikate, wobei die Exons 4 und 5 zusammen in einem Ansatz amplifiziert und sequenziert wurden. Die Amplifizierung der Exons wurde mit bereits beschriebenen Primerpaaren als auch mit eigenen Primerpaaren durchgeführt. Die PCR-Bedingungen wurden auf die im Labor zur Verfügung stehende Apparaturen etabliert. Die Sequenzierung konnte auf zwei Sequenzierautomaten der Firma PE Applied Biosystems etabliert werden (ABI 373A und ABI PRISM 310). Die Ergebnisse der Sequenzanalyse wurden mit der PC-Sequenz von Foster et al. sowie der Mutations-Datenbank von 1995 ausgewertet. Sowohl in dem zehnköpfigen Kontrollkollektiv, als auch in dem Patientenkollektiv, konnten Sequenzpolymorphismen in den Introns und Exons nachgewiesen werden. In der Kontrollgruppe konnten keine Mutationen nachgewiesen werden. Die Auswertung der Patientengruppe erbrachte bei 11 der 33 untersuchten Patienten sechs unterschiedliche Mutationen. Alle Mutationen waren vom Typ einer Missense-Mutation. Fünf der sechs Mutationen lagen im Exon 9, welches auch das größte der insgesamt 9 Exons des PC-Gens darstellt. Eine Mutation konnte im Exon 4 nachgewiesen werden. Die Mutationen A2987G (Asp46Asn) sowie T8743C (Met343Thr) konnten in ihrer heterozygoten Form, erstmalig als mit einem Typ I Mangel assoziierte neue Mutationen, beschrieben werden. Die mit einem Typ II- Mangel assoziierte Mutation D8554G (Asp280Gly) konnte ebenfalls erstmalig beschrieben werden. Alle detektierten Mutationen waren vom Typ einer Missense-Mutation. Fünf der sechs Mutationen wurden in der heterozygoten Form detektiert. Die Typ I-Mutation T8689G (Val325Ala) konnte als einzige in der homozygoten Form dargestellt werden. Die Sequenzierung des humanen PC-Gens ist eine aufwändige Methode und zum Screening von Patientenproben nicht geeignet. Ihr Einsatz ist als Ergänzung zu den gängigen Labormethoden zu sehen, die jedoch mit Störfaktoren und falschen Werten bei oraler Kumarintherapie, behaftet sind. Für Patienten mit im Normbereich oder knapp unterhalb des Normbereiches liegenden PC-Aktivitäten, können so durch Zuhilfenahme molekularbiologischer Untersuchungen, Hinweise für eine genetische Ursache eines PC-Mangels gefunden werden. Im Falle einer familiären Belastung kann unter Einbeziehung möglichst vieler Familienmitglieder ein hereditärer Verlauf nachgewiesen werden. Wird bei einem Patienten oder seinen Familienangehörigen ein Verdacht auf eine Mutation im PC-Gen bestätigt, sollten die Betroffenen in einer Risikosituation wie z.B. einem elektiven Eingriff, einer Thromboseprohylaxe zugeführt werden. Welche Bedeutung die neuen Mutationen letztlich für die Funktion des Proteins haben, wurde nicht untersucht. Analysen zur Genexpression oder Computeranimierte 3D-Strukturanalysen unter Einbeziehung der Mutationen könnten weitere Informationen über die Heterogenität und die Funktion des PC liefern.
Die Geschichte der Medizinischen Hauptbibliothek beginnt 1908, sechs Jahre vor Gründung der Frankfurter Universität. Ehemals eine städtische Einrichtung, ist die Bibliothek seit 2005 eine Bereichsbibliothek der Universitätsbibliothek und gehört zur Goethe Universität Frankfurt am Main. Hauptaufgabe der Medizinischen Hauptbibliothek ist die Literaturversorgung der Ärzte und Medizinstudenten des Universitätsklinikums. Historisch bedingt kann außerdem jeder Bürger Frankfurts und sogar Hessens einen Leserausweis bekommen und die Bibliothek mit Einschränkungen nutzen.
Welche Räume für Bildung bieten die modernen 'Wissensgesellschaften' und welcher Bildungsräume bedürfen sie für ihren Bestand? Die folgenden pädagogisch-philosophischen Darlegungen widmen sich dieser Frage am Leitfaden der drei für die Problematik einschlägigen Begriffe 'Wissen', 'Lernen' und 'Orientierung'.
Retortenkino : Game Impact
(2009)
Das B-Movie "Street Fighter: The Legend of Chun Li" haben wir Gott sei Dank schon wieder vergessen. Mit "Prince of Persia" aus dem Hause Bruckheimer/Disney steht 2010 jedoch die nächste große Spieleverfilmung mit dazugehöriger Marketing-Maschinerie an. Marcus Stiglegger nimmt den anhaltenden Trend zum Anlaß und setzt sich mit dem Einfluß von Computerspiel-Ästhetik auf die Inszenierung von Spielfilmen auseinander.
Pinkus : gefallene Engel
(2009)
Egal, wie man seine Vertreter nennt - ob "Pinku eiga", "roman porno" oder "ero guro": Das Reich des japanischen Erotikfilms ist hierzulande fernab Nagisa Oshimas und der Tokugawa-Streifen immer noch weitgehend unerforscht. Dabei stellt es unter anderem ein Sprungbrett für viele junge Filmemacher dar. Marcus Stiglegger berichtet über die Revolte des Fleisches unter der Roten Sonne.
Frankfurt – das ist mehr als Banken-Metropole oder Drehscheibe des internationalen Flugverkehrs. An der Goethe-Universität, dem Think Tank der Region forschen viele Wissenschaftler, die unbestritten auf ihrem Gebiet führend sind. Einige Forschungsergebnisse haben zusätzlich ein hohes Anwendungspotenzial, sei es in der Medizin oder in den Naturwissenschaften. Viele der Erfindungen sind inzwischen über das universitätseigene Innovation-Dienstleistungsunternehmen Innovectis zum Patent angemeldet worden und werden erfolgreich lizenziert. Einige Erfi ndungen haben zu Unternehmensgründungen, sogenannten Spin-offs oder Start-ups, geführt, was den direkten Wissenstransfer aus der Hochschule in die Wirtschaft und die Gesellschaft nochmals fördert.
Stadtpolitik greift immer häufiger auf »best practices« aus anderen Städten zurück und nutzt sie als Blaupausen für ihre Entwicklungskonzepte. Doch was geschieht, wenn globalisierte Politikmodelle auf lokale Gegebenheiten heruntergebrochen werden? Neue Fragestellungen für die Humangeografie – die Frankfurter Wissenschaftler erforschen dies an konkreten Beispielen für die Mainmetropole.
Was Frankfurt ist : über die Schwierigkeiten, sich im Europa der Metropolregionen zurechtzufinden
(2009)
Was man alles über Metropolen gesagt hat. Laboratorien der Moderne seien sie. Eben avantgardistisch, weil sich in diesen Städten früher zeige, was später sein werde. In ihren Räumen vermessen wir die Zeit, ist der Kulturwissenschaftler Karl Schlögl überzeugt. Die eigene Zeit, wohlgemerkt. Allein – ist Frankfurt eine Metropole?
Jährlich erkranken etwa 425 000 Menschen in Deutschland an Krebs. Die Tendenz ist steigend: Experten gehen davon aus, dass die Zahl der Neuerkrankungen bis zum Jahr 2030 um 50 Prozent zunehmen wird. Doch zu dieser schlechten Nachricht gibt es auch eine gute: Körperliche Aktivität und Sport können das allgemeine Risiko, an bestimmten Krebsformen zu erkranken, vermindern. Dazu zählen vor allem Darmkrebs sowie der nach den Wechseljahren auftretende Brust- und Gebärmutterschleimhautkrebs. Aber auch wer schon erkrankt ist, kann sein Wohlbefinden und Selbstvertrauen durch spezielle Bewegungsprogramme, wie sie an der Goethe-Universität entwickelt werden, steigern. Selbst die Leiden von Patienten mit fortgeschrittenen Krebserkrankungen lassen sich auf diese Weise lindern. Denn Bewegung beeinflusst nicht nur die unmittelbar tumorbedingten Symptome, sondern auch therapiebedingte Nebenwirkungen, insbesondere die der Chemotherapie.
Deutsche Sprache, schwere Sprache? : Einsichten aus Spracherwerbsforschung und Sprachförderung
(2009)
Moderne Technologien wie Fernsehen und Internet haben die jahrhundertealte Tradition des Geschichtenerzählens in den Hintergrund gedrängt, obgleich sie bis heute nichts von ihrer Faszination eingebüßt hat. Märchen, Sagen und zeitgeschichtliche Berichte halten Erinnerungen wach, ranken sich um historische Persönlichkeiten, erklären Ortsnamen und geologische Formationen aus fernen Welten oder der Heimat. Erst durch Erzählungen wird eine Region für unsere Kinder lebendig erhalten und das Wissen von einer Generation an die nächste weitergegeben. Das Projekt »Café Sagenhaft« sammelt »Geschichten aus Frankfurt und der großen weiten Welt« auf einer innovativen Internetplattform. Adressaten sind Pädagogen aus unterschiedlichen Segmenten des Bildungssystems: Grundschullehrerinnen und -lehrer, Erzieherinnen und Erzieher finden hier künftig regionale und internationale Geschichten für Kinder didaktisch sinnvoll aufbereitet und mit vielen Tipps und Anregungen für die Unterrichts- und Freizeitgestaltung versehen. Doch fi ndet nicht nur eine Verzahnung des vorschulischen mit dem schulischen Bildungsbereich, sondern auch eine Integration der Seniorenkulturarbeit statt. Für ältere Menschen mit Erzähltalent bietet das Café Sagenhaft nämlich die Möglichkeit des bürgerschaftlichen Engagements, indem sie als Experten ihrer eigenen Lebensgeschichten oder als Erzähler schriftlich kodifi zierter Geschichten auftreten können. Entwickelt von einem Projektteam unter Leitung von Prof. Dieter Nittel am Institut für Sozialpädagogik und Erwachsenenbildung wird das virtuelle Café ab Februar 2010 online gehen und unter der Domain www.cafesagenhaft.de von der Stadtbibliothek weiterbetrieben werden.
Mit der Madonna des Jacob Meyer zum Hasen von Hans Holbein dem Jüngeren beherbergt das Frankfurter Städel Museum seit einigen Jahren eines der Hauptwerke der deutschen Renaissancemalerei. Kunsthistoriker haben dieses Gemälde im Laufe der Jahrzehnte immer wieder in den Blick und unter die Lupe genommen. Vieles über seine Entstehungsgeschichte ist bekannt, doch einiges lag im Verborgenen. Mithilfe der Infrarot-Reflektografie ließ sich jetzt zeigen, dass der Künstler das Gemälde – auf Wunsch seines Auftraggebers – mehrfach verändert hat. ...
Als die Kinemathek in Karlsruhe noch „Kommunales Kino“ hieß und im Untergeschoss der Orangerie ihren Platz hatte, da wurden während der späten 1970er im Kinderprogramm Filme gezeigt, in denen der australische Schauspieler Errol Flynn die Hauptrolle innehatte. Die Sitzgelegenheiten waren einfache Holzstühle und der Projektor stand frei am hinteren Ende des Raumes. Während er das typische Projektorrattern ratterte, hingen im Erdgeschoss berühmte Gemälde berühmter Maler: Eine sonderbare Collage von Kurt Schwitters, August Mackes „Leute am See“ und Robert Delaunays Bild eines einstürzenden Eiffelturms. Nur über einen Nebeneingang konnte man in den Keller gelangen. In der Samstagsnachmittag-Kindervorstellung wurden Filme gezeigt, die zwar nicht immer ausgewiesene Kinderfilme waren, aber alt - und damit halbwegs sex- und gewaltfrei.
Im Zentrum des folgenden Artikels stehen der Themenkomplex der Kindfrau sowie der damit verbundene Mythos. Zu Beginn erfolgt eine historisch-systematische Untersuchung des Phänomens, daran anschließend wird der Roman Lolita (1955) von Vladimir Nabokov mit seinem Entwurf der Kindfrau in Bezug auf die Verfilmung des Werkes durch Stanley Kubrick (Lolita 1962) und Adrian Lyne (Lolita 1997) analysiert. Der Schwerpunkt der Betrachtung liegt auf der Konstruktion Lolitas durch den Erzähler und Protagonisten Humbert Humbert. Hierbei werden über die Rekonstruktion von Nobokovs Erzählstrategien hinaus auch die veränderten Zensurbedingungen der jeweiligen Zeit und die daraus resultierende veränderte Darstellung der Kindfrau Lolita in den Filmen berücksichtigt. Das Spannungsverhältnis Humberts zu Lolita soll anhand der exemplarischen Szenenanalyen des ersten Anblicks sowie des ersten Geschlechtsakts beleuchtet werden. Abschließend erfolgt ein kurzer Exkurs auf die weibliche Sicht der Kindfrau in 36 Fillette von Catherine Breillat.
“Because Maya Deren was both dance-trained and film-oriented, her brief pictures (…) achieved a magical integration of avant garde camera techniques and modern choreography.” Dieser Auszug aus dem 1967 in der Zeitschrift Dance Perspectives erschienene Artikel „Cine-Dance“ des Tanzkritiker Arthur Knight deutet bereits auf die magische Verbindung zwischen Tanz und Film im Oeuvre der 1917 in Kiev geborenen und nach Amerika immigrierten Jüdin Maya Deren. In der Tat durchziehen die von Peter Weiss dem Avantgardefilm zugeschriebenen „neuen Formen von Bewegungen und Rhythmen“ auf stets innovative Art und Weise kontinuierlich die sechs vollendeten Filme der „mother of the Underground Film“. Dabei galt Derens Leidenschaft bereits dem Tanz, noch bevor sie sich ab 1942 mit Meshes of the Afternoon dem Medium Film widmete.
Das Mainstream-Kino zielt auf wohligen Bauchkitzel ab, heißt es. Und der Kunstfilm peilt den Kopf an. Eine bestimmte Gruppe von Regisseuren will aber längst den ganzen Körper des Betrachters rocken. Zwischen Kommerz und Underground angesiedelt, fordert das Body Cinema jedoch nicht nur physische Erfahrungen ein - es erzählt auch vom erschütterten, erregten, bedrohten Körper unter den Bedingungen einer zunehmend artifiziellen Realität. …
Vor über zwanzig Jahren erregte Francis Ford Coppola mit seinem atemberaubenden, visionären Vietnamfilm Apocalypse now (1979) weltweit Aufsehen: In beklemmenden, packenden und irritierenden Bildern, untermalt von dem Doors-Klassiker „The End“ erzählte er von der Reise des Armee-Agenten Willard (Martin Sheen) durch den Dschungel, um den offenbar grössenwahnsinnigen Colonel Kurtz (Marlon Brando) zu liquidieren. Nun kommt Coppolas Meisterwerk erneut in die Kinos: Redux - noch einmal zum Beginn gehen, um das Geschehen um fünfzig Minuten erweitert neu zu sehen.
Wer aus der historischen Perspektive aktuelle Debatten zum Stadtumbau beobachtet, kann sich den Luxus leisten, eine größere Distanz einzunehmen als die Akteure der Auseinandersetzung; die Genese von »Frontverläufen« und der Wechsel von Positionen treten dabei deutlicher hervor. Im Folgenden werden exemplarisch Struktur und Verlauf einer für »Mainhattan « signifi kanten Teildebatte um das Stadtbild rekonstruiert: der Prozess der Destruktion einer historischen Hochhausarchitektur, des Zürich-Hauses, und dessen Ersetzung durch einen höheren Neubau, den Opernturm.
Frankfurts Architekturgeschichte im Spätmittelalter bietet ein gutes Beispiel dafür, wie die architektonische Markierung des städtischen Raums Hand in Hand geht mit Umgestaltungen des sozialen Raums. Denn seit der zweiten Hälfte des 14. Jahrhunderts lässt sich eine radikale Veränderung der Frankfurter Stadtstruktur und ihrer Hauptmonumente feststellen. Dabei geht es nicht allein um die schiere Vergrößerung des Stadtgebietes, das 1333 bis 1428 mit einer neuen Ummauerung gesichert wird und in dem zahlreiche Neubauten – allen voran der Domturm – entstehen. In einem tiefer gehenden Sinn erhält der öffentlich-städtische Raum eine neue kommunikative Fähigkeit, die im unmittelbaren Zusammenhang mit der nachhaltigen Etablierung einer oligarchisch die Geschäfte der Stadt bestimmenden Patrizierschicht steht. Die Stadt wird gleichsam die Bühne, auf der die kulturelle Hoheit einiger eng miteinander verfl ochtener, gleichwohl auf Exklusivität insistierender Geschlechter inszeniert wird. Diese werden bis weit in die Neuzeit die Geschicke Frankfurts bestimmen, man denke nur an die Namen derer von Holzhausen, von Glauburg und anderer. Zu den wesentlichen Momenten dieser Selbstdarstellung gehören die öffentliche Präsentation von christlicher Frömmigkeit und sozialer Exklusivität, von Anciennität (der angeblich weit in die Vergangenheit zurückreichenden Abstammung) und Unternehmungsgeist sowie einer besonderen städtisch-patrizischen Identität –, aber auch das Ausgrenzen von als bedrohlich empfundenen Fremden, insbesondere den Juden. Die Stiftung von anspruchsvollen Privatkapellen, die Förderung einer städtischen Chronistik und die allgegenwärtige Evokation von namhaften Stadtgründern bilden einige der Faktoren, die in der Tendenz mit zahlreichen anderen Städten der Zeit übereingehen, aber eben in bezeichnender Weise auch heute noch zu markant unterschiedlichen Identitäten jeder dieser Städte beitragen. Das »Image« von Frankfurt wurde seit dem späten 14. Jahrhundert geprägt, und dazu trugen in hohem Maße gerade auch architektonische und städtebauliche Momente bei.
»Die Stadt so grau wie die Gesichter…?« : Frankfurt als Impulsgeber zweier zeitgenössischer Romane
(2009)
Den Geheimnissen der Materie auf der Spur : neue Denkfabrik für physikalische Grundlagenforschung
(2009)
Bei Darmstadt entsteht FAIR, eines der größten internationalen Forschungszentren für Physik. Durch das von der Landesregierung geförderte Exzellenzzentrum »HIC for FAIR« erhält die Forschung in Hessen die einmalige Chance, sich direkt an globaler Spitzenforschung zu beteiligen: auf der Suche nach den letzten Geheimnissen der Materie.
Migranten sind in Deutschland weniger in den Arbeitsmarkt integriert als ihre deutschen Mitbürger; daran haben auch Integrationsprogramme der vergangenen Jahre wenig geändert. Warum schlagen diese so häufig fehl? Es mangelt politischen Entscheidern und kommunalen Verwaltungen oft an passgenau aufbereiteten Hintergrundinformationen, um Fördermaßnahmen erfolgreich umsetzen zu können. Der »Hessische Monitor Arbeitsmarkt und Migration« (HeMonA), entwickelt vom Institut für Wirtschaft, Arbeit und Kultur (IWAK), setzt an diesem Punkt an, sorgt mit seinem webbasierten nutzerorientierten Informationssystem für mehr Transparenz zur Situation von Migranten auf kommunalen Arbeitsmärkten und hilft damit, deren Integration zu verbessern.
Der europäische Finanzplatz Frankfurt ist stärker als andere deutsche Städte von den Schwankungen des Büromarkts betroffen. Die Liberalisierung der Finanzmärkte führte in der Mainmetropole zu erheblichen Ausschlägen nach oben wie unten. Wie sind die Wechselwirkungen zwischen den beiden Märkten zu erklären? Welchen Einfluss hat die Deregulierung im Finanzsektor auf diese Prozesse? Und wie reagieren die Stadtplaner und Kommunalpolitiker auf die Herausforderung?
Die Rekonstruktion historischer Bauten wie der Frankfurter Altstadthäuser, des Berliner Schlosses oder der Dresdner Frauenkirche wird oft als Identitätssuche in der Vergangenheit und als Rückwärtsgewandtheit bewertet. Doch jahrzehntelange Auseinandersetzungen zwischen Frankfurter Bürgern, deren Geschmack sich deshalb an Erinnerungen orientiert, weil ihnen häufig die neue Architektur missfällt, und Experten, deren Sichtweise sich an professionellen Kriterien der Moderne ausrichtet, belegen: Es geht sowohl um das Erinnern als auch um das Vergessen der verlorenen Altstadt und damit um ästhetische und planerische Alternativen in einem schwierigen Erneuerungsprozess.
»Sie haben, verehrte Frau, die deutsche Literatur (…) konsternirt, und den Vortheil, den man davon geistig hat, zu schreiben, ohne Schriftstellerin zu sein, denen die es sind, (…) frappant und demüthigend gemacht« – als die jungdeutschen Autoren Karl Gutzkow und Ludolf Wienbarg die von ihnen verehrte Bettine von Arnim mit diesen Worten 1835 zur Mitarbeit an der geplanten Zeitschrift »Deutsche Revue« einluden, benannten sie nicht nur, was die zeitgenössische Öffentlichkeit an dieser Frau faszinierte, sondern charakterisierten auch die Besonderheit ihres Schreibens sehr präzise. Denn Bettine von Arnim, die erst im Alter von 50 Jahren ihr erstes Buch veröffentlichte, ist streng genommen eine Autorin ohne Werk (darin am ehesten Rahel Varnhagen vergleichbar), die zeitlebens nur Briefe und Gespräche verfasste. Genau damit aber traf sie den Nerv der Zeit: Da sie die kanonisierten Formen literarischen Ausdrucks mied, wirkten ihre Texte lebensnah, ursprünglich und unverbraucht; weil sie ihr Schreiben eng an die eigene Biografie ankoppelte, schien es die von der Romantik geforderte Ungeschiedenheit von Leben und Werk einzulösen; und indem sie private Dokumente bedenkenlos öffentlich machte, verfuhr sie ähnlich wie ihre jungen Schriftstellerkollegen, die aus Gründen der Zensur ihre Stellungnahmen zur Zeitgeschichte als Zweckformen tarnen mussten.
Colour us blood red
(2009)
Im Zuge der neuerlichen Hyperrealisierung des Kinos durch 3D-Technologien zeigt sich wieder einmal, dass Film eben erst in zweiter Hinsicht als ästhetisches Artefakt verstanden wird. Oft wird er als ein Affekt-Spektakel gesehen, das wirken soll. Unter diesen Gedanken ließe sich seine komplette Technikgeschichte subsumieren: Von der Erhöhung der Bildfrequenz von 16 auf 24 Bilder pro Sekunde, über die Einführung von Farbe, Ton, größere Tiefenschärfe, 3D-Optiken und anderen Mitteln zur Überlappung von Film- und Zuschauerraum ist die Stoßrichtung des Films der Körper seines Zuschauers. So ist es zu erklären, dass frühe Stummfilme heute nicht mehr bei den Zuschauern wirken, wie sie es in der Vergangenheit vermochten, wo das Publikum angeblich vor dem stummen und schwarzweißen Abbild eines sich nähernden Zuges geflüchtet sein soll. Die Geschichte stimmt nicht, sie sagt aber viel über unser Verhältnis zum Medium Film und welche Macht wir seiner Ästhetik zusprechen.
Ein Kessel Blutrotes
(2009)
Wer den Berliner Künstler Jörg Buttgereit kennt, wird sich im Vorfeld seiner neuen Theaterarbeit "Rough Cuts" gedacht haben können, was ihn am Abend des 28. März im "Hebbel am Ufer"-Theater Nr. 2 (HAU 2) erwartet. Buttgereit, der seit den 1980er-Jahren eine feste Größe im deutschen Undergroundkino ist, seit den 90ern vermehrt fürs Fernsehen, Radio und publizistisch tätig ist und in der jüngsten Vergangenheit durch Theaterproduktionen (ebenfalls im Berliner HAU) auf sich aufmerksam gemacht hat, liefert mit seiner "Filmlektionen"-Reihe abermals eine Aufbereitung seiner Lieblingsthemen. Und zu denen gehören zuallererst die Monster – vor allem die Filmmonster, denen an diesem Theateroder besser: Multimedia-Abend ausreichend gehuldigt wurde.
Computer spielen im Film zumeist eine Nebenrolle. Dort, wo ihnen die Hauptrolle zugewiesen wird, erfahren wir viel über unsere Visionen und Ängste im Zeitalter der Mikroelektronik. In einer mehrteiligen Textreihe werden Filme der 1970er bis 1990er Jahre darauf hin betrachtet, wie Computer in ihnen dargestellt werden. Dieser Text geht über von der Hard- zur Software und betrachtet eines der populärsten Motive der Computerfilme.
Computer spielen im Film zumeist eine Nebenrolle. Dort, wo ihnen die Hauptrolle zugewiesen wird, erfahren wir viel über unsere Visionen und Ängste im Zeitalter der Mikroelektronik. In einer mehrteiligen Textreihe werden Filme der 1970er bis 1990er Jahre darauf hin betrachtet, wie Computer in ihnen dargestellt werden. Dieser Text beschreibt Filme, in denen Computer einen Körper bekommen und als Roboter in die Gesellschaft gelangen.
Seit etwa 15 Jahren entstehen im ost- und südostasiatischen Kino Filme zu einem Thema, das in den westlichen Kulturen bereits in den 1970er-Jahren verhandelt wurde: Aus Japan, Thailand, Korea und Taiwan erreichen die hiesigen Kinos eine Fülle von Geisterfilmen, die sich vordergründig des Themas Schuld und seiner ganz speziellen, oft in der buddhistischen Ethik stehenden Bewältigung annehmen. Doch ist dieses immer wieder variierte Motiv häufig mit einem anderen Thema verknüpft: mit der Frage nach dem Wesen der Privatheit in der Moderne. Denn die Schuld, die die Protagonisten auf sich laden und für die sie von den Geistern heimgesucht werden, ist stets an die Verletzung von Privat- und Intimsphären sowie ihren kulturellen Ausgestaltungen gekoppelt. Das Erscheinen des Geistes wird damit zum Sinnbild gestörter Privatheit, ihrer Bedrohung und Zerstörung.
Die Thorax-, Trachea- und Lungensonographie in der Intensiv- und Notfallmedizin hat wegen der bettseitigen Anwendbarkeit einen hohen Stellenwert. Als „hand-held“ Verfahren eignet sich der Ultraschall für die Beurteilung von Pathologien während zeitkritischer Szenarien in Notaufnahmen, auf der Intensivstation sowie in der Präklinik. Auch Interventionen wie Pleurapunktion oder die perkutane Dilatationstracheotomie können sonographiegesteuert sicherer durchgeführt werden. Die wichtigste Voraussetzung hierfür ist jedoch, dass der Untersucher in der Anwendung der Sonographie ausgebildet wurde. Ein einheitliches, funktionierendes und wissenschaftlich validiertes Kurskurrikulum lag für diesen Bereich bisher aber nicht vor. Deshalb ist das Kurskonzept zur Thorax-, Trachea- und Lungensonographie in der Intensiv- und Notfallmedizin THOLUUSE entwickelt und die Frage gestellt worden, ob Ultraschallnovizen durch ein praxisorientiertes Lernsystem die Sonographie von Thorax, Trachea und Lunge innerhalb eines Lerntages adäquat erlernen und anwenden können. Das Kurrikulum richtet sich nach den geforderten Inhalten und den Stufenkonzepten der WHO, DEGUM und EFSUMB. Es berücksichtigt Anatomie, sonographische Anatomie und Physiologie. Standarduntersuchungen und Anlotungspunkte der Lungensonographie. Ebenso ist die Darstellung der Trachea gelehrt worden. Erkrankungen von Notfall- und Intensivpatienten, die ultraschallgestützte Punktionen und die sonographischen Algorithmen zur Untersuchung von Thorax, Trachea und Lunge sind ebenfalls besprochen und an Modellen geübt worden. Der Kurs gliedert sich in theoretische und praktische Lerneinheiten. Die Teilnehmer haben theoretischen Unterricht und zwei praktische Hands-on-Trainingseinheiten erhalten. Hier konnten innerhalb eines zyklischen Lernsystems mit durchschnittlich 6 Stationen zu je 10 min. die besprochenen Themen praktisch geübt und erlernt werden. Das Verhältnis von Instruktor zu Teilnehmer hat bei 1:2 gelegen. Um den Kurs evaluieren zu können ist der Lernerfolg von 54 Kursteilnehmern, die an insgesamt 4 Kursen teilgenommen haben, vor und nach dem Kurs in Theorie und Simulation überprüft worden. Nach den Kursen hat ein praktischer Posttest stattgefunden, der ebenfalls evaluiert worden ist. Hierbei hat sich eine signifikante Verbesserung der Teilnehmer in allen geprüften Abschnitten ergeben. In der Theorie haben sich die Teilnehmer von 58% richtige Antworten auf 84% verbessern können und in der Simulation haben die Teilnehmer nach dem Kurs 80% richtige Antworten erreicht. Im praktischen Posttest konnten 95% richtige Anlotungen erreicht werden. Das bedeutet, dass THOLUUSE erfolgreich durchgeführt werden konnte und die Teilnehmer die Thorax-, Trachea- und Lungensonographie erlernen und sich im Gegensatz zu den Ausgangswerten signifikant verbessern konnten. Es konnte gezeigt werden, dass die Sonographie von Thorax, Trachea und Lunge innerhalb eines eintägigen Kursprogrammes zu erlernen ist.
Die Entwicklung neuer und Verbesserung bestehender Methoden zur theoretischen Beschreibung molekularer Systeme ist eine der wichtigsten Aufgaben der theoretischen Chemie, vor allem zur Berechnung elektronisch angeregter Zustände zur Simulation von Spektren. Das Ziel dieser Arbeit ist in diesem Zusammenhang die Weiterentwicklung des algebraisch-diagrammatischen Konstuktionsverfahrens (ADC), einer Methode zur Berechnung elektronisch angeregter Zustände, und die Bereitstellung effizienter Computerprogramme zum theoretischen Studium optischer Eigenschaften von "open-shell" Molekülen. Im Vordergrund stehen hierbei die physikalisch richtige Beschreibung von ladungsgetrennten Zuständen und solchen mit hohem Doppeltanregungscharakter. Verbesserte theoretische Methoden sind notwendig, da die zu berechnenden Systeme häufig für eine Beschreibung mit vorhandenen hochgenauen ab initio Methoden zu groß sind. Einfachere, durchführbare Methoden wie z.B. semi-empirische oder DFT-basierte Methoden, die es erlauben, sehr große Molekülsysteme mit mehr als 100 Atomen zu beschreiben, weisen häufig große, nicht vorhersagbare Fehler auf. Experimente im Forschungsgebiet angeregter Zustände von Molekülen finden spektroskopisch statt und erfordern auf der anderen Seite eine Unterstützung durch zuverlässige theoretische Voraussagen. Die Weiterentwicklung der Theorie ist also auch im allgemeinen Interesse der Chemie, Biologie und der anderen Naturwissenschaften. Teil 1 dieser Arbeit umfasst die Theorie, während in Teil 2 deren Anwendung auf ausgewählte Systeme zu finden ist. Nach einer allgemeinen Einführung in die Problematik und grundlegenden Methoden der Quantenchemie in Kapitel 1, wurde im ersten Teil von Kapitel 2 die Methode zur Berechnung angeregter Zustände und ihrer Eigenschaften vorgestellt, auf der diese Arbeit basiert, nämlich das algebraisch-diagrammatische Konstruktionsverfahren (ADC). Dabei sind Eigenschaften von ADC zu betonen, die es von den anderen Methoden unterscheidet. Zum einen werden in ADC alle angeregten Zustände energetisch zuverlässig beschrieben, das heißt Rydberg-, Ladungstransfer- und doppelt angeregte Zustände findet man im Anregungsspektrum an der richtigen Position. Andererseits ist die Methode eine der schnellsten zur Beschreibung doppelt angeregter Zustände (z.B. bei Polyenen) und eignet sich, deren Relevanz im Spektrum zu ermitteln. Denn die beiden Schemata ADC(2)-s und ADC(2)-x unterscheiden sich in der störungstheoretischen Behandlung doppelt angeregter Zustände um eine Ordnung, ADC(2)-s beschreibt sie in nullter Ordnung, ADC(2)-x in erster. Im folgenden Abschnitt stehen die ausführlichen Gleichungen des ADC-Verfahrens für unseren Computercode. Kapitel 2 wurde abgeschlossen durch die Gleichungen der Erweiterung von ADC zur Behandlung von "open-shell" Molekülen auf UADC. Kapitel 3 umfasst die Beschreibung der "intermediate state representation" (ISR), die zur Berechnung von Eigenschaften angeregter Zustände dient und die theoretische Herleitung des UADC-Verfahrens erlaubt. Am Anfang von Teil 2 in Kapitel 4 steht die Untersuchung der Genauigkeit und Zuverlässigkeit des neu entwickelten UADC-Verfahrens. Dabei wurden elf verschiedene, mittelgroße, aromatische Moleküle ausgewählt, zu denen in der Literatur auch experimentelle Daten zu Vergleichszwecken zu finden waren. Das Ergebnis ist sehr überzeugend und nur minimal aufwändiger als ADC. Kapitel 5 zeigt eine erste Anwendung von UADC auf größere Moleküle und stellt die Eigenschaft der Bestimmung von doppelt angeregten Zuständen von ADC und UADC noch einmal heraus. Der Vergleich der Polyene mit ihren "open-shell" Partnern, den Polyen-Radikalkationen und den neutralen Polyenylradikalen, zeigte, dass der Einfluss der Doppeltanregungen in den Radikalen kleiner ist, für eine exakte Beschreibung der angeregten Zustände ist er jedoch nicht zu vernachlässigen. Danach wurde eine Extraplation der angeregten Zustände von langkettigen Polyenen, Polyenradikalkationen und Polyenylradikalen vorgenommen, die den konjugierten pi-Systemen von Karotinoiden als Modellsysteme dienen. Die Beschreibung der Polyene bestätigte die experimentellen Vorhersagen zu Karotinoiden. Eine erste Anwendung der ISR bezüglich der Berechnung von Eigenschaften angeregter Zustände ist mit der Berechnung von Dipolmomenten angeregter Zustände in Kapitel 6 durchgeführt worden. Die Ergebnisse zeigen eine gute Übereinstimmung mit anderen Methoden und Messergebnissen. Eine weitere Anwendung der ISR ist die Berechnung von resonanten Zwei-Photonen-Absorptionsspektren, mit deren Hilfe spektroskopisch "dunkle" Zustände detektiert werden können. Die zur Berechnung notwendigen Übergangsdipolmomente zwischen angeregten Zuständen aus der ISR wurden dazu in einer sogenannten "sum-over-states" Näherung verwendet. Eine mögliche andere Berechnung über einen geschlossenen Ausdruck mit Hilfe der ADC-Näherung ist noch nicht implementiert.
Die Entzündung ist eine grundlegende und lebensnotwendige Reaktion unseres Immunsystems. Leukozyten wandern aus der Blutbahn an die Orte des entzündlichen Geschehens. Für diesen Prozess der Extravasation sind Adhäsionsmoleküle notwendig, die den gesamten Vorgang vom ersten Kontakt mit dem Endothel bis zur Transmigration durch die Basalmembran vermitteln. Eines dieser Moleküle ist das Junctional adhesion molecule-B (JAM-B), ein Immunglobulin-ähnliches Adhäsionsmolekül. JAM-B ist an der Transmigration von Leukozyten beteiligt, es bindet an T-Lymphozyten und speziell das Integrin VLA-4 (alpha4beta1) unter Beteiligung des verwandten JAM-C. JAM-B befindet sich bevorzugt im Bereich der lateralen Zellmembran von Endothelzellen, kann aber nach Stimulation mit TNFalpha auch auf der apikalen Membranseite gefunden werden. Diese Arbeit behandelt die Fragestellung, ob JAM-B auch in der frühen Phase der Extravasation mit T-Lymphozyten in Kontakt treten kann. Zuerst wurde untersucht, ob JAM-B unter dynamischen Bedingungen mit T-Lymphozyten in Kontakt treten kann. Die T-Lymphozyten wurden aus Leukozytenkonzentraten extrahiert. Sie wurden über eine mit JAM-B Protein beschichtete Glasoberfläche perfundiert und die Anzahl der rollenden Zellen, deren Geschwindigkeit und die Zahl der adhärenten Zellen bestimmt. Als Negativkontrolle diente ein mit unspezifischem Protein (BSA) beschichtete Oberfläche. Um die Rolle des möglichen Bindungspartners VLA-4 zu charakterisieren, wurden die T-Lymphozyten mit monoklonalen Antikörpern gegen VLA-4 oder der beta1 Untereinheit dieses Integrins oder JAM-C inkubiert. Von allen Antikörpern wurden zudem entsprechende Isotypkontrollen durchgeführt. In diesen Versuchen konnten bereits publizierte Beobachtungen reproduziert werden: So adhärierten die T-Lymphozyten bevorzugt auf JAM-B im Vergleich zur Kontrolle mit unspezifischem BSA. Antikörper gegen VLA-4 und beta1 Integrin vermochten die Zahl adhärenter Zellen signifikant zu senken. Es zeigte sich außerdem, dass auf JAM-B vermehrt Zellen rollten und deren Geschwindigkeit im Durchschnitt niedriger war. Damit fanden sich erstmals Hinweise darauf, dass JAM-B auch unter dynamischen Bedingungen an T-Lymphozyten bindet. Antikörper gegen VLA-4 oder beta1 Integrin führten das Rolling auf das Niveau der Kontrolle zurück. Ein JAM-C Antikörper hatte keinen Effekt, sodass JAM-B vermitteltes Rolling und Adhäsion möglicherweise unabhängig von JAM-C sind. In weiteren Experimenten wurde die Relevanz dieser Interaktionen in einer Flusskammer mit Endothelzellbeschichtung untersucht. Auf einem speziellen Objektträger mit Flusskanal wurden humane Endothelzellen (HUVEC) angezüchtet und vor Versuchsbeginn mit TNFalpha inkubiert. Anschließend wurde ein monoklonaler Antikörper gegen JAM-B aufgebracht und T-Lymphozyten durch die Flusskammer perfundiert. Die Auswertung erfolgte anhand der Parameter aus dem ersten Flusskammerexperiment. Der JAM-B Antikörper verminderte das Rolling signifikant im Vergleich zur Leerkontrolle und führte zur Erhöhung der Rollgeschwindigkeit dieser Zellen. Die Zahl adhärenter Zellen vermochte er nicht zu senken. Wenn JAM-B durch Stimulation auf der Oberfläche von Endothel exprimiert wird, kann es also an der Extravasation von T-Lymphozyten beteiligt sein. Die Daten zeigen, dass JAM-B mit T-Lymphozyten unter dynamischen Bedingungen interagieren kann und deuten darauf hin, dass es an der Extravasation beteiligt ist. Die Antikörper konnten bei Einzelgabe die Zahl adhärenter Zellen nicht senken. Möglicherweise ist dies Folge der kompensatorischen Wirkung anderer Adhäsionsmoleküle. In vivo Experimente unterstützen die These von der Beteiligung des JAM-B an der Entzündungsreaktion. Ein monoklonaler Antikörper konnte das entzündliche Infiltrat in einem Mausmodell von Kontakthypersensitivität vom Spättyp reduzieren. Da in der vorliegenden Arbeit der Antikörper die Zahl adhärenter Zellen nicht verringern konnte, kommen möglicherweise andere Mechanismen in Betracht. Für JAM-C wurden ähnliche Daten erhoben, hier lag die Ursache der milderen Entzündungsantwort nicht in einer verringerten Zahl eingewanderter Zellen. Die Blockade führte vielmehr zur vermehrten Rückwanderung der Zellen aus dem Entzündungsgebiet. Möglicherweise liegt bei JAM-B ein ähnlicher Mechanismus vor. JAM-B erfüllt als phylogenetisch altes Molekül verschiedene Aufgaben bei der Extravasation. Sein Expressionsmuster auf Endothel, besonders der lymphatischen Gefäße, macht es als Ziel für innovative anti-inflammatorische Therapieansätze interessant.
Am 10. November erscheint für die Xbox 360 und die PlayStation 3 der Ego-Shooter "Call of Duty: Modern Warfare 2" – ein Spiel, das die Gemüter bereits vor der Veröffentlichung erregt, wie man heute in einem Kommentar der Chefredakteure Markus Schwerdtel (GamePro) und Michael Trier (GameStar) auf GamePro lesen kann. Im Spiel übernimmt man in einer Sequenz die Rolle eines Undercover-Agenten, der in eine russische Terror-Organisation eingeschleust wurde und zusammen mit dieser einen Moskauer Flughafen überfällt. Dabei richtet man – zumindest in der Originalfassung – ein Blutbad unter den dort wartenden Fluggästen an. In der deutschen Fassung ist – trotz anderslautender Angaben vom Publisher "Activision Blizzard" – die betreffende Sequenz so weit entschärft, dass als Spielfigur bei dem Anschlag nur zuschauen darf und sein Leben verliert, sobald man ebenfalls auf die Passanten schießt.
"Chasing Spots"
(2009)
Das Berliner Computerspiele-Museum stellt zusammen mit einem Special Guest pünktlich zur Games Convention 2009 eine "History of Videogames"-Timeline vor. Die Geschichte der Videospiele ist am Maßstab der Mediengeschichte gemessen noch recht jung. Als Kapitel des Computerzeitalters ist sie jedoch längst Gegenstand archäologischen Interesses. Das Berliner Computerspiele-Museum hat jetzt eine interaktive "History of Videogames" auf seinen Webseiten veröffentlicht, die nach und nach die wesentlichen Meilensteine dieser Geschichte dokumentiert. Hierzu fand am 29. Juli in der Berliner Home-Base-Lounge eine Veranstaltung statt, auf der zwei der wichtigsten und berühmtesten Vertreter dieser Geschichte anwesend waren: Der Erfinder Ralph H. Baer und seine Videospiel-Konsole "Brown Box".
Ein Krieg tobt. Ganz im Verborgenen, aber an Milliarden Fronten gleichzeitig. Eine Schlacht, die seit jeher von den gleichen Parteien geführt wird, die den Angreifer immer erbitterter zuschlagen, den Angegriffenen sich immer verzweifelter wehren lässt. Ein Krieg mit ungleichsten Waffen geschlagen: Die Zeit und das Fleisch gegen die kleinen elektrischen Blitze: das Ich. Seit ich denken kann, kämpfe ich in diesem Krieg: Das Bewusstsein gegen den Körper: Ein ständiger Zustand von Stalingrad! Doch je bewusster ich mir meiner Niederlage werde, desto erbitterter versuche ich sie zu verhindern. Kann ich mein Fleisch bezwingen, oder wird der Zynismus siegen: das was “ichÒ sagt zum fleischlichen sarg dieses ich werden? Ich bin ein kriegsgefangener meines Körpers, der mich jeden abend begnadigt, um mich morgens erneut dem Erschießun gskommando vorzuführen. Damit ist im Großen und Ganzen beschrieben, worum es gehen soll. Mein Bewusstsein verneint die Endlichkeit seiner Hülle, doch diese geht radikal ihrem Ende entgegen – durch nichts aufzuhalten.
Kraftfelder sind ein vielseitiges Werkzeug zur schnellen Berechnung vielfältiger Moleküleigenschaften. Die Qualität der damit erhaltenen Vorhersagen ist auch ein Maß, wie gut die wichtigen Einflussgrößen verstanden und vor allem in das Kraftfeld-Modell integriert sind. Bei der Parametrisierung müssen viele Effekte gegeneinander ausbalanciert werden, da die Kraftfeldterme nicht unabhängig voneinander betrachtet werden können. Umfangreiche Testrechnungen sind erforderlich, um die notwendige Qualität der Parameter sicher zu stellen. Eine Automatisierung dieses Prozesses bringt nicht nur eine enorme Zeitersparnis, sie zwingt auch zur sorgfältigen Definition von Vorgaben und Qualitätskriterien. Die Formulierung einer Strategie in einem Programm anstelle von „intelligentem Raten“ fördert zudem ein tieferes Verständnis. Bei einer Änderung der Strategie muss nur das entsprechende Programm geändert werden, dem Entwickler bleibt der manuelle Test erspart. Automatische Methoden zur Plausibilitätsprüfung vermeiden Probleme durch Fehler bei der Dateneingabe von Hand. Die programmgesteuerte Erstellung aussagekräftiger Protokolle und Grafiken macht die Fülle der bei der Parametrisierung und Evaluierung eines Kraftfeldes anfallenden Informationen für den Benutzer überschaubar. Probleme und deren Zusammenhang können so leichter erfasst werden. Für das MOMO-Kraftfeld konnten auf diese Weise verbesserte und neue Parameter für Wasserstoffbrücken abgeleitet werden, zwei empirische Punktladungsmodelle und deren Verträglichkeit mit zwei quantenchemischen Modellen verbessert und prinzipielle Probleme bei deren Vereinbarkeit erkannt werden sowie die automatische Parametrisierung von Bindungslängen, Bindungswinkeln und Torsionswinkeln ermöglicht werden. Bei Letzterem konnte jedoch keine Verbesserung gegenüber den Originalparametern erreicht werden, was nicht weiter verwunderlich ist, da diese seit Jahrzehnten entwickelt worden sind, wohingegen Wasserstoffbrücken und Partialladungen erst später hinzugekommen sind und nicht so umfangreich wie die bindenden Kraftfeldterme getestet wurden. Voraussetzung für die hier gewählte Vorgehensweise, alle Arbeiten weitgehend zu automatisieren und Strategien immer in Programme umzusetzen, waren sehr umfangreiche Programmierarbeiten. Ziel war es, auf einfache Weise die Steuerung des Kraftfeldes aus kleineren Programmen, die spezielle Probleme bearbeiten, zuzulassen. Durch die Nutzung zahlreicher Open-Source-Projekte, die gemeinsam die gewünschte Funktionalität zur Verfügung stellen, konnte der Aufwand auf die dazu passende Implementierung des MOMO-Kraftfeldes und das Verbinden mit der von diesen Projekten bereitgestellten Software beschränkt werden. Der Kern des MOMO-Kraftfeldes wurde aus Geschwindigkeitsgründen in der Compilersprache C geschrieben, Datenein- und -ausgabe und die Programme zur Parametrisierung und Auswertung wurden in Python geschrieben.
Untersuchung hochmolekularer Proteinkomplexe in menschlichen Leukämien mittels Proteomics-Werkzeugen
(2009)
Funktionelle Multiproteinkomplexe stellen im Sinne von Proteomics das kleinste isolierbare Proteom dar. Die Untersuchung von Proteinkomplexen gibt uns die Möglichkeit, Funktionen innerhalb der Zelle oder des Zellkompartiments genauer zu verstehen. Erst durch das Verständnis der einzelnen kleinen Zusammenspiele innerhalb einer Zelle, können wir die Auswirkungen auf ein betreffendes Organ und damit auf den Körper betrachten. Wir erhalten dadurch auch Informationen über die Funktion von spezifischen Genen und können so Erklärungsansätze für Gendefekte finden und über mögliche Therapieansätze nachdenken. Neben den Hefe-Zwei-Hybrid-Analysen und dem Nachweis von Protein-Interaktionen mittels Immunopräzipitationsexperimenten stellt die Massenspektrometrie seit den 90er Jahren ein essentielles Werkzeug der Proteom-Forschung dar. Sie entwickelte sich zu einem etablierten Verfahren für die Charakterisierung von Biomolekülen und ermöglicht die Identifizierung unbekannter Proteine eines Komplexes. Das MLL-Gen auf Chromosom 11 Bande q23 ist in zahlreiche, reziproke chromosomale Translokationen verwickelt, die mit der Entstehung von akuten Leukämien assoziiert sind. Chromosomale Translokationen des MLL-Gens werden aufgrund ihrer sehr schlechten Prognose und Therapierbarkeit als Hochrisiko-Leukämien eingestuft. Bis heute konnten 64 Translokations-Partnergene identifiziert werden, wobei das AF4-Gen mit 42% bei allen untersuchten Leukämien und mit ca. 66% bei ALL (akute lymphatische Leukämie) den größten Prozentsatz ausmacht. Bei der Translokation t(4;11) sind das MLL-Gen auf Chromosom 11 und das AF4-Gen auf Chromosom 4 beteiligt. Akute Leukämien mit einer t(4;11)-Translokation treten häufig bei Säuglingen und Kleinkindern auf und betreffen vorwiegend den lymphatischen Zweig des blutbildenden Systems. Durch die Translokation entstehen zwei neue Derivatchromosomen – Derivat 11 (MLL•AF4, der11) und Derivat 4 (AF4•MLL, der4). Beide Fusionsgene verfügen über einen intakten Leserahmen und führen zur Expression der zwei Fusionsproteine MLL•AF4 (der11) und AF4•MLL (der4). Der pathomolekulare Mechanismus der t(4;11)-vermittelten ALL ist bis heute noch nicht hinreichend geklärt. Funktionen des der11-Fusionsproteins werden zwar schon intensiv erforscht, aber es gibt noch keine Erkenntnisse über die Funktion des der4-Fusionsproteins. Ähnlich sah die Situation zu Beginn dieser Arbeit für das AF4-Protein aus. Während schon einige Daten zur Funktion des MLL-Multiproteinkomplexes vorlagen, gab es nur wenige Informationen über die Funktion von AF4. Im Zuge dieser Arbeit wurden der AF4- und der der4-Multiproteinkomplex mittels affinitätschromatographischer Methoden aus transient transfizierten 293T-Zellen erfolgreich isoliert. Eine Größenbestimmung der Komplexe über eine Größenausschlusschromatographiesäule ergab für beide Komplexe eine Größe von ca. 2 MDa. Die Charakterisierung der beteiligten Interaktionspartner erfolgte mittels nLC-MALDI-MS/MS, Western Blot Analyse und Immunopräzipitation. Es konnte gezeigt werden, dass AF4 zusammen mit den Proteinen ENL/AF9, CDK9, CCNT1, AF10, DOT1L und der RNA-Polymerase II in einem Komplex vorliegt. Bereits 2007 konnte dieser Komplex in einem Mausmodell isoliert werden. Damit fungiert der AF4-Komplex auch in humanen Zellen als Stimulator der RNA-Polymerase-II-abhängigen transkriptionellen Elongation und vermittelt eine DOT1L-abhängige H3K79-Methylierung, die einen aktiven Transkriptionsstatus aufrechterhält. Zusätzlich konnten 6 neue Interaktionspartner identifiziert werden (AF5q31, BDR4, DDX6, HEXIM1, NFkB1/RELA und NPM1). Die Anwesenheit von BRD4 und HEXIM1 lässt vermuten, dass der AF4-Komplex in einem aktiven und einem inaktiven Zustand vorliegen kann. Außerdem wird der AF4-Komplex möglicherweise über den NFkB-Signalweg reguliert bzw. durch die Anwesenheit von NFkB1 an dessen Zielgene rekrutiert. Die Untersuchung des der4-Komplexes zeigte, dass er sich aus Mitgliedern der beiden Wildtyp-Proteinkomplexe zusammensetzt. So wurden die Proteine P-TEFb, HEXIM1, NFkB1, NPM1, DDX6 und das AF4 selbst aus dem AF4-Komplex sowie ASH2L, RBBP5, WDR5, DPY-30, CBP, HCF-1 und HCF-2 aus dem MLL-Komplex identifiziert. Der der4-Komplex weist somit partielle Eigenschaften des AF4- und MLL-Wildtyp-Proteins auf. Diese Eigenschaften sind ausreichend für eine kompetitive Situation zwischen dem der4-Komplex und den beiden AF4- und MLL-Wildtyp-Komplexen. Die Gleichgewichte dieser Wildtyp-Komplexe werden vermutlich gestört. Für beide Komplexe wurde mit Hilfe eines in vitro Histon-Methyltransferase-Assays eine Histon-Methyltransferase-Aktivität nachgewiesen. Für den AF4-Komplex muss zusätzlich eine bisher noch unbekannte Methyltransferase-Aktivität angenommen werden, da eine Methylierung des Histons H3 in den ersten 46 Aminosäuren gezeigt werden konnte, die sich nicht auf die Methyltransferase-Aktivität des DOT1L-Proteins im AF4-Komplex zurückführen lässt. Die H3K4-Methyltransferase-Aktivität des der4-Komplexes wird auf die Anwesenheit des SET-Domänen-Komplexes (ASH2L, WDR5, RBBP5 und DPY-30) zurückgeführt. Im Zusammenhang mit dem AF4-Protein wurde auch der ENL-Komplex untersucht. Mittels Western Blot konnten die Interaktionspartner AF4, CDK9, CCNT1, RNA-Polymerase II, NFkB1 und RING1 identifiziert werden. Damit ist auch das ENL mit dem globalen positiven transkriptionellen Elongationsfaktor P-TEFb assoziiert und beeinflusst die RNA-Polymerase-II-abhängige transkriptionelle Elongation.
Der suprachiasmatische Nucleus (SCN) des Hypothalamus enthält die zentrale innere Uhr der Säugetiere. Diese innere Uhr besteht aus einem Verbund von untereinander gekoppelten Neuronen, die durch ein intrinsisches molekulares Uhrenwerk eine selbsterhaltende Oszillation mit einer Periode von circa einem Tag (circadian) aufrechterhalten. Diese Oszillation dient dem Organismus als innere Uhr und muss, da ihre Periode nicht exakt 24 Stunden beträgt, durch Zeitgeber mit der Umwelt synchronisiert werden. Der wichtigste circadiane Zeitgeber ist das Licht. Die Lichtsignale gelangen von der Retina über den retinohypothalamischen Trakt (RHT) direkt zum SCN. Von dort werden circadiane Informationen an zentrale und periphere Effektoren weitergeleitet, unter anderem an das Pinealorgan, welches zyklisch das Hormon Melatonin als Dunkelheitssignal ausschüttet. Melatonin kann wiederum auf die circadiane Uhr zurückkoppeln und in einem engen, sensitiven Zeitfenster die Phasen des SCN verschieben. Neben diesem Regelkreis gibt es direkte Verbindungen vom SCN zum lateralen Hypothalamus (LH), der eine zentrale Rolle bei der Regulation des Schlafes und der Energiehomöostase innehat. Ein spezieller Neuronentyp des LH schüttet das Neuropeptid Orexin aus, das große Bedeutung bei der Schlafregulation und der Appetitbildung besitzt. Diese orexinergen Neurone projizieren in weite Teile des Gehirns, unter anderem in die Region des SCN, was aufgrund der bekannten Wechselbeziehungen zwischen circadianer Aktivität, Schlaf und Appetit auf eine Rückkoppelung auf das circadiane System schließen lässt. In der vorliegenden Arbeit wurden mit Hilfe von Multielektroden-Ableitungen (MEAs) die neuronalen Signale einzelner Zellen des SCN, die zusammen ein komplexes Netz für die Steuerung der Effektormechanismen bilden, analysiert. Es standen dabei folgende Fragestellungen im Vordergrund: Bieten primäre Zellkulturen von SCN-Neuronen ein ausreichendes Modell für die Untersuchung der zellulären Kommunikation und der neuronalen Ausgangssignale der circadianen Uhr? Wirken Zeitgebersignale direkt auf die primären Oszillatoren oder sind Phasenverschiebungen eine Eigenschaft des gesamten Netzwerkes im SCN? Besteht ein Einfluss der orexinergen Neurone des lateralen Hypothalamus auf die Uhren-Neurone im SCN? Auf Multielektrodenplatten kultivierte SCN Neurone sind spontanaktiv und zeigen über Tage und Wochen ausgeprägte circadiane Rhythmen in ihrer Spikerate. In der Regel sind diese Aktivitäts-Rhythmen einzelner Neurone nicht synchronisiert, obwohl die Zellkulturen zahlreiche synaptische Verbindungen und korrelierte Aktivität aufweisen Um die Interaktion der verschiedenen Neuronen innerhalb des Uhrennetzwerkes aufzuklären, wurde eine Methode basierend auf Kreuzkorrelationen entwickelt. Mit dieser Methode konnte gezeigt werden, dass korrelierte Aktivität in SCN-Zellkulturen verbreitet ist, die stabilen Oszillatoren davon jedoch immer ausgenommen waren, obwohl eine durchgehende Vernetzung innerhalb der Kulturen bestand. Somit bilden Zellkulturen von SCN Neuronen ein sehr heterogenes Netzwerk mit stabilen Oszillatoren, schwachen Oszillatoren und nicht rhythmischen Neuronen, das viele einzelne Uhren elastisch miteinander koppelt und mit verarbeiteten Informationen über äußere und innere Zustände versorgt. Stabile Oszillatoren können direkt durch Zeitgeber-Stimuli, wie zum Beispiel Melatonin, beeinflusst und in ihren Aktivitäts-Phasen verschoben werden. Die Phasen-Antwortkurven sind im Vergleich zu in vivo Untersuchungen jedoch variabler, was für eine starke Beteiligung des neuronalen Netzwerkes bei der Verarbeitung und Stabilisierung der Antworten auf die Zeitgeber-Stimuli spricht. Phasenverschiebungen als Reaktion auf einen Zeitgeber-Stimulus sind demnach eine Eigenschaft der einzelnen Oszillatorzelle, die aber durch die Interaktion der verschiedenen Uhren-Neurone in ein stabiles Ausgangssignal umgesetzt werden müssen. Kultivierte SCN-Neurone reagieren auf Applikation von Orexin A mit kurzzeitigen Änderungen der Spikerate, sowie mit deutlichen Phasenverschiebungen, die in Zellkulturen sehr variabel ausfallen, während sie in Ableitungen von organotypischen Hirnschnitten stabil und reproduzierbar sind. Dies unterstreicht wiederum die Bedeutung des neuronalen Netzwerkes im SCN. Orexin A scheint zwar direkt auf stabile Oszillatorzellen einzuwirken, aber auch auf die synaptische Übertragung zwischen den SCN-Neuronen. Sein Wirkungsmechanismus könnte dabei in einer Hemmung der GABAergen und in einer Verstärkung der glutamatergen synaptischen Übertragung liegen. Die Wirkung von Orexin A im SCN spricht für eine vielfältige Rückkoppelung des orexinergen Systems auf den circadianen Schrittmacher.
Gert Wilden wurde am 15.4.1917 in Mährisch-Trübau (Moravská Trebová) im heutigen Nord-Tschechien als Kind einer böhmischen Musikerfamilie geboren. Nach der Kindheit in Mähren nahm Wilden das Studium an der Musikhochschule Prag auf; seine Fächer waren Kompositionslehre, Klavier und Dirigieren, seine akademischen Lehrer George Szell, Fidelio F. Finke und Fritz Rieger. Noch während seines Studiums übernahm er die Leitung des Rundfunkorchesters des Senders Pilsen. Nach dem Krieg komponierte und arrangierte er Tanzmusiken für diverse deutsche Radiosender.
In der Kompositionsgeschichtsschreibung des 19. Jahrhunderts nistet schon immer die Überzeugung von der Entbehrlichkeit des Genres Ballettmusik. Dabei ist der wahrscheinliche Grund für diese Auslassung das beklagenswerte Klischee, es handele sich lediglich um seichte Musik zu leichter Bewegung. Doch bei genauerem Hinsehen zeigt sich, dass Ballettpartituren vor Differenziertheit und dramatischer Präzision geradezu bersten und die Musik sich passgenau an die Bühnenaktion anschmiegt. Ein Schelm, wer Parallelen zur Struktur von Filmmusik assoziiert? Keineswegs. So unübersehbar, ja offensichtlich diese strukturellen Ähnlichkeiten sind, so nachdrücklich empfiehlt es sich, den Radius der herkömmlichen Musikwissenschaft zu überschreiten und ihn um eine tanzwissenschaftliche Perspektive zu erweitern. Dies soll nun im Folgenden in einer quasi sternförmigen Annäherung geschehen: Ausgehend von einer vergleichenden Darstellung der Funktionsweise von Ballett- und Filmmusik und einigen Aspekten zur Visualisierung von Kunstmusik im Allgemeinen soll anhand einer Szene aus DISNEY’S FANTASIA (USA 1940) exemplifiziert werden, dass die Terminologie der Filmmusikanalyse ebenso trefflich auf das Verhältnis von Musik und Tanzbewegung anwendbar ist.
Gemessen an der Tatsache, dass die Soundtrack_Cologne 2008 erst ihr fünfjähriges Jubiläum feierte, muss das Kölner Festival/ Symposium zu „Musik und Ton in Film und Medien“ als voller Erfolg gewertet werden. Das Filmmusik-Event in der Rheinmetropole konnte trotz mancher improvisatorischer Einlage und budgetbedingter Einschränkungen bezüglich Inhalt, Vielfalt und Organisation wohl selbst die meisten anspruchsvollen „Fach-Gemüter“ überzeugen und zufrieden stellen. So wundert es – gerade in Hinblick auf die Fülle des Programms sowie die illustre Gästeliste – auch nicht, dass sich die Soundtrack Cologne inzwischen national und international, über brancheninterne Kreise hinaus, zu einer festen kulturellen Institution entwickelt hat.
Der erste Workshop des Symposiums galt einer Analyse der Musik in Peter Weirs Film THE TRUMAN SHOW (1998). In vier Einzelbeiträgen von Siegfried Oechsle und Bernd Sponheuer (Musikwissenschaft, Kiel), Claus Tieber (Filmwissenschaft, Wien), Christian Vittrup (Medienwissenschaft, Kiel) und Guido Heldt (Musikwissenschaft, Bristol) wurde das äußerst komplexe Verhältnis inner- und extradiegetischer Bindungen der Musik auszuhorchen versucht. In einer künstlichen Welt, in der der Protagonist lebt, ohne von deren Künstlichkeit und Inszeniertheit zu wissen (darum auch könnte man von der „Truman-Welt“ sprechen), wird die Geschichte Trumans für das Fernsehen als Reality-Soap inszeniert; so entsteht eine zweifache Film-im-Film-Rahmung, in der die Musik immer wieder oszilliert, ihren textstrukturellen Ort verändert. Die „Unsicherheit“ der Musik läßt sich bis in Feinheiten der Auflösung und Inszenierung hinein verfolgen. Ein zweites Thema dieses bidisziplinären Workshops war die Frage nach den Funktionen, die Filmmusik allgemein erbringen kann und in diesem konkreten Fall erbringt - Potentiale zusätzlicher Bedeutungsgebung auch unabhängig vom Text und seinen dramatischen und narrativen Strukturen, Strategien der Zuschauerlenkung, die Artikulation oft verborgener Subtexte des Films.
Oskar Sala (1910-2002)
(2009)
Oskar Sala wurde am 18.7.1910 in Greiz in Ost-Thüringen geboren; er starb am 27.2.2002 in Berlin. Sala war Komponist und Physiker. Sala bereitete sich zunächst auf eine Laufbahn als Pianist vor, als er nach dem Abitur 1919 das Studium der Musik in Berlin aufnahm. Sein Lehrer war Paul Hindemith, der Sala 1930 mit dem Ingenieur Friedrich Trautwein bekanntmachte, der dabei war, das „Trautonium“ zu entwickeln. Dabei handelte es sich um ein einstimmiges elektrisches Musikinstrument, das einen waagerecht über eine Metallschiene gespannten Draht als Spielmanual hatte. Es war in Klavierhaltung spielbar. Oskar Sala entwickelte die Konstruktion von Trautwein weiter. Seitdem hatte jedes Instrument zwei übereinander liegende Saitenmanuale. Kurz nach der Entstehung des Instruments hatte Paul Hindemith 7 Triostücke für drei Trautonien (1930) und ein Konzertstück für Trautonium komponiert. Ein Trautonium besteht aus einem Spielmanual (eine Art Tastatur), einem elektrischen Schwingkreis, einem Verstärker und einem Lautsprecher. Das Zentrum ist eine im Inneren des Geräts montierten Metallschiene und eine waagerecht darüber gespannte drahtumsponnene Darmsaite; wird die Saite an einer Stelle auf die Metallschiene gedrückt, wird eine elektrische Schwingung freigesetzt, die mittels des Verstärkers als Ton wiedergegeben werden kann. Das Trautonium war eines der ersten elektronischen Instrumente und Vorläufer des Synthesizers. Mit ihm konnte man nicht nur herkömmliche Musikinstrumente nachahmen, sondern Vokale, Tierstimmen und synthetische Klänge (Subharmonische) erzeugen.
Die Differenz zwischen Musik im Film und Filmmusik ist Voraussetzung dafür, dass musikalische Unfälle, Stümpereien und brüske Unterbrechungen, die außerhalb des Kinos nichts als Befremden und Ärger auslösen würden, in Spielfilmen oftmals als bedeutsame Momente unsere Aufmerksamkeit auf sich ziehen. Zerkratzte Schallplatten, schlechte Intonation, falsche Einsätze, Gedächtnislücken usw. treten, wenn sie im Rahmen einer Szene erklingen, in ein bedeutungs- und andeutungsreiches Wechselspiel mit Geräuschen, Handlung, Dialog und Bildern ein. Das Erbärmlichste kann anrührend, komisch oder tragisch inszeniert werden, und falsche Töne können richtig klingen, indem sie expressive, symbolische oder dramaturgische Funktionen erfüllen. Beispiele für dieses ästhetische Paradox sind zahlreich.
Once
(2009)
Bei ONCE, dem auf Festivals erfolgreichsten Musikfilm der letzten Jahre, handelt es sich um eine Independent-Produktion des irischen Regisseurs John Carney (mit dem geringen Budget von nur € 130,000), der mit der Inszenierung zweier junger musikalischer Talente den Versuch unternommen hat, der besonderen Kommunikativität von Musik auf die Spur zu kommen. Die Hauptfiguren, als Charaktere einfach mit „guy“ und „girl“ bezeichnet, werden von Glen Hansard, dem Sänger der „Frames“ (deren früherer Bassist John Carney war), und Markéta Irglová, einer bis dahin unbekannten tschechischen Musikerin, verkörpert; bereits im Vorfeld des Films wurden die beiden ein Paar, gingen auf Tournee und nahmen das im Zuge der Vermarktung des Films bekannt gewordene, jedoch bereits im Vorjahr erschienene Album The Swell Season auf. Der dort enthaltene Song Falling slowly, das Kernstück des Soundtracks und des Films, gewann schließlich gar den Oscar für den besten Original-Song, worin die Popularität des Films bei Kritikern und Zuschauern erneut ihre Bestätigung fand.
Wer sich mit den Arbeiten Alexander Kluges beschäftigt, bemerkt schnell, dass er in ein Labyrinth gerät, dessen Ausgang schwer zu finden ist. Dennoch gibt es einige wenige Themen, die sich wie ein roter Faden durch die Film-, Fernseh- und Textproduktionen Kluges ziehen: Neben der jüngeren deutschen Geschichte – womit bereits das zentrale Thema des ‚Krieges‘ ins Blickfeld gerät – ist dies etwa die Justiz im Verhältnis zum Privatleben, das politische Zeitgeschehen (u.a. im Film DEUTSCHLAND IM HERBST, BRD 1978), einige mythologische Geschichten, Erzählungen und Märchen, der Komplex ‚Babylon‘ sowie die Kunstform der Oper. Letztere steht bei Kluge zugleich für die zentrale philosophische Fragestellung, die ihn – ähnlich wie bereits seine Schriftstellerkollegen Immanuel Kant oder, vor allem, Robert Musil – immer wieder, gleichsam als Leitmotiv sämtlicher künstlerischer Tätigkeit, umtreibt: Gemeint ist der ‚Möglichkeitssinn‘ des Menschen.
Das Genre des Horrorfilms gehört zu jenen festen Genres die ohne den Einsatz der Musik einen großen Teil ihrer originären Wirkung einbüßen würden. Man denke an den WEISSEN HAI (USA 1975, Steven Spielberg) ohne John Williams markante Streicherpassage oder an das Teufelskind Damien ohne die von Jerry Goldsmith komponierten Chorstücke für die OMEN-Trilogie (USA 1976-81, Richard Donner, Don Taylor, Graham Baker). Der 1973 von William Friedkin in den USA gedrehte Film THE EXORCIST gilt in vielerlei Hinsicht als Markstein des Genres. Vor allem in ökonomischer Hinsicht hat er es geschafft, das Genre des Horrorfilms aus der Underground- und Schmuddel-Ecke herauszuholen, trotz visuell und verbal kühner Passagen ein großes Publikum anzusprechen und damit den Weg zu ebnen für formal und inhaltlich ähnlich gelagerte Filme der 70er und 80er Jahre. Erst mit den FRIDAY, THE 13TH- und NIGHTMARE ON ELM STREETFilmen konnte sich Mitte der 80er Jahre eine andere Art von Horrorfilm im US-Kino etablieren. An dieser Stelle soll nicht der Film THE XORCIST und seine Musik en detail analysiert werden. Vielmehr geht es um ein größeres Bild, dass einen Blick auf den Umgang mit vorhandener symphonischer Musik im USSpielfilm wirft. Dabei sollen zwei Fluchtlinien verfolgt werden, um zu zeigen, wie die verwendete Musik und der Umgang mit Klang im Film den Weg für zukünftige Entwicklungen geebnet haben.
Alan Croslands Film THE JAZZ SINGER wird in zahlreichen wissenschaftlichen Abhandlungen zum Übergang vom Stumm- zum Tonfilm als der Film beschrieben, der dem Tonfilm endgültig zum Durchbruch verhalf (vgl. Dibbets 1998, 197; Nowell-Smith 1998, 193; Henzel 2006, 47). Doch obwohl THE JAZZ SINGER maßgeblich dazu beigetragen hat, das neue Medium Tonfilm am Markt zu etablieren, handelt es sich bei diesem Film nicht um den ersten Tonfilm, wie gelegentlich behauptet wird (vgl. Ferrari 2004, 70), sondern lediglich um einen „Stummfilm mit einigen vertonten Einschüben“ (Dibbets 1998, 197). THE JAZZ SINGER ist ein so genannter part-talkie, ein Film also, der nur zum Teil vertont wurde. An ausgewählten Stellen enthält er „lippensynchrone Lieder und Dialog“ (Dibbets 1998, 197). Das expressive Spiel der Figuren und der Einsatz von Zwischentiteln hingegen erinnern an den Stummfilm. Doch nicht nur die Tatsache, dass THE JAZZ SINGER kein hundertprozentiger Tonfilm ist, steht laut Christoph Henzel einer Definition als erstem Tonfilm entgegen. Darüber hinaus ist er auch nicht der erste Film, der technisch in der Lage war, Bild und Ton zu synchronisieren. Vielmehr positioniert er sich als ein Ereignis unter vielen, als ein Glied innerhalb einer ganzen Reihe technischer Entwicklungen vom Stumm- zum Tonfilm (vgl. Henzel 2006, 48/49).
Der Text befasst sich mit vier minimalistischen Produktionen aus der aktuellen Medienkunst (Themen: Schwarmbewegungen, Tanz, moderne Kunst u. a.). In ihnen korreliert das phase shifting der Musik von Steve Reich von 1967 mit neuartigen Visualisierungsformen und –technologien. Das Zusammenspiel von digitaler Identität und analoger Differenz mit ihren klanglichen und visuellen Polyrhythmiken und patterns führt zu „entropischen Verschiebungen“, die ungewöhnliche „psycho-physische Effekte“ bewirken. Die mit den prozessualen Systemen einhergehende ästhetische Erfahrung wird in eine „Architektonik des Sinns“ der Moderne des 21. Jahrhunderts eingebettet.
La Paloma
(2009)
Es gibt Lieder, die ein Eigenleben entfalten. Man nennt sie oft „Evergreens“, ein Begriff des „Denglischen“, der nur im Deutschen Lieder bezeichnet, die „immergrün“ - also: immer-neu - zu bleiben scheinen. Ein Evergreen ist ein „trotz seines Alters in den Medien immer wieder gespielten und vom Publikum gerne gehörten Popsong, ein Lied oder schlagerähnliches Chanson der leichten Muse“ (Wikipedia). Manchmal wird behauptet, „oldies“ seien etwas ähnliches wie Evergreens - doch das stimmt nur bedingt. Oldies zeigen, dass sie alt sind; sie rufen biographische Erinnerungen hervor, zeigen vergangene Popmusik-Stile und -Szenarien an; und selbst dann, wenn sie lebendige Gedächtnisspuren aktivieren, also z.B. mitgesungen werden können, sind sie deshalb noch keine Evergreens. Näher kommt dem Evergreen das aus der Jazzmusik bekannte Konzept des „Standards“ - hier sind Lieder oder Stücke gemeint, die zu immer neuen Neueinspielungen einladen und die darum lebendig bleiben.
Ein in der europäischen Archäologie bislang wenig bekanntes Denkmal ist die Anlage der „gradina“. Dabei handelt es sich um ein monumentales Bauwerk auf Anhöhen mit einer oder mehreren Ringmauern aus großen Steinblöcken. Derartige Stätten erscheinen bereits sehr früh im Illyricum und können dem bisherigen Forschungsstand nach zu urteilen jeweils in Höhensiedlungen, Burgberge (Akropoleis), Wallburgen (Kastelle) sowie in „öffentliche Denkmäler“ oder Heiligtümer unterschieden werden. Das für den antiken Westbalkan charakteristische Bauwerk soll nun erstmals in seinen Grundzügen gebietsübergreifend vorgestellt werden. Zudem werden Beispiele aus den Bereichen Siedlungsstruktur und Urbanistik entnommen. In Hinblick auf eine über tausendjährige Kulturgeschichte der verschiedenen Landschaften entlang der Adria sowie des Dinarischen Hinterlandes aus vorrömischer Zeit wird zunächst ein zeitlicher Abriss zur historischen Entwicklung der Region gegeben.
Fernsehmagazine stehen in einem Konkurrenzkampf um die Gunst der Zuschauer und müssen sich neben anderen Sendungen im Programmfluss behaupten. Neben der Profilbildung und Zuschauerbindung der jeweiligen Magazine über die Form und den Inhalt der einzelnen Beiträge, den thematischen Grundtenor sowie die spezifische Moderation spielen auch das Corporate Design und die Corporate Identity eine wesentliche Rolle bei der Etablierung des einzelnen Magazins als eine wieder erkennbare Marke.
Seit März 2006 ist die Zeitschrift „Frankfurter elektronische Rundschau zur Altertumskunde“ online unter www.fera-journal.eu abrufbar. Nach nunmehr gut vier Jahren und mit dem Erscheinen der zehnten Ausgabe sehen die Herausgeber die Möglichkeit gegeben, mit Blick auf das bisher Geleistete ein erstes Fazit zu ziehen und auf der Grundlage ihrer Erfahrungen die gegenwärtigen Rahmenbedingungen und Perspektiven des Publizierens elektronischer Zeitschriften in der Altertumskunde zu diskutieren.
Der Vortrag Filmmusik als „Baukastenprinzip“: Kompositorische Traditionen und ihre Wirkung im Film, der das 2. Kieler Symposium zur Filmmusikforschung am 11. Juli 2008 in Kiel eröffnete, gab Anlass zu ungewöhnlich heftiger Diskussion zwischen Vertreterinnen und Vertretern der Musikwissenschaft. Da es aus Zeitgründen nicht möglich war, in notwendiger Differenzierung auf die Kritik der Fachkollegen einzugehen, soll die Diskussion hier dokumentiert werden. Der Vortrag selbst, der einen neuen Ansatz in der Analyse von Filmmusik vorstellt, ist mittlerweile in ausgearbeiteter Form unter dem Titel „Die Arbeit mit kompositorischen Topoi: Eine Analysekategorie der Filmmusik“ in der musikwissenschaftlichen Fachzeitschrift Archiv für Musikwissenschaft (2008) erschienen. Die Beispiele, die hier nur kurz umrissen werden, sind dort ausführlich analysiert. Da der Begriff des „Baukastenprinzips“ trotz differenzierender Erläuterung im Vortrag zu Missdeutungen geführt hat, wird im Folgenden von „musikalischkompositorischen Topoi“ gesprochen; diese Begriffswahl wird im genannten Aufsatz genauer erläutert.
Michael Jary wurde am 24.9.1906 in Laurahütte/Siemianowice (bei Kattowitz in Oberschlesien, heute in Polen) geboren. Jarys Vater war Werkmeister in der Königshütte, die Mutter, die das musische Interesse des Jungen früh erkannte, Schneiderin. Der kleine Jary sollte Missionar werden und wurde darum auf die Klosterschule Heiselgenkreuz der Steyler Missionare (in der Nähe von Neiße) geschickt. Dort entdeckte er seine Liebe zur Musik. Mit 18 Jahren verließ Jary das Kloster und besuchte das Konservatorium in Beuthen. Er leitete einen Kirchen- und Arbeiterchor und schrieb erste Kammermusikwerke, die der Sender Gleiwitz kurz nach seiner Gründung ausstrahlte. Das Stadttheater von Neiße und Plauen engagierte ihn schließlich als zweiten Kapellmeister. 1929 wurde Jary in die Staatlich-Akademische Musikhochschule zu Berlin aufgenommen, studierte dort Kompositionstechnik und Dirigieren. Als Mitglied der Meisterklasse begegnete er Musikern wie Arnold Schönberg und Igor Stravinsky. 1931 wurde ihm der Beethoven-Preises der Stadt Berlin verliehen.
Farinelli il Castrato
(2009)
Der Film FARINELLI erzählt die Geschichte der beiden ungleichen Brüder Carlo (Stefano Dionisi) und Riccardo Broschi (Enrico Lo Verso). Während Riccardo, der ältere der beiden, ein mittelmäßiger Komponist und ein ganzer Mann ist, ist Carlo ein begnadeter Sänger und Kastrat. Im Alter von zehn Jahren hatte er - so erzählte es ihm zumindest sein Bruder Riccardo - im Fieberwahn einen Reitunfall und musste deshalb kastriert werden. Durch diese Operation hat Carlo seine engelsgleiche Stimme mit einem Umfang von dreieinhalb Oktaven behalten und ist in der Lage, die Kompositionen seines Bruders auf unnachahmliche Weise vorzutragen. Carlo ist ein Wesen der Bühne - er lebt nur für die Musik, die sein Bruder ihm auf den Leib schreibt. Die Frauen lieben ihn - seine Engelsstimme, seinen sinnlichen Körper, seine sanften Berührungen und die Tatsache, dass er ihnen Genuss bereitet. Als „Farinelli“ erobert Carlo Broschi die europäischen Opernbühnen des 18. Jahrhunderts im Sturm.
Je näher man die gesellschaftliche Realität betrachtet, je genauer die Momentaufnahmen werden, die eine Kameralinse von der uns umgebenden Wirklichkeit macht, desto fremder und seltsamer erscheint diese Wirklichkeit. Der „Neue Deutsche Film“ oder „Autorenfilm“ ab den 1960er Jahren um die Filmemacher Alexander Kluge, Wim Wenders, Volker Schlöndorff, Werner Herzog, Rainer Werner Fassbinder und andere, reagierte auf diese Feststellung radikal kritisch: Die meisten Filme hätten nur ein „mittleres Verkehrsinteresse“ an der Wirklichkeit und wären vor allem der ökonomischen Produktionssituation geschuldet (Kluge 1975a, 116). Ein wirklich zeitkritischer Dokumentarfilm müsste daher ganz anders vorgehen, als bisher. Kluge schreibt 1975: „Wir sind der Ansicht, dass alle Beteiligten ihr Öffentlichkeits- und Realismuskonzept an diesem Film überprüfen könnten“ (Gassen 2007). Gemeint ist der Film IN GEFAHR UND GRÖSSTER NOT BRINGT DER MITTELWEG DEN TOD, eine Zusammenarbeit von Alexander Kluge und Edgar Reitz aus dem Jahr 1974. Die Filmemacher entwickeln darin verschiedene Methoden einer Analyse des Verhältnisses von Individuen zu Geschichte und Gesellschaft und entwerfen exemplarisch die Leitgedanken der Arbeit Alexander Kluges der 1970er Jahre: subversive Sprachkritik, das Konzept des filmischen Realismus, die sogenannte „Protestarbeit“, und die Karl Marx entlehnte „Sinnlichkeit der Wahrnehmung“.
Mechanistische Untersuchungen zur Modulation der zytosolischen Phospholipase A2 durch Hyperforin
(2009)
Aus der Familie der Phospholipasen A2 nimmt die zytosolische Phospholipase A2 (cPLA2) in der Bereitstellung von Arachidonsäure (AA) für die Produktion von entzündungsfördernden Eikosanoiden und Lysophospholipiden eine Schlüsselrolle ein. Inwieweit die Modulation dieses Enzyms zum antientzündlichen Wirkspektrum von Hyperforin beiträgt, war Gegenstand dieser Arbeit. Hyperforin als Bestandteil des Johanniskrauts greift auf vielfältige Art und Weise in Entzündungsprozesse ein und hemmt unter anderem die Aktivität der 5-Lipoxygenase und Cyclooxygenase-1 in mikromolaren Konzentrationen. Zur Erforschung der cPLA2 als weitere potentielle Zielstruktur wurden die Effekte Hyperforins auf frisch isolierte humane polymorphkernigen Leukozyten (PMNL) und Thrombozyten untersucht. Dabei ergaben sich erstaunlich widersprüchliche Ergebnisse. Während in PMNL die A23187- und Thapsigargin-induzierte AA-Freisetzung potent unterdrückt wurde (IC50 = 1,5 bis 1,9 µM), konnte Hyperforin die cPLA2-Aktivität in Thrombozyten nach A23187-Stimulation nicht und nach Thrombin-Induktion nur leicht beeinträchtigen. Hingegen resultierte aus der Behandlung von Thrombozyten mit 10 µM Hyperforin eine 2,6- bzw. 8,1-fache Steigerung der AA-Freisetzung und 12-Hydro(pero)xyeikosatetraensäure(H(P)ETE)-Produktion, die von einer Translokation der cPLA2 an die Plasmamembran begleitet war. In PMNL wurde eine Aktivierung der cPLA2 nicht beobachtet. Diese widersprüchlichen Befunde führten zu näheren mechanistischen Untersuchungen. Insbesondere der Einstrom von Ca2+, wie auch die Aktivierung von mitogenaktivierten Proteinkinasen (MAPK) tragen in PMNL und Thrombozyten zur cPLA2-Aktivierung bei. Allerdings konnte eine Beeinträchtigung dieser Signaltransduktionswege durch Hyperforin ausgeschlossen werden. In PMNL wird der durch A23187- oder Thapsigargin-induzierte Ca2+-Einstrom nicht inhibiert und die Aktivierung der entsprechenden MAPK konnte durch Hyperforin (bis zu 10 µM) nicht vermindert werden. In Thrombozyten wurde die Translokation der cPLA2 sowie die AA- und 12-H(P)ETE-Produktion durch die Chelatierung von extra- und intrazellulärem Ca2+ nicht gehemmt. Auch die Unterbindung der Phosphorylierung der cPLA2 durch Hemmung der MAPK-Aktivierung konnte die Aktivierung der cPLA2 nicht verhindern. In zellfreien Untersuchungen an aufgereinigtem Enzym zeigte Hyperforin weder hemmende noch aktivierende Effekte, wenn Liposomen aus 1-Palmitoyl-2-arachidonoyl-sn-glycerol-3-phospatidylcholin (PAPC) eingesetzt wurden. Nach Einbau von Dipalmitoylphosphatidylinositol-4,5-diphosphat, 1-Palmitoyl-2-oleoyl-sn-glycerol und Cholesterol in PAPC-Liposomen sowie gegenüber Lipid-Raft-Adaptionen (PAPC/Sphingomyelin/Cholesterol 1:1:1) zeigte Hyperforin allerdings inhibitorisches Potential (IC50 = 13,2 µM, 7,6 µM, 5,5 µM und 4,4 µM). Aktivierende Effekte des Hyperforins konnten in Abwesenheit von Ca2+ beobachtet werden, wenn cholesterolhaltige, Lipid-Raft-artige- oder 1-Palmitoyl-2-arachidonoyl-sn-glycerol-3-phospatidylethanolamin(PAPE)-Vesikel eingesetzt wurden. 10 bis 30 µM Hyperforin erhöhten die AA-Freisetzung 3,3- bis 7,3-fach, wobei die Bindung des Enzyms an Liposomen mit Cholesterol und Lipid-Raft-Strukturen, aber nicht gegenüber dem PAPE-Substrat verstärkt war. Alle Effekte konnten durch die Zerstörung der Membranoberfläche und –struktur nach Zugabe von Triton-X-100 aufgehoben werden, wodurch die Bedeutung der Struktur der Lipidaggregate für die Hyperforinwirkung in den Vordergrund tritt. Darüber hinaus konnte die essentielle Rolle der vinylogen Carbonsäurestruktur des Hyperforins gezeigt werden, da ein O-Methylester des Hyperforins weder die Hemmung der cPLA2 in PMNL noch deren Aktivierung in Thrombozyten reproduzieren konnte und im Liposomenassay nur eine unspezifische Aktivierung der cPLA2 unabhängig von der Membranstruktur bewirkte. Neben der cPLA2-Aktivität wurde auch die Dichte der Liposomen abhängig von der Membranstruktur durch Hyperforin moduliert, allerdings konnten Änderungen der Membrandichte nicht mit Einflüssen auf die Enzymaktivität korreliert werden. Weiterhin wurden in Zusammenarbeit mit der Arbeitsgruppe Prof. Glaubitz, Universität Frankfurt, 1H-MAS-NMR-NOESY-Spektren von Liposomen aus 1-Palmitoyl(D31)-2-oleoyl-sn-glycero-3-phosphatidylcholin mit integriertem Hyperforin aufgenommen. Das sich aus der Analyse der Spektren ergebende Modell postuliert die Lokalisation des sauerstoffreichen Bizyklus des Hyperforins im Kopfgruppenbereich der Lipide und eine Penetration der Isoprenylgruppen in die hydrophobe Schicht der Membranen. Die Ergebnisse dieser Arbeit in intakten Zellen und zellfreien Systemen verweisen somit auf komplexe Zusammenhänge, bei denen Interkalationen von Hyperforin mit speziellen Membranstrukturen im Vordergrund stehen. Die unspezifische Einlagerung der lipophilen Substanz Hyperforin in zelluläre Membrankompartimente könnte somit unter Umgehung der regulären Signaltransduktionswege zelltypabhängig die cPLA2-Aktivität modulieren.
Coachella
(2009)
Das Coachella Valley Music and Arts Festival ist eines der größten und beliebtesten Musikfestivals der Vereinigten Staaten. Es findet seit 1999 jährlich (bis auf das Jahr 2000, als es aus Finanzierungsproblemen ausfallen musste) auf dem Gelände des Empire Polo Club in Indio (Kalifornien) statt und erreicht mittlerweile eine Größe von 100.000 Besuchern. Auf mehreren Bühnen treten an zwei bis drei Tagen internationale Bands aus den verschiedensten Musikgenres auf, von HipHop über Indie-Rock bis hin zu Electro. Auch der Bekanntheitsgrad der auftretenden Künstler rangiert von Newcomern hin zu internationalen Top Acts wie Coldplay, den Red Hot Chili Peppers oder Oasis. Außerdem präsentieren Künstler auf dem Festivalgelände zahlreiche Skulpturen und Installationen.
In der vorliegenden Arbeit wurde eine aktuelle Diskussion um die Prozesse und Mechanismen der Selektiven Aufmerksamkeit im Rahmen von Anforderungen des sogenannten Negative Priming-Paradigma aufgegriffen. Die Kontroverse welche Prozesse zum Phänomen verlangsamter Reaktionen auf zuvor ignorierte Reize führen, diente als Hintergrund der Untersuchung der Frage, ob eine bei älteren Erwachsenen defizitäre access-Komponente Selektiver Aufmerksamkeit dazu führt, dass gleich große Negative Priming-Effekte jüngerer und älterer Erwachsener dennoch auf der Kontrolle unterschiedlicher Interferenzeinflüsse zwischen den Altersgruppen beruhen. So ist der Frage nachgegangen worden, ob ältere Erwachsene aufgrund einer defizitären access-Kontrolle möglicherweise eine separate Gedächtnisspur für distrahierende und Target-Information anlegen, während jüngere Erwachsene die distrahierende Information aufgrund einer hoch effizienten access-Komponente eher "nebenbei" verarbeiten und so die Distraktorinformation mit der Reaktion für das Target verknüpfen. Jüngere Erwachsene würden somit keine separate Gedächtnisspur für Distraktorinformation anlegen. Während bei älteren Erwachsenen der Negative Priming-Effekt aus dem Abruf der konfligierenden Distraktorinformation stammen könnte, würde der Negative Priming-Effekt jüngerer Erwachsener dann vor allem auftreten, wenn die Reaktion zwischen aufeinanderfolgenden Verarbeitungsepisoden wechselt. Insgesamt zeigte sich jedoch eine altersdifferenzielle Effizienz der access-Komponente Selektiver Aufmerksamkeit nur unter den spezifischen Umständen einer rein perzeptuellen Reaktionsanforderung. Während ältere Erwachsene durch die bloße Anwesenheit distrahierender Informationen gestört werden, scheinen jüngere Erwachsene diese Informationen effizient ausblenden zu können, solange die Aufgabenstellung keine elaboriertere Informationsverarbeitung erfordert. Dieses legt den Schluss nahe, dass sich die Effizienz der access-Komponente nicht generell altersdifferenziell unterscheidet. Jüngere Erwachsene scheinen von distrahierenden Informationen nur auf perzeptueller Ebene weniger gestört zu werden als ältere.
Georges Auric (1899 - 1983)
(2009)
Georges [Abel Louis] Auric wurde am 15.2.1899 in Lodève, Hérault in Frankreich geboren; er starb am 23.7.1983 in Paris. Er galt als musikalische Hochbegabung, erhielt seine musikalische Ausbildung am Konservatorium von Montpellier. Er studierte am Parisert Konservatorium, um bei Georges Caussade Kontrapunkt und Fugenkomposition zu studieren. Sein vielleicht wichtigster Lehrer war (von 1914-16) Vincent d‘Indy an der Schola Cantorum, ein Protegé César Francks und ein französischer Vertreter der deutschen spätromantischen Schule der Komposition. Schon im Alter von 20 komponierte und orchestrierte Auric Bühnen- und Ballettmusiken. Er freundete sich mit Erik Satie und dem Dramatiker Jean Cocteau an. Er engagierte sich seit 1917 in der von Satie geförderten Gruppe Les Nouveau Jeunes, aus der dann drei Jahre später die sogenannte Groupe des Six hervorging, einer Komponistengruppe um Francis Poulenc (zu der Gruppe gehörten neben Auric und Poulenc: Darius Milhaud, Arthur Honegger, Germaine Tailleferre und Louis Durey), die im Gegensatz zum musikalischen Impressionismus in Frankreich und zur spätromantischen Musik Richard Wagners einen neuen antiromantischen, einfachen Stil propagierte. Auric wandte sich für kurze Zeit der Kritik zu, bevor er sich ganz der Komposition widmete. 1962 wurde Auric Direktor der Pariser Oper. Er verfasste komische Opern, Ballette (für Sergej Diaghilev) und Filmmusik mit lebhafter, oft ekstatischer Rhythmik.
Literatur und Alltag sind auf auf Ebene der Sprache miteinander verbunden. Die Literatur hat, so Stefan Matuschek, einen nicht beliebigen, sondern für sie und ihre Möglichkeiten konstitutiven Bezug zur Alltagssprache. Dieser Bezug besteht nicht von jeher. Er ist ein literaturgeschichtlich neueres Phänomen, das wohl erst im letzten Jahrhundert von entscheidendem Gewicht geworden ist. Es hängt mit dem sprachlichen Phänomen zusammen, das unsere Wirklichkeit mehr und mehr prägt: mit der immer fortschreitenden Ausdifferenzierung der arbeitsteiligen Wissensgesellschaft und der je zugehörigen Expertenkulturen und Expertensprachen. Neben dieser Entwicklung erhält der Zusammenhang von Literatur und Alltagssprache eine besondere Funktion.
Methanosarcina acetivorans kann Kohlenmonoxid (CO) als Kohlenstoff- und Energiequelle nutzen. Als Endprodukte entstehen bei der Verwertung von CO neben Methan signifikante Mengen an Azetat und Formiat sowie Dimethylsulfid (DMS). In dieser Arbeit sollten verschiedene Aspekte dieses außergewöhnlichen CO-Stoffwechsels analysiert werden. Folgende Ergebnisse wurden erzielt: 1) Weder die Methanogenese, noch die Bildung eines der anderen Metaboliten wird durch hohe CO-Partialdrücke gehemmt. Inhibitorstudien mit BES belegen, dass die CO-Oxidation und die Bildung von Azetat, Formiat und DMS nicht an die Methanogenese gekoppelt sind. Inhibitorstudien legen nahe, dass die Methanogenese aus CO am Aufbau eines Na+-Gradienten beteiligt ist und das Vorhandensein eines vom Protonenpotential-abhängigen Schrittes. 2) Eine neue, kostengünstige Transformationsmethode mittels Polyethylenglykol (PEG) konnte für M. acetivorans etabliert werden. Die Transformationshäufigkeit betrug ca. 1,1 x 107 Transformanden/μg DNA und liegt damit im Bereich von der der bisher etablierten Liposomen-vermittelten Transformationsmethode. 3) Mutantenanalysen und physiologische Studien belegen eine Beteiligung der Mts-Proteine in der DMS-Bildung und DMS-Verwertung, da in ihrer Abwesenheit kein DMS aus CO gebildet, kein Methan aus DMS produziert wird, und M. acetivorans nicht mehr auf DMS als Energiequelle wachsen kann. Die Mts-Proteine sind für das carboxidotrophe Wachstum jedoch nicht essentiell. Immunologische Analysen belegen eine substratabhängige Regulation von MtsF und weisen auf genetische Interaktionen der einzelnen Loci oder der Isoformen selbst hin. 4) Die monofunktionellen CODH-Isoformen von M. acetivorans sind am carboxidotrophen Wachstum beteiligt, jedoch nicht essentiell. Die beiden Isoformen der bifunktionellen CODH/ACS sind funktionell, und wenigstens eine von ihnen ist für autotrophes als auch carboxidotrophes Wachstum notwendig. Eine mögliche posttranslationale Modifikation von Cdh1 weist auf unterschiedliche physiologische Funktion und/oder Lokalisation hin. 5) Die F420H2-Dehydrogenase ist essentiell für methylotrophes, nicht jedoch für carboxidotrophes Wachstum.
Im Jahr 2006 kam es in Deutschland lt. der Polizeilichen Kriminalstatistik zu 4584 illegalen Schusswaffeneinsätzen. Daher ist die Entwicklung verbesserter technischer Untersuchungsverfahren die zu einer Aufklärung dieser Straftaten beitragen könnten vordringlich. Mikrosensorsysteme wie der DL 1000 bieten die Möglichkeit die Abbrandgase/Schmauchgase verschiedener Munitionstypen zu analysieren und mit Hilfe eines neuronalen Netzes zu unterscheiden. Zunächst wurden 2000 Treibsätze von 10 verschiedenen Munitionstypen verbrannt und die Profile in dem neuronalen Netz gespeichert. In einem zweiten Schritt wurden mit jedem Munitionstyp je 2 relative Nahschüsse auf Schweinefüße abgegeben und das olfaktorische Profil des Waffenlaufs und der Einschusswunden analysiert. Bei Analyse der Abbrandgase unbekannter Treibsätze konnte der entsprechende Muntionstyp in ca. 84 % der Fälle identifiziert werden. Während auch die olfaktorische Analyse des Gases im Waffenlauf wenige Minuten nach der Schussabgabe noch zu sehr hohen Wiedererkennungsraten führte, sanken diese an der Einschusswunde deutlich ab. Die Ergebnisse zeigen, dass die Abbrandgase von verschiedenen Munitionstypen mit dem verwendeten Analysesystem mit hoher Sicherheit identifiziert werden können. Der Überlagerung der Abbrandgase durch Körper- oder Fäulnisgasgerüche wird vor allem durch eine Erweiterung der Datenbasis des neuronalen Netzes zu begegnen sein.
Pflanzliche Biomasse bietet sich hervorragend als billiges und in großen Mengen verfügbares Ausgangssubstrat für biotechnologische Fermentationsprozesse an. Für die Herstellung von Bioethanol ist die Hefe Saccharomyces cerevisiae der wichtigste Produktionsorganismus. Allerdings kann S. cerevisiae die in Biomasse in großer Menge enthaltenen Pentosen Xylose und Arabinose nicht verwerten. Für einen ökonomisch effizienten Fermentationsprozess ist es daher essentiell, das Substratspektrum der Hefe entsprechend zu erweitern. Im Rahmen dieser Arbeit ist es gelungen, den bereits in Hefe etablierten bakteriellen Arabinose-Stoffwechselweg signifikant zu verbessern. Genetische und physiologische Analysen ergaben, dass eines der heterolog produzierten Enzyme, die L-Arabinose-Isomerase aus Bacillus subtilis, einen limitierenden Schritt innerhalb des Stoffwechselweges darstellte. In einem genetischen Screening konnte ein aktiveres Isoenzym aus Bacillus licheniformis gefunden werden. Zusätzlich wurde der Codon-Gebrauch aller heterologen bakteriellen Gene dem Codon-Gebrauch der hoch-exprimierten glykolytischen Gene von S. cerevisiae angepasst. Mit diesem rationalen Ansatz konnte die Ethanolproduktivität aus Arabinose um mehr als 250% erhöht werden, der Ethanolertrag wurde um über 60% gesteigert. Dies stellte die erste erfolgreiche Verbesserung eines heterologen Stoffwechselwegs in S. cerevisiae über Codon-optimierte Gene dar. In einem breit angelegten Screening wurde zum ersten Mal eine prokaryontische Xylose-Isomerase gefunden, die in S. cerevisiae eine hohe Aktivität aufweist. Durch das Einbringen des xylA-Gens aus Clostridium phytofermentans in verschiedene Hefe-Stämme wurden diese in die Lage versetzt, Xylose als alleinige Kohlenstoffquelle zu nutzen. Zusätzlich konnte damit die Vergärung von Arabinose und Xylose in einem einzigen S. cerevisiae-Stamm kombiniert werden. Vorherige Versuche, einen Pentose-vergärenden Stamm zu konstruieren, der einen bakteriellen Arabinose-Stoffwechselweg mit dem eukaryontischen Xylose-Reduktase/Xylitol-Dehydrogenase-Weg kombinierte, scheiterten an der unspezifischen Umsetzung der Arabinose durch die Xylose-Reduktase zu dem nicht weiter verstoffwechselbaren Arabitol. Für einen industriellen Einsatz der rekombinanten Hefen war es unerlässlich, die Eigenschaften für die Pentose-Umsetzung in Industrie-relevante Hefe-Stämme zu übertragen. Durch die Etablierung von genetischen Methoden und Werkzeugen ist es in dieser Arbeit gelungen, Industrie-Stämme zu konstruieren, die in der Lage sind, Arabinose oder Xylose zu metabolisieren. Dabei wurden die heterologen Gene stabil in die Chromosomen der Stämme integriert. Diese wurden mit Hilfe von „Evolutionary Engineering“ so optimiert, dass sie die Pentose-Zucker als alleinige Kohlenstoffquellen zum Wachstum nutzen konnten. Fermentationsanalysen zeigten eine effiziente Umsetzung der Pentosen zu Ethanol in diesen Stämmen. Damit ist ein neuer Startpunkt für die Konstruktion von industriellen Pentose-fermentierenden Hefe-Stämmen markiert, der zukünftig effizientere Bioethanol-Produktion ermöglichen wird.
Osteoporotische Frakturen sind mit erheblichen medizinischen, psychosozialen und ökonomischen Folgen belastet. Für die Betroffenen resultieren in einem hohen Maße Einbußen an Lebensqualität, Folgemorbidität, Pflegebedürftigkeit und erhöhte Mortalität. Osteoporotische Frakturen entstehen durch ein inadäquates Trauma und können jeden Knochen betreffen, am häufigsten sind das Hüftgelenk, die Wirbelkörper und der distale Radius betroffen. Es ist von großer Bedeutung Patienten mit einem hohen Osteoporoserisiko frühzeitig zu identifizieren, über Präventionsmaßnahmen aufzuklären und bereits Erkrankte rechtzeitig zu diagnostizieren und zu therapieren, da eine bereits stattgehabte Fraktur das größte Risiko für eine Folgefraktur ist. Trotz der Verfügbarkeit einer Anzahl von effektiven diagnostischen und therapeutischen Möglichkeiten ist die Osteoporose weiterhin unterdiagnostiziert und unterbehandelt, vor allem in der Hochrisikogruppe von Patienten mit einer früheren Fraktur. Zahlreiche Untersuchungen aus Europa, den USA, Australien und Neuseeland zeigten dass im Mittel nur 17% der Patienten die aufgrund einer osteoporotischen Fraktur stationär aufgenommen wurden eine spezifische antiosteoporotische Therapie erhielten. Die bisher in Deutschland durchgeführten Studien bezüglich der Versorgungssituation von Patienten mit osteoporotischer Fraktur beruhen zumeist auf Krankenkassendaten. Es werden daher nur diagnostizierte Erkrankungen erfasst. Hierbei ergibt sich das Problem dass eine mögliche Dunkelziffer von nicht als osteoporotisch erkannten Frakturen nicht in die Berechnung einbezogen werden. Ziel dieser Studie war es daher, die Dunkelziffer an nicht bezüglich Osteoporose diagnostizierten Patienten zu erfassen, aber auch die Einleitung von Diagnostik und Therapie nach osteoporotischen Frakturen im Allgemeinen und unter dem Einfluß von Risikofaktoren zu analysieren. In einer retrospektiven Beobachtungsstudie an orthopädischen und unfallchirurgischen Abteilungen im Rhein-Main-Gebiet wurde eine Analyse der Jahre 2003 und 2004 durchgeführt. Eingeschlossen wurden Patienten im Alter von >50 Jahren mit einer ICD-verschlüsselten Fraktur als Aufnahmediagnose. Die in der Krankenakte enthaltenden Daten wurden nach zuvor erlittenen Frakturen, nach für den Knochen-Stoffwechsel und für die Knochen-Stabilität relevanten Grunderkrankungen, einer vorbekannten Osteoporose, durchgeführter Diagnostik zur Sicherung oder Widerlegung der Diagnose einer Osteoporose , der Diagnosestellung einer Osteoporose und ggf. erfolgter Therapieeinleitung und -empfehlung nach einem vorliegenden Erhebungsbogen systematisch ausgewertet. Insgesamt wurden 2142 Patienten älter als 50 Jahre mit einer Fraktur ausgewertet. 1544 (72,1%) waren weiblich und 598 (27,9%) männlich. Davon wurde bei 1460 (68,2%) der Patienten die Fraktur als osteoporotisch eingestuft, 1215 (83,2%) waren weiblich und 245 (16,8%) männlich. 80,3% der Patienten mit osteoporotischer Fraktur waren älter als 70 Jahre. Die häufigste Traumaursache war der Sturz aus dem Stand. Die Hüftfraktur (55,2%) war die häufigste Frakturlokalisation, gefolgt von der Wirbelkörperfraktur (14%). 79,4% erhielten eine operative Therapie. Eine frühere Fraktur gaben 14% (n=205) in der Anamnese an, dies waren vor allem Patienten mit einer neuen Wirbelkörperfraktur. Von diesen Patienten mit einer Fraktur in der Vorgeschichte war bei 20% (n=41) eine Osteoporose bereits bei Aufnahme bekannt, aber nur 9,8% (n=20) erhielten zu diesem Zeitpunkt eine antiosteoporotische Therapie. Insgesamt nur bei 29,9% der Patienten wurde eine Osteoporose als Ursache der Fraktur diagnostiziert. Ein geschlechtsspezifischer Unterschied lag nicht vor, allerdings erfolgte die Diagnosestellung bei Patienten älter als 85 Jahre deutlich seltener. Bei 67,2% der osteoporotischen Wirbelkörperfrakturen wurde die Osteoporose erkannt, jedoch nur bei 16,3% der osteoporotischen Hüftfrakturen. Zum Zeitpunkt der Entlassung wurden 6,6% der Patienten mit einem antiosteoporotischen Medikament therapiert und bei 5,1% wurde diesbezüglich eine Empfehlung im Entlassungsbrief ausgesprochen. In den meisten Fällen war die Therapie eine Kombination aus Bisphosphonaten, Vitamin D und Calcium. Die Ergebnisse dieser Studie zeigen, dass bei 70% der Patienten die Diagnosestellung einer Osteoporose versäumt und dass 88,3% der Patienten ohne eine spezifische antiosteoporotische Therapie oder einer Therapieempfehlung aus dem Krankenhaus entlassen wurden. Somit zeigt sich eine deutliche Versorgungslücke zwischen evidenzbasierter Medizin und alltäglicher Praxis. Frakturen bei älteren Menschen führen selten zur einer Diagnostik oder Therapie bezüglich Osteoporose. Ein möglicher Weg zur Therapieoptimierung könnten strukturierte Weiterbildungsprogrammen für den behandelnden Arzt sein, im Sinne von Fachartikeln, Internetlernprogrammen und Seminaren. Zusätzlich sollten klinische Leitpfade zur Erkennung und Behandlung von Patienten mit Frakturen etabliert werden. Von Seiten des Patienten können Informationsbroschüren und Aufklärungsprogramme helfen, die Compliance zu verbessern. Die umfangreichen Möglichkeiten für verbesserte diagnostische und therapeutische Interventionen sollten genutzt werden um Frakturraten, Krankheit, Sterblichkeit und Gesundheitskosten zu senken.
Ein neuer Lösungsansatz für das Weltklimaproblem. Die Wissenschaft ist sich heute weitgehend einig, dass eine Erderwärmung um mehr als 2 °C gefährliche, irreversible und kaum beherrschbare Folgen für Natur und Gesellschaft hätte. Bereits 133 Staaten, darunter die 16 führenden Wirtschaftsmächte und die Europäische Union, haben die Bedeutung dieser Temperaturgrenze anerkannt. Viele dieser Staaten haben sich das Ziel, den Anstieg der globalen Mitteltemperatur auf 2 °C oder weniger zu begrenzen, als Leitplanke für ihre klimapolitischen Anstrengungen gesetzt. Neueste Forschungsergebnisse zeigen, dass eine realistische Chance für die Begrenzung der Erderwärmung auf 2 °C nur dann gegeben ist, wenn die Summe der globalen CO2-Emissionen bis 2050 limitiert wird (CO2-Globalbudget). Der WBGU rückt dieses Globalbudget ins Zentrum seiner Überlegungen zur Gestaltung eines neuen Weltklimavertrags, der auf der 15. Vertragsstaatenkonferenz der Klimarahmenkonvention (UNFCCC) in Kopenhagen zur Verhandlung ansteht. Der WBGU-Budgetansatz liefert in Verbindung mit fundamentalen Gerechtigkeitsvorstellungen konkrete Zahlen für die jeweiligen Emissionsbegrenzungen, welche die Nationen der Erde auf sich nehmen müssen, um die Destabilisierung des Klimasystems noch zu verhindern.
Der WBGU-Budgetansatz
(2009)
Der Wissenschaftliche Beirat der Bundesregierung Globale Umweltveränderungen (WBGU) hat einen neuen Ansatz zur Bewältigung des Klimaproblems entwickelt. Zentral ist die Einigung der Staatengemeinschaft auf eine Obergrenze für die noch zu emittierende Gesamtmenge (Globalbudget) an Kohlendioxid aus fossilen Quellen bis 2050, um gefährliche Klimaänderungen zu vermeiden. Da das Globalbudget gerecht auf alle Staaten verteilt wird, eignet sich der Budgetansatz als Grundlage für einen neuen Weltklimavertrag.
Klimawandel : warum 2°C?
(2009)
Die Auswirkungen des Klimawandels sind bereits in allen Teilen der Welt spürbar und werden sich weiter verstärken. Diese Veränderungen bergen ernste Gefahren für unsere Gesellschaften. Der Menschheit bleibt nur ein kleines Zeitfenster, um der Herausforderung Klimawandel angemessen zu begegnen und Maßnahmen zu ergreifen, die den globalen Temperaturanstieg auf maximal 2°C begrenzen können.
Die benigne Prostatahyperplasie (BPH) bezeichnet die häufigste organische Obstruktion durch gutartiges Wachstum der Prostata, resultierend aus der Proliferation von sowohl stromalen als auch epithelialen Zellen in der Transitionalzone der Prostata. Die Prävalenz der ursächlich noch weitgehend ungeklärten, benignen Prostatahyperplasie steigt mit zunehmendem Alter kontinuierlich an, so dass in der 6. Lebensdekade etwa 50 Prozent und in der 9. Lebensdekade circa 90 Prozent der Männer bioptisch histologische Zeichen einer BPH zeigen. Die chronisch progressive Erkrankung, die bei Männern mit BPH entsteht, wird als benignes Prostatasyndrom (BPS) bezeichnet und durch die variable Ausprägung von Prostatavergrößerung, Symptomen des unteren Harntrakts (LUTS) und Blasenauslassobstruktion (BOO) charakterisiert. Eine symptomatische, behandlungsbedürftige BPH äußert sich üblicherweise durch irritative als auch durch obstruktive Symptome. Eine mögliche medikamentöse Therapie der symptomatischen BPH besteht in der Gabe von α-Blockern, die durch Blockade der prostatischen α-Adrenozeptoren zu einer Relaxierung der glatten Muskulatur der Prostata führen und somit sowohl irritative als auch obstruktive Symptome reduzieren. Im Rahmen der vorliegenden Arbeit wurde auf der Basis einer selektiven Literaturrecherche und einer per Email durchgeführten Befragung von Professor Caine die Einführung der α-Blocker in die urologische Therapie beschrieben. Die Einführung des ersten α-Blockers, Phenoxybenzamin, in die urologische Therapie ist im Wesentlichen der Pionierarbeit von Doktor Marco Caine et al. zu verdanken, die Anfang der 70er Jahre die pharmakologischen Rezeptoren im unteren Harntrakt von Tieren und etwa 1973 in der menschlichen Prostata bestimmten. Aus der Erkenntnis, dass sich menschliches Prostatagewebe durch Behandlung mit Norepinephrin kontrahierte, Vorbehandlung mit Phentolamin diese Kontraktion inhibierte und folglich der α-Adrenozeptor Mediator der Kontraktion der glatten Prostatamuskulatur sein musste, entwickelte Caine das „Konzept der zwei Komponenten“, nämlich einer statischen, mechanischen Komponente infolge der durch die vergrößerte Prostata bedingten, anatomischen Obstruktion und einer überlagerten, dynamischen Komponente, die, verursacht durch den Tonus der glatten Prostatamuskulatur, je nach Ausmaß der adrenergen Aktivität im Körper, variierte. Er folgerte, durch pharmakologische Blockade der prostatischen α-Adrenozeptoren eine Verringerung der dynamischen Komponente und infolgedessen eine Besserung der Symptome erreichen zu können. Es gelang ihm 1976 seine Hypothese zu bestätigen und in einer placebo-kontrollierten, 1978 publizierten Studie die klinische Effizienz einer Therapie mit Phenoxybenzamin nachzuweisen. In einer 1981 veröffentlichten in-vitro Studie konnte er auch für Prazosin, den ersten selektiven α1-Antagonisten, einen blockierenden Effekt auf die α-Rezeptoren im menschlichen Prostatagewebe demonstrieren. Mitte der 80er Jahre publizierte Caine erste Studienergebnisse, die den Nachweis einer funktionellen Dominanz prostatischer α1-Rezeptoren in der Vermittlung der Kontraktion der glatten Prostatamuskulatur erbrachten. Unabhängig davon identifizierten Doktor Herbert Lepor und Kollegen in ihren zur Charakterisierung von α1- und α2-Adrenozeptoren der menschlichen Prostata mit Hilfe von Radioligand-Rezeptor-Bindungsmethoden realisierten, 1984-1987 publizierten, innovativen Studien den α1-Adrenozeptor als den Mediator der Kontraktion der Prostatamuskulatur. Diese Erkenntnisse bildeten die wissenschaftliche Basis für die Anwendung von α1-Adrenozeptor-Antagonisten wie Terazosin und Doxazosin in der medikamentösen Therapie der BPH. In intensiven Langzeit-Studien konnte Lepors Forschungsgruppe Mitte der 90er Jahre die gute Wirksamkeit und Verträglichkeit von Terazosin nachweisen und Anfang des 21. Jahrhunderts den Nutzen einer Kombinationstherapie von Doxazosin mit einem 5α-Reduktase-Inhibitor wie Finasterid demonstrieren. Ferner erkannten Lepor et al. circa 1993 den dominanten α1a-Adrenozeptor-Subtyp als den Mediator der Muskelkontraktion der menschlichen Prostata und lokalisierten ihn durch Autoradiographie und Immunhistochemie im Stroma der Prostata. Dieser Nachweis forcierte die Erforschung subtyp-selektiver α1a-Blocker wie Tamsulosin, für den Lepor et al. in placebo-kontrollierten, doppelblinden Studien der späten 90er Jahre eine gute Langzeit-Wirksamkeit und Verträglichkeit ohne die für nicht subtypselektive α-Blocker typischen, blutdrucksenkenden Effekte belegen konnten, was dazu beigetragen hat, dass sich die Therapie der symptomatischen BPH mit Tamsulosin zu einem bis heute genutzten Goldstandard entwickelt hat.
Ziel der Arbeit war eine in vitro Versuchsetablierung einzuführen. Hierbei sollte sowohl das Überleben der Zellen (MSC und EPC), als auch ihr Verhalten unter osteogener Stimulation histologisch mittels Färbeverfahren und auf molekularbiologischem Wege untersucht werden. Dabei sollte auch ein Vergleich zwischen den zwei Medien, nämlich dem Osteogenic Stem Cell Kit und dem selbst hergestellten Medium bestehend aus Ascorbinsäure, beta-Glycerophosphat und Dexamethason gemacht werden. Hintergrund dieser Versuchsetablierung war es, eine suffiziente Behandlungsstrategie von Frakturen zu erzielen. Jene Knochendefekte, bei denen es auf Grund von bestimmten Umständen zu einer verzögerten oder gar nicht zur Bruchheilung kommt. Unter bestimmten Konditionen, wie zum Beispiel einer ausgedehnten Knochenresektion nach einer chirurgischen Tumorentfernung oder einer ausgedehnter Fraktur, entstehen großen Frakturspalten, solche, die als sog. Critical size defect bezeichnet werden. Hier für könnte eine Therapie mit der Hilfe von Tissue Engineering erzielt werden. Stromale Knochenmarkszellen haben die Fähigkeit, unter bestimmten Bedingungen, nämlich unter dem Einfluss von Ascorbinsäure, beta- Glycerophosphat und Dexamethason, sich osteogen umzudifferenzieren. Einige Studien belegen den Nutzen dieser Fähigkeit bei der Konsolidierung der Knochenfraktur. Für eine schnelle Knochenheilung ist die frühe und adäquate Vaskularisierung der Fraktur von außerordentlicher Wichtigkeit. Somit spielen die Endothelialen Progenitorzellen eine große Rolle. Nach Asahara existieren zwei unterschiedliche Klassen der EPC, CD133+ und CD133- Zellen. Verschiedene Studien zeigen, dass die EPC an der in situ Neovaskularisierung beteiligt sind. Somit stellt sich die Frage, erstmalig zu prüfen, ob eine Mischkultur aus EPC und MSC auf einer Trägermatrix kultiviert werden kann, um dadurch womöglich eine Verbesserung der Knochenheilung zu erzielen. Bei der Versuchsetablierung zeigte sich, dass die CD133+ EPC sich unter dem Einfluss von osteogenem Medium osteogen umdifferenzierten und ihre endotheliale Differenzierung nicht mehr beibehielten. Zusätzlich zeigte sich eine fehlende Adhärenzfähigkeit der CD133+ EPC. Somit wurde die Arbeit mit CD133- EPC weitergeführt. Unter osteogenem Einfluss behielten diese ihre endotheliale Differenzierung, nämlich vWF und VEGF, bei. Diese „early“ EPC waren zudem auch adhärent, was die Kultivierung auf Trägermatrices ermöglichte. Während der Versuchsetablierung zeigte sich auch, dass beta-TCP einen osteoinduktiven Einfluss auf MSC hatte. Eine synergistische Wirkung im Sinne einer Potenzierung von osteogenem Potential konnte nicht beobachtet werden. Zu klären wären noch die Nachteile, die durch beta-TCP entstehen, nämlich geringe Elastizität, langsame Resorption und hohe Zerbrechlichkeit. Daher wurde auch die Etablierung von Collagenvlies, ein Composite aus Kollagen I und Hydroxylapatite (von der Firma Osartis), untersucht. Collagenvlies war mangelhaft in seiner Stabilität. Wir konnten durch einige Modifikationen zeigen, dass die Zellen (MSC und EPC) bis einschließlich Tag 5 auf Collagenvlies vital waren. Zwar konnten Osteonektin und vWF detektiert werden, aber valide Aussagen über die osteogene Umdifferenierung der Zellen konnten auf Grund der relativ kurzen Inkubationszeit von 5 Tagen nicht getroffen werden. Zusammenfassend konnte gezeigt werden, dass CD 133+ EPC unter osteogener Stimulation ihre Endotheliale Differenzierung verlieren und somit für ein Vaskularisierungsvorhaben in Frakturen unter osteogener Stimulation ungeeignet erscheinen. Zudem ist das Fehlen der Adhärenz ein entscheidender Nachteil. CD133- EPC sind adhärent und behalten ihre Endotheliale Differenzierung unter osteogener Stimulation bei. Somit sind sie auch gut geeignet, um eine für die Frakturheilung essentielle frühere Vaskularisierung zu induzieren. Die vorliegende Arbeit zeigte erstmalig erfolgreich eine in vitro Kultivierung dieser Michkultur. Es stellt sich nun die Frage, wie diese Mischkultur, bestehend aus CD133- EPC und MSC, sich in vivo verhält. Dies gilt es nun in tierexperimentellen Studien zu zeigen.
Naphthalan ist ein natürliches mineralisches Schweröl mit einem hohen Anteil an gesättigten bi- bis pentazyklischen Kohlenwasserstoffen (KW). Es wird heutzutage erfolgreich in der Behandlung der Psoriasis, einer hyperproliferativen Hauterkrankung mit gleichzeitig mangelhafter terminaler Differenzierung der Keratinozyten eingesetzt. Seine Wirkungsweise ist bisher aber nicht bekannt. Ziel der vorliegenden Arbeit war es, den Einfluss von Naphthalan auf die Proliferation, Differenzierung und Toxizität von humanen Keratinozyten zu untersuchen und ggf. Rückschlüsse auf einen zu Grunde liegenden Wirkmechanismus zu ziehen. Für unsere Untersuchungen wurden zwei Fraktionen von Naphthalan verwendet: 1. eine durch Destillationsprozesse teilfraktionierte, bräunlich Subfraktion (NB) mit einem im Vergleich zur Ausgangssubstanz hohen Anteil an oligozyklischen gesättigten KW und einem sehr geringen Anteil an Aromaten und polaren KW. 2. eine farblose Subfraktion (NW), aus der die oligozyklischen gesättigten KW weitgehend entfernt wurden. Als Vergleich diente ein herkömmliches mineralisches Schweröl (MO). Die Effekte wurden an einer immortalisierten Zelllinie adulter humaner Keratinozyten (HaCaT) und an primären humanen Keratinozyten, die aus der Haut von Reduktionsplastiken isoliert wurden, untersucht, und zwar zeit- (24-72h) und konzentrationsabhängig (NB 0,001-1%; NW 0,001-1%, MO 0,01-10%). Die Untersuchung der Zellproliferation erfolgte mittels BrdU-ELISA, der Zytotoxizität mittels Trypanblau-Vitalfärbung/WST-1-Test und der Zelldifferenzierung mittels Durchflusszytometrie sowie mittels immunhistochemischer Färbung von Hautbiopsien von zuvor mit Naphthalan behandelten Patienten. Involucrin u. Cytokeratin 10/11 dienten als Zielantigene zur Untersuchung der Differenzierung. Für HaCaT- und primäre humane Keratinozyten ergab sich ein dosis- und zeitabhängiger Effekt von Naphthalan auf die Hemmung der Zellproliferation. Die max. Hemmung nach 48h betrug 89.82% (NB 1%) für HaCaT- und 71.62% (NB 1%) für primäre humane Keratinozyten (p􀂔0,0001). Bezüglich der Viabilität ergab sich im Trypanblau-Test lediglich nach prolongierter Inkubationsdauer von 48h unter NB 1% ein schwach signifikanter Effekt mit Nachweis von 14,68% avitalen HaCaT-Keratinozyten bzw. 9,54% avitalen primären humanen Keratinozyten. Hinsichtlich der Induktion der Zelldifferenzierung zeigten sich ebenfalls dosis- und zeitabhängige Effekte. Für den „frühen“ Differenzierungsmarker Cytokeratin 10/11 ergab sich für HaCaT-Keratinozyten ein max. Anstieg der Expression um 326,1% (NB 1%) und für primäre humane Keratinozyten um 264,18% (NB 1%) (p􀂔0,0002). Für den „späten“ Differenzierungsmarker Involucrin ergab sich erst nach einer prolongierten Inkubationsdauer von 48h ein signifikanter max. Anstieg der Expression um 4303,5% (NB 1%) für HaCaT-Keratinozyten und von 657,48% (NB 1%) für primäre humane Keratinozyten (p􀂔0,0002). Klinisch zeigte sich bei Patienten mit langjähriger therapierefraktärer Psoriasis nach 3-wöchiger topischer Naphthalan-Ganzkörpertherapie (1x/die 12min.) an einem Kollektiv von 5 bzw. 20 Patienten eine mittlere Reduktion des PASI-Scores von 20,2 auf 4,7 bzw. von 23,5 auf 8,3. Immunhistologisch zeigte sich eine Abnahme des Proliferationsindex von 29,3% auf 7,1%; die terminale Induktion der Keratinozytendifferenzierung konnte an der Zunahme der Cytokeratin 10/11- und Involucrin-Expression bestätigt werden. Histologisch zeigte sich eine weitgehende Normalisierung der durch Hyperproliferation, Akanthose, Hyper-/Parakeratose, Angiogenese, Vasodilatation und mononukleäre Zellinfiltration i.R. der Psoriasis gestörten Hautarchitektur. Zusammenfassend führt NB zu einer konzentrations- und zeitabhängigen hochsignifikanten Proliferationshemmung von HaCaT- und primären humanen Keratinozyten. Sie beruht nicht auf einem zytotoxischen Effekt auf die Zellen. Die Wirkung ist abhängig von den spezifischen Bestandteilen von NB, insbesondere den oligozyklischen gesättigten KW, i.e. Sterane und Hopane, die in NW und herkömmlichem Schweröl fast bzw. gar nicht vorkommen. NB führt weiterhin zu einer hochsignifikanten Zunahme der Cytokeratin 10/11- und Involucrin-Expression, zweier Markerproteine der terminalen Keratinozytendifferenzierung. Somit liegt die Ursache der Proliferationsinhibition und der klinischen Wirksamkeit von Naphthalan in der Induktion der terminalen Zelldifferenzierung. Aufgrund der einfachen topischen Anwendungsmöglichkeit, guter Verträglichkeit bei bisher nicht nachgewiesenen systemischen Nebenwirkungen, der erfolgreichen Anwendung auch in bisher therapierefraktären Fällen und aufgrund ökonomischer Betrachtungen erscheint Naphthalan als eine mögliche Therapieoption in der Behandlung der Psoriasis. Dies sollte in größeren, kontrollierten klinischen Studien überprüft werden. Gaschromatographische und massenspektrometrische Untersuchungen zeigten eine cluster-förmige Anhäufung von oligozyklischen KW aus der Gruppe der Sterane und Hopane. Der Vergleich mit strukturanalogen Substanzen (u.a. Vitamin D) legt einen Wirkmechanismus über eine MAP-Kinase-Kaskade vermittelte Modulation der Expression von Differenzierungsmarkern (Involucrin, Cytokeratin 10/11) über verschiedene Transkriptionsfaktoren, i.e. AP-1/-2, C/EBP, nahe. Hier sind zur genauen Klärung weitere Untersuchungen notwendig. Durch weitere Subfraktionierung könnte vielleicht das aktive Substrat einer möglicherweise neuen Substanzklasse isoliert werden.
Zusammenfassend stellen die neuen proximalen Anastomosenkonnektoren eine wichtige Bereicherung in der sich laufend weiterentwickelnden Therapie koronarer Herzerkrankungen dar. Allerdings kann aktuell der von uns untersuchte Nitinol-Konnektor die Anforderungen nicht erfüllen, die er gegenüber der handkonnektierten Anastomose haben sollte um sich als Standardverfahren zu etablieren. Die postoperativ ausgemessene mittlere Querschnittsfläche zeigte einen signifikant kleineren Wert als bei den handkonnektierten Bypässen. Dies könnte sich im mittel- bis langfristige Verlauf in einer höheren Bypassverschlußrate niederschlagen. Weiterhin sind bei einem relativ hohen Einkaufspreis dieses Konnektors die marktwirtschaftlichen Vorteile nicht ersichtlich. Die Kombination einer zeitsparenden nahtlosen Anastomose mit dem reduzierten traumatischen Gebiet im Bereich der Aorta stelle vor allem für kardiopulmonal deutlich vorerkrankte Patienten mit einem erhöhten Operationsrisiko eine verminderte intraoperative Belastung dar. Die Prüfung der Durchgängigkeit wurde in den meisten der bereits durchgeführten Studien über neuere distale oder proximale Anastomosematerialien mittels Koronarangiographie durchgeführt. Unter Berücksichtigung der proximalen Anastomose wurden zur Prüfung der Durchgängigkeit alternative Verfahren wie die Computertomographie untersucht [58] und für konventionelle Anastomosen bereits beschrieben. Durchgängigkeitskontrollen für distale Anastomosen, bei welchen Nitinol-Konnektoren verwendet wurden, wie es bei dem symmetrischen Aortenkonnektor an proximalen Anastomosen der Fall ist wurden bisher noch nicht durchgeführt und beschrieben. Zukünftige Studien müssen zeigen, wie sich mechanisch durchgeführte Bypassverbindungen im Vergleich zu konventionell genähten Verbindungen im Langzeitverlauf verhalten. Bisherige Studien haben gezeigt, daß Stenosen – ähnlich wie nach Einlagen von Stents in den Koronargefäße nach Ballondillatation – auftreten können. Diese Erkenntnisse geben Anlass zu großer Vorsicht bei der Verwendung und kurzfristigen Beurteilung von solchen Systemen. Die Beschichtung dieser Konnektoren mit Medikamenten, die solche Verengungen verhindern könnten, wird möglicherweise unumgänglich sein. Die Indikation dieser Konnektors ist kritisch zu stellen, weitere klinische Studien betreffend Offenheitsrate im Langzeitverlauf sind abzuwarten. Dank der Verkleinerung der Schnittwunde und der Verkürzung von komplexen Nahtvorgängen könnte die Belastung der Patienten erheblich gesenkt werden. Dies bedeutet eine Reduktion des Operationsrisikos und insgesamt eine Qualitätssteigerung.