Refine
Year of publication
- 2003 (908) (remove)
Document Type
- Article (308)
- Doctoral Thesis (168)
- Part of Periodical (148)
- Review (84)
- Part of a Book (46)
- Working Paper (41)
- Book (27)
- Report (27)
- Conference Proceeding (23)
- diplomthesis (17)
- Diploma Thesis (5)
- Preprint (5)
- Other (4)
- Magister's Thesis (2)
- magisterthesis (2)
- Lecture (1)
Language
- German (908) (remove)
Has Fulltext
- yes (908) (remove)
Keywords
- Bibliographie (38)
- Film (35)
- Deutschland (20)
- Frankfurt <Main> (20)
- Frankfurt <Main> / Universität (20)
- Deutsch (16)
- Rezension (16)
- Vormärz (16)
- Hofmannsthal, Hugo von (15)
- Literatur (13)
Institute
- Medizin (69)
- Rechtswissenschaft (59)
- Biochemie und Chemie (39)
- Extern (37)
- Biowissenschaften (30)
- Physik (27)
- Präsidium (22)
- Gesellschaftswissenschaften (19)
- Kulturwissenschaften (17)
- Geschichtswissenschaften (16)
"Die Jurisprudenz ist eine philologische Wissenschaft", wusste schon Friedrich Carl von Savigny. Die Zeit, in der sich juristische Auslegungslehre und literarische Philologie in enger wechselseitiger Beziehung entwickelten, liegt aber nun schon mehr als hundert Jahre zurück; seither haben sich Sprach- und Rechtswissenschaft so sehr verselbständigt, dass von einer Diskussion zwischen den Disziplinen kaum mehr die Rede sein kann. Der Geschichte der Rechtssprache ist es dabei ergangen wie allen anderen zwischen den Disziplinen liegenden Gegenständen: Weder die Juristen noch die Linguisten haben es gewagt, sie anzufassen. Den Offenbarungseid der Rechtsgeschichte leistet insoweit das Coingsche Handbuch, das der Gesetzessprache gerade einmal neuneinhalb Zeilen widmet und damit nur allzu deutlich macht, dass es sich in der Tat um ein "gänzlich unerforschtes Problem" handelt. ...
Diese Arbeit besteht aus zwei Teilen. Im ersten Teil wurde der Einfluss der anthropogen verursachten Erhöhung der atmosphärischen Konzentration von Treibhausgasen auf beobachtete Klimaelemente für die letzten 100 bis 120 Jahre untersucht. Die bodennahe Lufttemperatur wurde in unterschiedlicher räumlicher Auflösung und Abdeckung analysiert: Globales und hemisphärische Mittel, 84 flächengleiche Gebietsmittel globaler Abdeckung und 5°x5°-Gitterpunkte für die europäische Region, für die außerdem der auf Meeresniveau reduzierte Luftdruck und der Niederschlag untersucht wurden. Es wurde ein empirisch-statistischer Ansatz verwendet, der die Datenfelder zunächst in ihre räumlichen und zeitlichen Hauptstrukturen zerlegt (EOF-Zerlegung) und nachfolgend Regressionsbeziehungen zwischen den zeitlichen Hauptstrukturen (Zielgrößen) und den potenziellen Einflussgrößen mittels einer Selektionsstrategie (schrittweise Regression) findet, was zu einer Signaltrennung bezüglich der unterschiedlichen anthropogenen sowie natürlichen Einflüsse führt. Durch eine Abschätzung der Überzufälligkeit der Signal-Rausch-Verhältnisse wurden die Signifikanzen der einzelnen Signale berechnet. Als anthropogene Einflussgrößen wurden neben der logarithmierten Treibhausgaskonzentration (GHG) noch die Konzentration von troposphärischem Sulfat (SUL) aus anthropogenen Quellen verwendet. Die natürlichen Einflussgrößen umfassen Schwankungen der Solarkonstanten (SOL), Strahlungsantrieb explosiver Vulkanausbrüche (VUL), den Southern Oscillation Index (SOI, als Maß für das El-Nino-Phänomen) und den Nord-Atlantik-Oszillations-Index (NAO). In der globalen und den hemisphärischen Mitteltemperaturen dominiert das GHG-Signal. Es unterscheidet sich dabei hochsignifikant vom Zufall und von der natürlichen Variabilität und weist eine mittlere Signalamplitude von etwa 0,5 K auf. Das SUL-Signal ist hier, wie auch in den anderen Datensätzen, unplausibel, was an den fragwürdigen verwendeten Einflüssen liegt, welche die zugrundeliegenden Prozesse nicht hinreichend erfassen. In den räumlich differenzierten Datensätzen ist der zufallsartige Anteil in den Zeitreihen generell höher als in den gemittelten, was die Signifikanzen der GHG-Signale herabsetzt. In Europa ist vor allem im Winter die NAO dominant, was dort zusätzlich den Nachweis des GHG-Signals erschwert. Im europäischen Luftdruck und Niederschlag werden zwar ebenfalls GHG-Signale gefunden, die jedoch aufgrund der hohen Rauschkomponente nur sehr schwach signifikant sind. Des Weiteren ist die Wirkung der anthropogenen Erhöhung der Treibhausgase auf diese Klimaelemente indirekter als bei der Temperatur, wodurch die statistische Ähnlichkeitsbetrachtung hier eventuell auch natürlich verursachte Trendkomponenten irrtümlich als anthropogen selektiert. Im zweiten Teil der Arbeit wurden Witterungseinflüsse auf Ernteerträge in der BRD (West) von 1950-1998 untersucht. Die Ertragsdaten der 21 untersuchten Fruchtarten sind mit ausgeprägten Trends behaftet, die wahrscheinlich zum weitaus überwiegenden Teil durch gewollte Ertragssteigerungen verursacht worden sind. Diese sog. Züchtungsvarianz wurde daher mittels eines Gaußschen Tiefpassfilters von der interannulären Variabilität getrennt, welche Umwelteinflüssen zugeordnet wird. Hierdurch können keine Wirkungen langfristiger Klimatrends auf die Erträge untersucht werden. Als meteorologische Parameter wurden Bundeslandmittel der bodennahen Lufttemperatur und des Niederschlages in monatlicher Auflösung verwendet. Die quadrierten Klima- Zeitreihen sind ein Maß für extreme Anomalien. Durch Bildung von Produkten bzw. Quotienten aus Temperatur und Niederschlag erhält man Zeitreihen, welche die kombinierte Wirkung beider Klimaelemente beschreiben. Die Witterungsabhängigkeiten der Erträge wurden durch Korrelation und Regression (schrittweise Regression) mit den meteorologischen Parametern quantifiziert. Hierbei zeigte sich unter anderem ein negativer Einfluss feucht-warmer April-Anomalien auf Getreide-Erträge. Des Weiteren konnten Ernteeinbrüche verschiedener Fruchtarten mit extrem trocken-heißen Witterungsperioden im Sommer in Verbindung gebracht werden. Korrelationen und Regressionskoeffizienten von quadratischen Einflussreihen sind fast ausschließlich negativ. Somit wirken sich vor allem extreme Anomalien der meteorologischen Parameter ertragsmindernd aus. Mit Hilfe einer Monte-Carlo-Simulation konnte die Überzufälligkeit der durch die meteorologischen Parameter erklärten Varianzen an den Erträgen qualitativ bewertet werden. In etwa 40% der untersuchten Beziehungen ist ein Witterungsein deutlich sichtbar. Des Weiteren ist eine Untersuchung der Veränderungen (Intensität und Häufung) extremer Witterungen, vor allem sommerlicher Hitzeperioden, nötig, um den Klima-Impakt auf deutsche Ernteerträge besser abzuschätzen. Auch ist die Frage noch offen, ob langfristige anthropogene Klimaänderungen, wie sie hier detektiert worden sind, mit Änderungen des Extremwertverhaltens verknüpft sind.
Hinweis: Diese Datei enthält die wesentlichen Informationen des gedruckten Vorlesungsverzeichnisses. Gegenüber dem Druckwerk bestehen Unterschiede in der Seitenformatierung; der redaktionelle Teil und die Anzeigen sind nicht wiedergegeben. Beide können dem Druckwerk entnommen werden, das in der Universitätsbibliothek zur Verfügung steht.
Im Juni 2001, wenige Wochen vor der Tagung, die dieser Band dokumentiert, traten im deutschen Fernsehen zwei Frauen auf, deren Zusammentreffen bereits Wochen zuvor von den Medien intensiv vorbereitet und kommentiert worden war. Auf ein »TV-Duell« der besonderen Art hatte man die ZuschauerInnen eingestimmt, die ihr Interesse denn auch durch hohe Einschaltquoten bekundeten. Was machte die Begegnung von Alice Schwarzer und Verona Feldbusch in einer Talkshow zu einem solchen Medienereignis? Was stand in diesem Duell auf dem Spiel, in dem es offensichtlich nicht um die Entscheidung für oder gegen eine Regierung ging wie etwa in dem ebenfalls traditionell als Duell inszenierten amerikanischen Präsidentschaftswahlkampf oder in den nach diesem Vorbild auch in Deutschland erstmals veranstalteten TV-Duellen zwischen Gerhard Schröder und Edmund Stoiber vor der Bundestagswahl 2002?
Inuktitut : Affixliste
(2003)
Wer im Netz deutschsprachige Seiten besucht, erwartet nicht, dass er Mundart findet, sondern die Schriftsprache, Standardsprache. Schließlich ist das die überregionale Sprachform und sie stellt auch in der Schweiz die unmarkierte Variante dar. Doch in diesem Bereich finden sich eine ganze Menge Web-Seiten, deren Gestalter sich der Welt in Mundart kundtun, wie in Tabelle 1 dargestellt. Neben rund 12'100 Seiten aus der Schweiz,1 die sowohl gehabt als auch gewesen als Hinweis auf standard-deutsche Seiten aufweisen, finden sich auch rund 3400, die mit verschiedenen Kombinationen der Schreibvarianten von ghaa und gsy erscheinen. Sie können damit als Seiten in einer schweizerdeutschen Mundart verstanden werden. Der Anteil mundartlicher Seiten auf dem .ch-Domain kann also auf rund 22 % geschätzt werden.
Das System der lateinischen Nominalflexion wird als Beispiel eines komplexen morphologischen Systems untersucht, das alle Symptome des ‚flektierenden Syndroms’ zeigt (homonyme, synonyme und kumulative Exponenten, Genuseinteilung, unterschiedlich strukturierte Deklinationskassen, defektive Paradigmen, usw.; Plank 1991a). Im Mittelpunkt steht die Frage, wie die Form-Funktions-Beziehung in einem derartigen System ‚funktioniert’. Morphembasierte Analysen bieten kaum Einsichten in die ‚Logik’ fusionierender Flexionssysteme: Die Vielfalt der Oberflächenformen kann zwar auf verschiedene Weise reduziert werden (zugrundeliegende Formen, Allomorphie, Morphonologie; Householder 1947). Homonymien, Synonymien und Kumulationen und damit die Tatsache, daß sich das System nicht den Erwartungen einer morphemischen Perspektive fügt, bleiben jedoch bestehen: Der Gedanke, morphologische Marker als ‚Saussuresche Zeichen’ aufzufassen, erweist sich hier als nicht fruchtbar (Anderson 1992). Aber auch neuere regelbasierte Ansätze halten – trotz der Zulassung ‚indirekterer’ Beziehungen – an einer vergleichbaren Form-Inhalts-Janusköpfigkeit morphologischer Markierungen grundsätzlich fest, wenn sie morphologische Markierungen als ‚Ausbuchstabierungen’ von Merkmalen oder Merkmalsbündeln behandeln. Traditionelle Darstellungen im Rahmen einer Wort-und-Paradigma-Morphologie liefern zwar oft wenig mehr als eine Auflistung von Formen, weisen jedoch den Weg zu einer nicht-zeichenhaften Auffassung morphologischer Markierung, die Saussure (1976: 122) am Beispiel der deutschen Pluralbildung formuliert: „ce n’est pas ‘Gäste’ qui exprime le pluriel, mais l’opposition ‚Gast : Gäste’”. Danach läge die Funktion morphologischer Markierungen in derartigen Fällen nicht darin, als ‚Exponenten’ von ‚Inhalten’ zu fungieren, sondern darin Formen unterschiedlicher Funktion nur zu unterscheiden: Eine funktionale Distinktion wird zum Ausdruck gebracht, indem sie mit einer formalen Differenzierung korreliert wird. In Anwendung dieses Gedankens auf die lateinische Nominalflexion sollen (i) die auszudrückenden funktionalen Distinktionen, (ii) die zur formalen Differenzierung genutzten Ausdrucksmittel und (iii) die Art der Korrelation untersucht werden.
The status of quantifier raising in German and other languages where scope is fairly rigid is debated. The first part of this paper argues that quantifiers in German can undergo covert extraction out of coordinations, and therefore that quantifier raising is available in German. The second part argues that quantifier raising in German is constrained to never move one DP across another. This result might provide part of an explanation of scope rigidity in German.
Das Wogeo ist eine austronesische Sprache, die von etwa 1500 Menschen auf den Inseln Vokeo […] und Koil […] gesprochen wird. Da es sich beim Wogeo um eine bislang größtenteils unbeschriebene Sprache handelt, sind zum Verständnis der Ausführungen im Hauptteil dieser Arbeit sowie zur allgemeinen Orientierung einige einleitende Erklärungen nötig. Diese sind von unterschiedlicher Art: Zunächst wird die natürliche Umgebung der beiden Inseln, auf denen die Sprache gesprochen wird, kurz dargestellt. Dann werden die für das Verständnis der soziolinguistischen Lage der Sprache relevanten Aspekte beleuchtet. Zur Orientierung folgt ein kurzer Abriß der Position des Wogeo innerhalb der austronesischen Sprachfamilie. Schließlich leitet eine Darstellung des bisherigen Forschungsstandes über das Wogeo zum Hauptteil der Arbeit über.
Im Fokus dieser Magisterarbeit stehen Präpositionalphrasen (PP), deren Komplement eine unikale Komponente ist. Es handelt sich bei diesen Komplementen um Nomen, die außerhalb einer PP nicht vorkommen bzw. in anderen Umgebungen nicht die selbe Bedeutung haben. Um dieses Phänomen zu beschreiben wird eine Analyse innerhalb der Head-Driven Phrase Structure Grammar (HPSG) entwickelt. Grundkenntnisse über Struktur und Begrifflichkeiten der HPSG werden in dieser Arbeit vorausgesetzt, als Referenz siehe [PS94]. Die Gliederung gestaltet sich wie folgt: Zunächst werden die zu untersuchenden Daten im Detail dargestellt. Anschließend werden verschiedene Analysemöglichkeiten innerhalb der Theorie der HPSG in Betracht gezogen, nämlich Selektion, Konstruktion und Kollokation. Dabei muss festgestellt werden, dass die existierenden Ansätze den Daten nicht oder nur unbefriedigend gerecht werden können. Der Ansatz, der letztendlich verfolgt wird, besteht darin, den bereits existierenden Selektionsmechanismus über SPEC zu generalisieren. Dieses Vorgehen erlaubt dann der unikalen NP, die Präposition, mit welcher sie einhergeht, zu selegieren. Hierzu werden einige, jedoch vertretbare Änderungen in der HPSG-Architektur vorgenommen und es wird gezeigt, wie mit dem generalisierten Mechanismus die Daten behandelt werden können. Daran anschließend folgt eine Erweiterung des Phänomenbereichs auf Paarformeln. Ferner wird ein Einwand im Zusammenhang mit der Analyse des Komplements als NP bzw. DP diskutiert und zur weiteren Motivation des Ansatzes wird noch ein weiteres lokales Phänomen,die Distribution der Spur, mit der hier vorgestellten Herangehensweise modelliert. Darüberhinaus wird die Frage untersucht, ob man nicht auch PPs mit festen Verben geschickt analysieren kann. Dazu wird ein Weg, Lexeme zu selegieren, eingeführt und der entwickelte Mechanismus erweitert. Diese Erweiterung findet Anwendung bei der Modellierung der lokalen Distribution einer Partikel. Eine Zusammenfassung, sowie ein Ausblick auf weiterführende Fragestellungen schließen die Arbeit ab.
Zwei nahe verwandte, zugleich aber antinomische Begriffe markieren das Spannungsfeld, in dem vorliegender Beitrag einige Koordinaten aufzuweisen versucht: Geschichte und Geschichten. Ihr Verhältnis soll aus drei Perspektiven erörtert werden, zunächst hinsichtlich ihrer Rolle in der aktuellen Selbstaufklärung der Historie über ihren Status als "Textwissenschaft". Ein weiterer Abschnitt argumentiert historiographiegeschichtlich; er geht zurück auf die goethezeitliche Genese der Geschichte aus Geschichten. Ziel ist es, den poetikgeschichtlichen Ort der Geschichten, welche die Historie heute schreibt und denkt, zu umreißen. Wie "poetisch" und wie modern, lautet diese dritte Frage, sind die Texte der Geschichte - oder genauer: können sie sein?
Rezensionen zu: Stefan Müller-Doohm : Adorno. Eine Biographie. Suhrkamp Verlag, Frankfurt, 2003, ISBN 3-518-58378-6, 1056 Seiten, 24 Seiten Abbildungen, 36,90 Euro. Lorenz Jäger: Adorno. Eine politische Biographie. Deutsche Verlagsanstalt, München, 2003, ISBN 3-421-05493-2, 320 Seiten, 22,90 Euro. Detlev Claussen : Theodor W. Adorno. Ein letztes Genie, S. Fischer Verlag, Frankfurt, 2003, ISBN 3-10-010813-2, 352 Seiten, 22,90 Euro. Theodor W. Adorno Archiv (Hrsg.), Adorno-Bildmonographie, Suhrkamp Verlag, Frankfurt, 2003, Leinen, ISBN 3-518-58377-8, 309 Seiten, 39,90 Euro. Kartoniert, ISBN 3-518-58382-4, 309 Seiten, 24,90 Euro Reinhard Pabst (Hrsg.) : Adorno. Kindheit in Amorbach. Bilder und Erinnerungen. Mit einer biographischen Recherche. Insel Verlag, Frankfurt 2003, it 2923, ISBN 3-458-34623-6, 228 Seiten, 9,50 Euro. Christoph Gödde und Henri Lonitz (Hrsg.) : Theodor W. Adorno, Briefe an die Eltern. 1939–1951, Suhrkamp Verlag, Frankfurt, 2003, ISBN 3-518-58376-X, 576 Seiten, 8 Seiten Abbildungen, 39,90 Euro. Wolfram Schütte (Hrsg.) : Adorno in Frankfurt. Ein Kaleidoskop aus Texten und Bildern, Suhrkamp Verlag, Frankfurt, 2003, ISBN 3-518-58379-4, etwa 250 Seiten, zirka 24,90 Euro. Wolfgang Schopf (Hrsg.) : »So müßte ich ein Engel und kein Autor sein« Adorno und seine Frankfurter Verleger. Der Briefwechsel mit Peter Suhrkamp und Siegfried Unseld. Suhrkamp Verlag 2003, ISBN 3-518-58375-1, 760 Seiten, zirka 39,90 Euro. Roger Behrens : Adorno-Abc, Verlag Reclam Leipzig, Leipzig, 2003, ISBN 3-379-20064-6, 248 Seiten, 11,90 Euro.
Stetig wächst das Bewusstsein, dass Spinnen schützenswerte Lebewesen mit einer höchst interessanten Lebensweise sind und dass sie hohe Bedeutung im Naturhaushalt besitzen. Sie werden nicht mehr so häufig wie früher als lästiges, ekeliges und totzuschlagendes "Ungeziefer" empfunden. Nicht zuletzt die faszinierenden Darstellungen von KULLMANN & STERN (1981) haben das Interesse an dieser Tiergruppe geweckt. Darüber hinaus steht heute mit BELLMANN (1997) ein Werk mit hervorragenden Abbildungen und weiteren wichtigen Grundinformationen zur Verfügung, in dem sich auch Nichtfachleute rasch und gründlich über Spinnen informieren können. In Baden-Württemberg kommen nach dem aktuellen Kenntnisstand 738 Spinnenarten vor. Bedingt durch seine Lage im Südwesten Deutschlands ist hier der Anteil der Arten mit Hauptverbreitung im Süden Europas im Ländervergleich besonders groß. Arten mit Hauptverbreitung im Osten Europas finden sich ebenfalls. Im Schwarzwald und auf der Schwäbischen Alb sind Arten des Gebirges zu Hause. Viele Menschen halten Spinnen irrtümlich für Insekten. Spinnen bilden jedoch zusammen mit Skorpionen, Weberknechten, Milben und anderen Tierordnungen, wie zum Beispiel den Pseudoskorpionen, eine eigene Tierklasse.
Zytotoxische T-Lymphozyten und natürliche Killer-Zellen sind hochspezialisierte Zellen des Immunsystems, die durch Sekretion der Serin-Protease Granzym B (GrB) und des membranolytischen Proteins Perforin Virusinfizierte, körperfremde oder auch Tumorzellen durch Induktion von apoptotischem Zelltod eliminieren. Während Perforin für die Aufnahme von Granzym B in Zielzellen verantwortlich ist, wirkt Granzym B im Zytosol als aktive Effektor-Caspase und spaltet Caspase-3 und andere zelluläre Caspasen sowie verschiedene zentrale Caspasen-Substrate. Granzym B aktiviert damit wie Caspase-3 Apoptose-Signalwege am unteren Effektorende und umgeht daher die meisten Kontrollmechanismen, die in Tumorzellen häufig dereguliert sind und zur Resistenz gegenüber klassischer Chemo- und Strahlentherapie führen. Beide Proteasen stellen damit vielversprechende Enzymaktivitäten für die Verwendung als Effektorfunktion in Tumorzell-spezifischen zytotoxischen Fusionsproteinen dar. In der vorliegenden Arbeit wurden rekombinante Formen von Granzym B und Caspase-3 hergestellt und daraufhin untersucht, ob beide Enzyme mit dem ErbB2-spezifischen "single chain" Antikörper scFv (FRP5) als Tumorzell-spezifischer Zellbindungsdomäne fusioniert werden können, ohne dadurch die Faltung der Proteasen zu verhindern, um eine gezielte Applikation in Tumorzellen und Eliminierung der Zellen durch Apoptose zu ermöglichen. Die Herstellung von Granzym B als rekombinantes Protein im präparativen Maßstab war bisher nicht in der Literatur beschrieben worden. In dieser Arbeit konnte humanes aktives Granzym B in der Hefe Pichia pastoris mit Ausbeuten von 1 bis 4 mg/l Kultur exprimiert werden. Zum Nachweis der enzymatischen Aktivität wurde ein in vitro Assays etabliert, bei dem rekombinante Procaspase-3 als Substrat für Granzym B eingesetzt wurde. Nach intrazellulärer Applikation mit einem synthetischen Transduktionsreagens induziert das gereinigte Protein Apoptose in HeLa Zellen. Wie für endogenes Granzym B in der Literatur beschrieben, wird rekombinantes Granzym B aus Pichia pastoris sehr schnell in HeLa Zellen aufgenommen, lokalisiert aber in vesikulären Strukturen, in denen die enzymatische Aktivität eingeschlossen ist. Aus verschiedenen Expressionskulturen wurden jedoch zwei unterschiedliche Proteine isoliert, die bei vergleichbarer molarer Masse und enzymatischer Aktivität in Zellen aufgenommen wurden bzw. nicht internalisierten, was darauf hinweist, daß eine posttranslationale Modifikation der Protease für die Bindung von Granzym B an Zielzellen verantwortlich ist. Während für die Freisetzung von Granzym B aus den Membranvesikeln und Induktion von Apoptose Perforin erforderlich ist, konnte in dieser Arbeit beobachtet werden, daß Kulturen verschiedener etablierter Tumorzellinien nach Behandlung mit Granzym B auch in Abwesenheit von Perforin-Aktivität auffallende morphologische Veränderungen zeigen, die mit dem partiellen Verlust des Kontakts zum Kultursubstrat verbunden sind. Dies deutet darauf hin, daß Granzym B auch extrazellulär auf Zellen einwirkt, indem es Komponenten der extrazellulären Matrix spaltet, und so indirekt Apoptose durch Anoikis induziert. Dieser Effekt ist jedoch für eine mögliche therapeutische Verwendung von Granzym B nicht von Bedeutung, da relativ hohe Proteinkonzentrationen erforderlich sind. Um Granzym B selektiv gegen Tumorzellen zu richten, wurden verschiedene Fusionen mit dem "single chain" Antikörper scFv(FRP5) sowie einer bakteriellen Translokationsdomäne von Exotoxin A oder Diphtherietoxin konstruiert und in E. coli oder Pichia pastoris exprimiert. Während verschiedene in E. coli hergestellte Fusionsproteine nicht enzymatisch aktiv waren, konnte im Überstand einer Pichia Expressionskultur volle-Länge GrB-scFv(FRP5) sowie Granzym B Aktivität nachgewiesen werden. Die Expressionsrate war allerdings so gering, daß eine präparative Isolierung nicht möglich war. Es konnte damit aber gezeigt werden, daß die Fusion heterologer Proteindomänen an den C-Terminus von Granzym B unter Erhalt der enzymatischen Aktivität prinzipiell möglich ist, während zusätzliche Peptidsequenzen am N-Terminus der Protease zumindest partiell zum Verlust der enzymatischen Aktivität führen. Aktive Caspase-3 besteht aus zwei Peptiden p12 und p17, die im aktiven Enzym ein Tetramer (p12 p17)2 bilden. Um Caspase-3 selektiv in Tumorzellen zu applizieren, wurden ebenfalls Möglichkeiten untersucht, eine der beiden Untereinheiten mit dem scFv(FRP5) als Tumorzell-spezifische Zellbindungsdomäne zu fusionieren. Während aus den beiden separat in E. coli exprimierten p12 und p17 Untereinheiten durch gemeinsame Rückfaltung enzymatisch aktive Caspase-3 rekonstituiert werden konnte, führte die Fusion heterologer Proteindomänen an den N- und C-Terminus der p12 Untereinheit sowie an den C-Terminus der p17 Untereinheit zum Verlust der enzymatischen Aktivität, wahrscheinlich aufgrund der Verhinderung der korrekten Faltung des Protease-Tetramers. Dagegen konnte an den N-Terminus der p17 Untereinheit eine bakterielle Translokationsdomäne unter Erhalt der enzymatischen Aktivität fusioniert werden; ein entsprechendes Konstrukt, das zusätzlich den "single chain" Antikörper scFv(FRP5) enthielt, wurde aber in E. coli vollständig degradiert. Nachdem die Idee, Granzym B oder aktive Caspase-3 zur selektiven Induktion von Apoptose in Tumorzellen für therapeutische Zwecke einzusetzen, bereits seit längerem diskutiert wird, es jedoch bisher praktisch nicht möglich war, entsprechende rekombinante Fusionsproteine in funktionaler Form herzustellen, liefern die Ergebnisse dieser Arbeit wichtige grundlegende Informationen, wie die weitere Entwicklung solcher Moleküle erfolgreich durchgeführt werden könnte.
Wissen unterscheidet sich in dem Maß vom Glauben, wie sich die Erfahrung als wiederholbar herausstellt. Zwar ist das Wissen keineswegs an eine bestimmte Form der Gesellschaft gebunden. Gleichwohl zeichnet sich die ‘geschichtliche’ Wissensgesellschaft gegenüber der ‘vorgeschichtlichen’ durch die systematische Erzeugung, die Produktion von Wissen aus. Demgemäß gründet die Wissenschaft auf Wiederholbarkeit (Wiederholbarkeit der Beobachtung, Historizität der Erfahrung). Diese stellt das ‘mechanische Paradigma’, das auf Redundanz zielende Prinzip der Erkenntnis dar. Eine grundlegende Voraussetzung für die Wiederholbarkeit ist die Endlichkeit. Die Weisheit, daß niemand zweimal in denselben Fluß steigt, verkündet zunächst nur ein göttliches Gesetz. Der Beweis hierfür, den die Wissenschaft verlangt, um ihn in ein sei es historisches, sei es ein Naturgesetz umformulieren zu können, scheint nachgerade paradox: Er fordert die Reproduzierbarkeit des Einmaligen. Tatsächlich gründet aber jede vernünftige Geschichte auf Wiederholung. Erfahrung muß Anfang und Ende haben, um überhaupt als solche nach- und weitererzählbar zu sein. Das Erfordernis der Endlichkeit führt zwangsläufig zur progressiven dialektischen Ausdifferenzierung der Erfahrungen. An diesem Prozeß der Individuation, der Suche nach dem kleinsten Unteilbaren sind die Medien maßgeblich beteiligt: Als Mittel der Unterscheidung unterstützen sie einerseits die analytische Zergliederung der ursprünglichen Zusammenhänge in begrifflich faßbare, wirklichkeitsgetreu abbildbare Elemente. Dabei tragen sie andererseits als Dispositive der Kunst zur synthetischen Wiederherstellung von ‘Wirklichkeitskonstruktionen’ bei. Wie der Läufer eines Reißverschlusses am einen Ende dasjenige verschränkt, was er am anderen trennt, so funktioniert auch das Medium: ob als Substanz, Schrift oder Sprache bildet es den Hintergrund, das Programm der Indifferenz oder den common sense, ohne die das Unterschiedliche nur als sinnlos und verloren und nicht als Teil eines Ganzes erschiene. Hier liegt jedoch auch das Dilemma des Mediums. Es trägt zwar selbst zur Abschließbarkeit (des Diskurses) bzw. zur Vergegenständlichung (der Wahrnehmung) bei, entzieht sich ihnen aber selbst. Es ist als Vermittelndes, onto-philosophisch gesprochen, überhaupt kein ‘Seiendes’, sondern ein ‘Werdendes’, und dort, wo es greifbar zu werden scheint, nämlich in der Gegenständlichkeit dessen, was es vermittelt, auch stets nur ein vorübergehender Zustand. Konkret gesagt: Wie dieses Buch einerseits endlich ist, stellt es andererseits nur einen Zustand der Schrift dar. Und jeder Versuch, diese Schrift zu beschreiben, führt zu einer anderen Schrift. Die Wahrheit des ‘mechanischen’ Wissens liegt nur scheinbar in der Erklärung des in Frage stehenden Gegenstands. In Wirklichkeit korrespondiert sie mit dessen erschöpfender Beschreibung. Das ‘technische’ Medium ist das Mittel der Beschreibung. Als solches nimmt es die Stellung eines Differenzials ein, das als Schnittstelle im Zwiespalt zwischen dem Einen und dem Allen steht. Die Wahrheit des Gegenstands hängt von den Möglichkeiten des Mediums ab, das Bestimmte - etwa im Rahmen des Diskurses, der Begriffsbildung oder irgendeiner anderen Form der objektiven Darstellung - gegenüber dem Unbestimmten herauszuarbeiten und zu behaupten. Die Wahrheit des Mediums liegt im Medium selbst: Die Schrift läßt sich nicht beschreiben, ohne sie zu verändern. Jede neue Schrift geht aus der alten als Fort-Schrift hervor. Jedes neue Medium entspringt gleichsam der Logik des alten, ohne deshalb jedoch in ihr deshalb schon beschlossen zu sein. Sobald die Tinte getrocknet, das Buch gedruckt, der Abspann gelaufen ist, tritt die Lückenhaftigkeit der Darstellung zutage, die eine Korrektur erfordert, und damit letztlich die Unzulänglichkeit des Mediums, das nach einem neuen verlangt. Wie jeder folgende Satz eine Richtigstellung des vorhergehenden beinhaltet, so folgt umgekehrt aus dem Ungenügen am Authentischen, Identischen des alten das Neue Medium.
Ziel dieser Arbeit war es festzustellen, inwiefern im Rahmen der Diagnostik des Gastroösophagealen Refluxes mit pulmonaler Relevanz anhand des einen, oder anderen Diagnostik-Verfahrens Vorhersagen über die Ergebnisse der jeweils anderen diagnostischen Möglichkeiten gemacht werden können. Bei den hierbei üblichen Untersuchungsmethoden handelt sich es um die pH-Metrie, die BAL, sowie die oMDP. So sollten insbesondere folgende Fragen geklärt werden: Ist die 2-Punkt pH-Metrie der oMDP in der Diagnostik des pulmonal relevanten GÖR bei Kindern überlegen? Kann die pH-Metrie eine chronische Aspiration erkennen? Kann die 2-Punkt pH-Metrie eine Aussage über die pulmonale Relevanz des GÖR machen? Zur Untersuchung wurden Daten verwandt, die von Patienten im Alter von 3 Monaten bis 16 Jahren stammten, welche in den Jahren 1992 bis 1999 in der Universitätskinderklinik Frankfurt am Main wegen einer chronischen Bronchitis untersucht wurden. Bei allen Patienten wurde im Vorfeld eine Cystische Fibrose (Schweißtest, Pilocarpin-Iontophorese), eine Fremdkörperaspiration, eine Ciliendysfunktion (Cilienbeweglichkeit und -frequenz im Phasenkontrastmikroskop), ein humoraler und zellulärer Immundefekt, sowie ein exogenes Asthma bronchiale (Atopie) als Ursache für die Symptomatik ausgeschlossen. So konnte ein Kollektiv von 817 Patienten zusammengestellt werden. Aus dieser Gruppe wurden in einem ersten Schritt die Patienten ausgewählt, welche sowohl einer 2-Punkt pH-Metrie, als auch einer BAL unterzogen wurden, was zu einer Untergruppe von 400 Kindern führte. Ebenso wurde für die Untersuchung auf eine Beziehung zwischen 2-Punkt pH-Metrie und oMDP (n=511) und zwischen BAL und oMDP (n=358) verfahren. In einem weiteren Schritt wurden die Untersuchungsergebnisse in Korrelation zum Alter der untersuchten Patienten gesetzt, um so eine mögliche Altersabhängigkeit der Untersuchungsergebnisse nachweisen, oder ausschließen zu können. Die Arbeit erbrachte folgende Ergebnisse: 1. Es besteht keine signifikante Korrelation der Ergebnisse der LLAM aus der BAL mit den Parametern der 2-Punkt pH-Metrie. Dies gilt auch für die Voraussetzung, daß nur eindeutig pathologische Ergebnisse in einer der beiden Untersuchungen, oder in beiden Untersuchungen gleichzeitig bewertet wurden. 2. Die Parameter der 2-Punkt pH-Metrie korrelieren untereinander hochsignifikant (p=0.01). 3. Es besteht keine signifikante Korrelation der Ergebnisse der oMDP mit den Parametern der 2-Punkt pH-Metrie. Ausnahme: Die Altersgruppe der 3 Monate bis 2-Jährigen (positive Korrelation, p=0.05). 4. Das Alter korreliert signifikant negativ mit der Anzahl der Refluxe, sowie der Fraktionszeit (p=0.01) am oMP in der 2-Punkt pH-Metrie. Weiter korreliert es signifikant negativ mit der Anzahl der Refluxe > 5 min. am oMP (p=0.05). 5. Das Alter korreliert hochsignifikant positiv mit dem Anteil der fettspeichernden AM in der BAL (p=0.01). Unsere Ergebnisse zeigen also, dass sich kein Zusammenhang zwischen den Ergebnissen der pH-Metrie und jenen der BAL herstellen lässt. Dies gilt ebenso für die erhobenen Daten in ihrer Gesamtheit, sowie unter den oben genannten Ausschluskriterien. Ebenso konnte kein Zusammenhang zwischen den Ergebnissen der pH-Metrie und der oMDP hergestellt werden. Auch der Vergleich zwischen BAL und oMDP ergab keinen signifikanten Zusammenhang. Die signifikante Altersabhängigkeit der Anzahl der Refluxe am oMP, sowie der Fraktionszeit (beide korrelieren negativ mit dem Alter), sowie die hochsignifikante positive Korrelation der LLAM (Bewertungskriterium der BAL) mit dem Alter werfen Fragen auf. Vorausgesetzt die Bestimmung der LLAM ist eine ausreichend sensitive Methode zur Diagnostik einer chronischen Aspiration, so wäre eine gleichsinnige Entwicklung der 2-Punkt pH-Metrie-Parameter mit dem Anteil der LLAM mit dem Alter zu erwarten. Dies wird in unserer Untersuchung jedoch nicht nachgewiesen. Es gilt also, in weiteren Untersuchungen zu klären, inwiefern es sich hierbei um physiologische Veränderungen mit zunehmendem Alter handelt, bzw. wie sich die Ergebnisse in einer asymptomatischen Population verhalten. Daraus folgt also, daß die pH-Metrie weder Aussagen über das zu erwartende Ergebnis einer BAL, noch der oMDP machen kann, oder umgekehrt. Jede der Untersuchungen muss unter ihrer ganz spezifischen Fragestellung angewandt werden. So bleibt, wie in den wesentlichen Arbeiten der Literatur gefordert (Dobhan, Castell 1993; Sondheimer 2000,) die pH-Metrie der Goldstandard zur Diagnostik des GÖR. Die oMDP ist ein Mittel zur Diagnostik von Motilitätsstörungen, oder Hernien im Bereich des Ösophagus und die BAL sollte reevaluiert werden, hinsichtlich ihrer Aussagekraft in der Diagnostik der chronischen Aspiration. Die eingangs gestellten Fragen müssen also wie folgt beantwortet werden: Die 2-Punkt pH-Metrie ist der oMDP in der Diagnostik des pulmonal relevanten GÖR nur insofern überlegen, als daß sie gastro-ösophageale Refluxe über einen längeren Zeitraum dokumentieren kann. Sie ist nicht in der Lage eine Aspiration zu erkennen und kann somit keine Aussage über die pulmonale Relevanz des GÖR machen.
Hintergrund und Fragestellung: Der FPDL mit einer Wellenlänge von 585 nm hat sich in der Dermatologie für die Behandlung gutartiger Gefäßerkrankungen bewährt. Erfahrungen bei größeren Patientenkollektiven findet man hingegen nur selten, über die Verwendung einer Wellenlänge von 588 nm wurde bisher nicht berichtet. Gütegeschaltete Laser werden in der Dermatologie erfolgreich für die Behandlung von Erkrankungen mit Beteiligung pigmenthaltiger Zellen sowie Farb- und Schmutzpartikel in Epidermis und Dermis eingesetzt. In der Literatur dominieren dabei Berichte über den gütegeschalteten Rubinlaser, während Erfahrungsberichte zum q-sw Nd:YAG-Laser selten zu finden sind. Ziel der Untersuchung: Um das Indikationsspektrum sowie die Erfolgs- und Nebenwirkungsraten eines FPDL sowie eines q-sw Nd:YAG-Lasers unter klinischen Alltagsbedingungen zu definieren, wurden die Behandlungsdaten der zwischen November 1995 und Dezember 2000 in der Universitäts- Hautklinik Frankfurt am Main behandelten Patienten ausgewertet. Material und Methode: Die prospektiv in einer Datenbank erfassten Patientendaten und Behandlungsparameter, die Karteikarten der im genannten Zeitraum behandelten Patienten sowie das Fotoarchiv des Zentrums der Dermatologie wurden retrospektiv ausgewertet. Ergebnisse: 1. Blitzlampen-gepumpter gepulster Farbstofflaser Im genannten Zeitraum wurden 345 Patienten in insgesamt 2030 Sitzungen mit einem FPDL mit 588 nm Wellenlänge behandelt. Die häufigsten Indikationen betrafen Nävus flammeus (52 % aller Behandlungen) und Hämangiome (23 % aller Behandlungen). Fast 75 Prozent der Behandlungen konnten erfolgreich abgeschlossen werden, die meisten in weniger als 7 Sitzungen. Hierfür wurden in der Regel Fluences von 6 J/cm² verwendet, bei Hämangiomen auch höhere Dosen bis 8 J/cm². Energiedichten über 8 J/cm² kamen nur bei einzelnen Patienten zum Einsatz. Außer der obligaten Purpura traten andere Nebenwirkungen selten auf. In weniger als 16 Prozent der Behandlungen wurden Nebenwirkungen dokumentiert. Die häufigsten betrafen Krustenbildung und Hyperpigmentierung. Diese traten in 7 bzw. 6 Prozent der Behandlungen auf. Keine Nebenwirkung war dauerhaft. 2. Gütegeschalteter Nd:YAG-Laser Mit dem q-sw Nd:YAG-Laser (1064 und 532 nm Wellenlänge) wurden 247 Patienten in insgesamt 1529 Sitzungen behandelt. Häufigste Indikationen waren Schmuck- und Schmutztätowierungen (77 % aller Behandlungen) sowie Lentigines (8 % aller Behandlungen). Mehr als drei Viertel der Behandlungen konnten erfolgreich abgeschlossen werden, die meisten nach maximal 7 Behandlungen. Bei Verwendung von 1064 nm Wellenlänge wurden in der Regel Fluences von 6 bis 8 J/cm² verwendet, bei 532 nm Wellenlänge Fluences von 2 bis 3 J/cm². Neben den obligat auftretenden Nebenwirkungen, vor allem Krustenbildung, trat Urticaria factitia in fast 12 Prozent der Behandlungen als häufigste Nebenwirkung auf. Weiter wurden Blutungen (8 % aller Behandlungen) und Hyperpigmentierungen (6 % aller Behandlungen) beobachtet. Alle Nebenwirkungen waren temporärer Natur. In über 60 Prozent der Behandlungen wurden keine Nebenwirkungen dokumentiert. Schlussfolgerungen: Der FPDL mit 588 nm Wellenlänge zeigt keine Nachteile gegenüber den häufig verwendeten 585 nm, in einigen Fällen sogar eher Vorteile. Der selten in der Literatur besprochene q-sw Nd:YAG-Laser stellt ein wichtiges Instrument in der Behandlung pigmentierter Dermatosen und wegen der Möglichkeit der Frequenzverdopplung ein vielseitiges Behandlungsgerät zur Behandlung verschiedener Tätowierungsfarben dar. Unsere Untersuchungen zeigen, dass unter klinischen Alltagsbedingungen sowohl der blitzlampen-gepumpte gepulste Farbstofflaser mit einer Wellenlänge von 588 nm als auch der gütegeschaltete Nd:YAG-Laser (1064 und 532 nm Wellenlänge) effektive und sichere Therapiemöglichkeiten darstellen. Bei Kenntnis der physikalischen Wirkprinzipien lassen sich neben den bekannten Erkrankungen auch seltenere Indikationen mit vorhersagbaren Ergebnissen und geringem Nebenwirkungsrisiko behandeln.
Einleitung: Das Auftreten von Restenosen ist bei ca. 50% eine relevante Spätkomplikation bei der chirurgischen oder interventionellen Therapie von Gefäßverengungen und Gefäßverschlüssen. Intimahyperplasie (IH) und ungünstiges Gefäßremodeling (GR) stellen dabei wichtige pathogenetische Mechanismen dar, die von multiplen Faktoren beeinflusst werden. Bis heute ist es nicht gelungen, eine adäquate Therapie zur Verhinderung von Restenosen zu finden. Innerhalb der ersten 72 Stunden nach Gefäßwandverletzung wird die Entstehung der IH maßgeblich durch das Mitogen basic Fibroblast Growth Factor (bFGF) gesteuert. Photodynamische Therapie (PDT), ein Verfahren bei dem durch Lichtbestrahlung eines photosensiblen Farbstoffs Cytotoxizität und Veränderungen der extrazellulären Matrix (ECM) induziert werden, führt zur Hemmung von IH durch Inhibierung von glatten Muskelzellen (SMC) und zu einer Inaktivierung matrix-assoziierten bFGFs in-vitro. Ziel dieser Studie ist es, die Proliferation von SMC und ihre bFGF Proteinexpression nach PDT von isolierter, endothelialer ECM in-vitro zu untersuchen, um so Rückschlüsse auf den Mechanismus des Remodeling nach PDT zu ziehen. Material und Methohen: Nach einer Standardtechnik wurde in 6-Well Zellkulturplatten endotheliale ECM hergestellt. Die ECM wurde mit dem Photosensitizer Chloraluminium sulfoniertes Phthalocyanin (CASPc) inkubiert und mit rotem Licht aus einem Diodenlaser (100 J/cm², 100 mW/cm², l=675 nm) bestrahlt. Anschließend wurden SMC auf der ECM kultiviert. Nach 24, 48 bzw. 72 Stunden wurde die Zellproliferation durchflußzytometrisch festgestellt und die intrazelluläre Proteinexpression mit einem bFGF-ELISA bestimmt. Zum Vergleich wurde der Versuch mit unbehandelter ECM (KO), nur Laser-behandelter ECM (LO), nur CASPc-behandelter ECM sowie mit Zellkulturplatten ohne Matrix (PL) durchgeführt. Die Ergebnisse sind als Mittelwert ± SD in Bezug zu unbehandelter ECM (KO) angegeben. Der statistische Vergleich zwischen den einzelnen Gruppen erfolgte mit einem univariaten ANOVA. Ergebnisse: Die Proliferation der SMC war bei PDT und PL gegenüber KO zu allen Zeitpunkten signifikant gehemmt. LO und DT zeigten keine Unterschiede im Proliferationsverhalten im Vergleich zu KO. Die Konzentration von zell-assoziiertem bFGF war nach 24 Stunden bei PDT gegenüber KO signifikant erhöht. Nach 48 und 72 Stunden zeigte lediglich PL gegenüber KO noch eine signifikant erhöhte bFGF-Proteinexpression. Bei LO war im Vergleich zu KO kein Unterschied feststellbar, während bei DT nach 24 Stunden eine signifikante Erhöhung der bFGF-Proteinexpression vorhanden war. Schlussfolgerung: PDT von isolierter ECM führt zu einer Proliferationshemmung von SMC in-vitro. Dass die Proliferation der SMC nach PDT abnimmt ist für die Repopulation der Gefäßwand in-vivo günstig, scheint PDT doch die IH-verursachenden SMC zu hemmen. Die intrazelluläre bFGF-Proteinmenge ist bei PDT gegenüber KO vorübergehend erhöht. Dies könnte für eine Hemmung des Proteinausschlusses und der autokrinen Stimulation sprechen. Dass der intrazelluläre bFGF-Gehalt jedoch lediglich kurz nach PDT beeinflusst wurde, lässt vermuten, dass intrazelluläres bFGF für die anhaltende Proliferationsveränderungen der SMC nur eine untergeordnete Rolle spielt.
Degenerative Veränderungen im Röntgenbild nach totaler Meniskektomie sind zahlreich beschrieben worden [19;26;39;89;106]. Aber auch nach der partiellen Meniskektomie wird über eine progressive Arthroseentwicklung berichtet [13;27;39;86]. In der vorliegenden retrospektiven Studie werden die Langzeitergebnisse der arthroskopischen Meniskusrefixation im Kniegelenk unter spezieller Betrachtung der frühzeitigen Arthroseentwicklung den Ergebnissen nach partieller Meniskusresektion gegenübergestellt. Im Zeitraum von 1984-96 wurden 81 Patienten arthroskopisch am Innenmeniskus (IM) operiert. 42 Patienten erhielten eine Naht in Inside-out Technik, bei 39 Patienten, mit gleichen präoperativen Kriterien (Alter, Nachbeobachtungszeitraum, Arthrosegrad) wurde der IM partiell reserziert. Der durchschnittliche Nachbeobachtungszeitraum (NUZ) betrug 6,5 Jahre. 35 Patienten wurden mittelfristig in 3,4 J. (NUZ 2-5J.) und 46 Patienten längerfristig in 8,8 J. (NUZ >5J.) nachuntersucht. Aufgrund des zu erwartenden höheren präoperativen Arthrosegrades bei Pat. über 30J., wurden diese getrennt beurteilt. Alle Kniegelenke waren klinisch stabil. Die Evaluation erfolgte mit dem Lysholm, dem Tegner und dem Fairbank Score (Fb). Die Analyse nach Fairbank zeigte, daß bei mittelfristigem NUZ bei allen Patienten nur geringe radiologische Veränderungen auftreten. Längerfristig sind arthrotische Erscheinungen im KG nach partieller Resektion eindeutig häufiger: 50% der Patienten < 30 J. und 63% der älteren Patienten (>=30 J.) zeigen eine Verschlechterung im Fb Score. Nach IM-Refixation traten degenerative Veränderungen bei 13% der Patienten < 30 J. und bei 20% der älteren Patienten (>=30 J.) auf. Ihr ursprüngliches Tegneraktivitätsniveau erlangten im Langzeitverlauf 96,2% der Patienten der Refixationsgruppe und 50% der Patienten der Resektionsgruppe wieder. Im Lysholm Score erzielten die Patienten der Refixationsgruppe 91,5 Punkte, die Patienten der Resektionsgruppe 88,4 Punkte im NUZ. Die Ergebnisse zeigen, daß nach Meniskusrefixation bei geeigneter Rupturform im Langzeitverlauf deutlich geringere degenerative Veränderungen auftreten und sie somit der partiellen Resektion überlegen ist und trotz aufwendigerer Operation und Rehabilitation die Methode der Wahl sein sollte.
Überprüfung der psychometrischen Parameter von CBCL 1 1/2-5 und C-TRF an einer deutschen Stichprobe
(2003)
Der Elternfragebogen (CBCL 11/2-5) und der Erzieherfragebogen (C-TRF) über das Verhalten von Klein- und Vorschulkindern sind die ersten deutschen Fassungen der von Achenbach 1997 modifizierten CBCL/2-3 (Achenbach, 1992), die von der Arbeitsgruppe Deutsche Child Behavior Checklist 1993 bereits übersetzt wurde. Beide Verfahren dienen der Erfassung von psychischen und emotionalen Auffälligkeiten von Klein- und Vorschulkindern im Alter von 11/ 2 bis 5 Jahren. Das Anliegen der vorliegenden Arbeit besteht zum einen in der Überprüfung der psychometrischen Güte der deutschen Version, zum anderen der Anwendbarkeit der Instrumente im deutschen Sprachraum. Zur Überprüfung der CBCL 1 1/2-5 diente eine gemischte Stichprobe von insgesamt 246 Kindern. 175 Bögen der Feldstichprobe wurden von Eltern in einer Kinderarztpraxis und verschiedenen Kindergärten ausgefüllt, 71 Beurteilungen in verschiedenen klinischen Einrichtungen, in denen Eltern ihre Kinder wegen Verhaltensauffälligkeiten vorgestellt haben. Die Stichprobe zur Überprüfung der C-TRF umfasst 176 Erzieherbeurteilungen aus verschiedenen Kindergärten und -krippen in und um Frankfurt/Main. 62 Kinder wurden gleichzeitig von Eltern und Erzieherin beurteilt. Bis auf wenige Ausnahmen zeigen die Reliabilitätsanalysen von CBCL 1 1/2-5, sowie C-TRF der hier vorliegenden deutschen Version gute interne Konsistenzen, die vergleichbare Werte mit der amerikanischen Originalstichprobe aufweisen. Lediglich die Skalen "Emotional Reaktiv" und "Körperliche Beschwerden" sind eher niedrig und sollten deshalb mit Vorsicht in die Einzelbewertung einfließen. Die gute Validität der CBCL 1 1/2-5 bestätigt sich durch die hochsignifikante Diskriminination der einzelnen Skalenrohwerte zwischen Feld- und Klinikstichprobe. Auch die Aufteilung der Klinikstichprobe in verschiedene Diagnosegruppen zeigte signifikante Unterschiede. Die Korrelation zwischen CBCL 1 1/2-5 und C-TRF, in denen von Eltern und Erzieherin das gleiche Kind beurteilt wurde, liegen im üblichen Bereich und stimmen weitgehend mit der amerikanischen Stichprobe überein. Insgesamt sind die aus den verschiedenen Stichproben ermittelten Mittelwerte und Standardabweichungen der CBCL 1 1/2-5 und der C-TRF vergleichbar mit der amerikanischen Originalstichprobe. Diese Ergebnisse sprechen dafür, dass die amerikanische Normierung ohne die Gefahr größerer Verfälschungen auch im deutschen Sprachraum angewandt werden kann, bis Normwerte an einer entsprechend repräsentativen Stichrobe vorliegen.
Zusammenfassend steht mit den oben beschriebenen Methoden der interstitiellen HDR-Brachytherapie ein technisch und organisatorisch gut durchführbares Therapiekonzept zur Verfügung, das gut verträglich, wenig invasiv und schnell bei Patienten mit inoperablen lokalen Rektumkarzinomrezidiven wirkt. In Abhängigkeit der verwendeten Technik ist sogar eine ambulante Therapie möglich, ansonsten ist die therapieassoziierte Krankenhausverweildauer kurz. Neben Methoden zur lokalen Tumorkontrolle ist jedoch auch die Weiterentwicklung von systemischen Therapieverfahren entscheidend, da sich tumorbedingte Todesfälle häufig aufgrund von Fernmetastasen ereignen, die sich der lokalen Therapie entziehen.
Zur Erkundung der Depotfunktion von quellfähigen Tonmineralen für organische Umweltchemikalien und der möglichen Verdrängung dieser Chemikalien durch biogene Tenside wurden kinetische Untersuchungen mit Hilfe von Batch-Experimenten durchgeführt. Dabei wurde zunächst das Adsorptions- und Desorptionsverhalten von ausgesuchten Umweltchemikalien an mineralische Festphasen und danach die Verdrängung dieser Chemikalien durch biogene Tenside untersucht. Als Umweltchemikalien dienten in den Experimenten Di-(n-butyl)phthalat (DBP) und Di-(2-ethylhexyl)phthalat (DEHP), die in industriellem Maßstab hauptsächlich als Weichmacher in Kunststoffen verwendet werden und fünf ausgewählte polycyclische aromatische Kohlenwasserstoffe (PAK), die bei pyrolytischen Prozessen sowie der unvollständigen Verbrennung organischen Materials entstehen. In den durchgeführten Versuchsreihen dienten ein smektitreicher Bentonit, Quarzsand und Gemische aus diesen beiden Stoffen mit verschiedenen Gewichtsanteilen der Bentonit- und Sandphase sowie Seesand als Adsorbermedium für die Umweltchemikalien. Diese Variationen sollten das unterschiedliche Verhalten der verschiedenen Festphasen bezüglich der drei untersuchten Prozesse (Adsorption, Desorption und Austausch) mit den Chemikalien verdeutlichen. Untersuchungen am verwendeten Bentonit ergaben, daß sein Hauptbestandteil ein Calcium- Montmorillonit war. Der Montmorillonit ist ein quellfähiges, dioktaedrisches Tonmineral aus der Gruppe der Smektite. Die Quellfähigkeit dieses Smektits wurde in Quellversuchen mit Ethylenglykol und Glycerin mittels Röntgendiffraktometrie festgestellt. Die chemische Zusammensetzung des Minerals wurde mit Röntgenfluoreszenzmessungen analysiert. Mit dem Greene-Kelly-Test wurde der Montmorillonit als smektitischer Anteil im Bentonit identifiziert. Im Laufe einer jeden Versuchsreihe sind nacheinander drei Prozesse mit jeder Probe im Labor untersucht worden: 1. Adsorption von Umweltchemikalien (Phthalate und PAK) an Sandproben mit unterschiedlichen Tongehalten und an reinen Tonproben. 2. Desorption der adsorbierten Umweltchemikalien aus den Sand/Ton-Gemischen und Tonproben in vier Schritten. 3. Austausch dieser Chemikalien aus den Sand/Ton-Gemischen und Tonproben gegen biogene Tenside. Im ersten Schritt der Batch-Experimente wurden die beiden Phthalate bzw. die PAK (Naphthalin, Acenaphthen, Fluoren, Phenanthren und Fluoranthen) aus einer wässrigen Lösung an die mineralischen Festphasen adsorbiert. Die Phthalate wurden in einem 1:1 Verhältnis in den Experimenten eingesetzt, die fünf PAK als ein Gemisch oder auch einzeln. Für die PAKAdsorption wurde auch eine Wasser-Aceton-Mischung beim Adsorptionsversuch verwendet, da sich dadurch ihre Löslichkeit erheblich verbessern ließ und die kinetischen Reihenversuche bezüglich der Gleichgewichtseinstellung wesentlich gleichmäßiger verliefen. Die Proben wurden 20 Stunden lang bis zur Einstellung des Gleichgewichts im Überkopfmischer geschüttelt. Die festen Phasen wurden danach von den wässrigen Phasen getrennt und zur Ermittlung der Einstellung des Desorptionsgleichgewichts weiterverwendet. Die wässrigen Phasen wurden mit organischen Lösemitteln extrahiert und der Gehalt an Umweltchemikalien gaschromatographisch quantifiziert. Die verbliebenen Festphasen wurden jeweils viermal mit frischem, destilliertem Wasser 20 Stunden lang zur Ermittlung des Gleichgewichts der Desorption geschüttelt, wobei nach Abtrennung der wässrigen Phasen diese auf ihren Organikgehalt hin wie oben beschrieben untersucht wurden. An diese vier Desorptionsschritte schloß sich das Verdrängungsexperiment einer Versuchsreihe an. Hierbei wurden verseifte, langkettige biogene Tenside (Alkoholate und Carbonsäuresalze mit geradzahliger Anzahl der Kohlenstoffatome) zu jeder Probe hinzugegeben und jede Festphase nochmals mit frischem Wasser im Überkopfmischer geschüttelt. In diesem Schritt sollte überprüft werden, ob die in den Festphasen verbliebenen Phthalate und PAK durch Zugabe von biogenen Tensiden in höherem Maße in der wässrigen Phase wiedergefunden werden als dies aus dem jeweiligen Desorptionsgleichgewicht zu erwarten war. Mit den Ergebnissen konnten Adsorptionsisothermen (nur für Phthalate) aufgenommen und Angaben zur Einstellung des Desorptionsgleichgewichts oder dessen Störung nach Austauschexperimenten gemacht werden. Die Auswertung der Adsorptionsexperimente ergab, daß Festphasen mit Bentonitanteil befähigt sind, einen höheren Anteil an Phthalaten und PAK zu adsorbieren als reine Sandproben. Bei kleinen Phthalatkonzentrationen wurde DEHP aufgrund einer stärkeren Affinität zur Festphase besser adsorbiert als DBP. Stiegen die Phthalatzugaben, so wurde DBP in höherem Maße als DEHP adsorbiert. Dies wurde durch eine bessere Einlagerung der DBP-Moleküle in die innerkristallinen Zwischenschichten des Montmorillonit-Minerals ermöglicht (Interkalation). Röntgenographisch wurde ein deutlich vergrößerter Wert für den Schichtabstand im Montmorillonit nachgewiesen als im ursprünglichem Zustand (bis zu 18 Å gegenüber 15,3 Å). Die Desorptionsisothermen zeigten für Festphasen mit Quarzsandanteilen häufig ein ungleichmäßiges Verhalten. So wurde häufig im zweiten und dritten Desorptionsschritt eine unerwartet hohe Menge an Phthalaten in der wässrigen Lösung gefunden. Reine Bentonitproben zeigten dagegen eine gleichmäßige Konzentrationsabnahme der Phthalate nach jedem Desorptionsschritt. Der eingesetzte Bentonit war in der Lage, Phthalate stärker von der Desorption zurückzuhalten als Quarzsand. Die Einstellung des Desorptionsgleichgewichts erfolgte mit reinem Bentonit schneller als bei Sandproben oder Sand-Bentonit Gemischen. Bei Austauschexperimenten, in denen die ursprünglich eingesetzte Menge an Phthalaten unter 1 mg lag, wurden keine Verdrängungsprozesse festgestellt. Stiegen die Konzentrationen der Phthalate (bis zu ca. 200 mg), so kam es aufgrund der größeren Oberflächenbelegung im Montmorillonit zu Verdrängungsprozessen der Phthalate durch biogene Tenside. Die Extraktion der wässrigen Lösung ergab nach dem Austauschexperiment eine höhere Menge an Phthalaten als es aus dem Desorptionsexperimenten erwartet worden war. Insgesamt wurde mehr DBP als DEHP nach den Austauschexperimenten in der wässrigen Lösung gefunden. Da DBP besser als DEHP in die Zwischenschichten des Montmorillonits eingebaut wurde, konnte auch diese Feststellung damit erklärt werden, daß biogene Tenside die Phthalate aus den innerkristallinen Zwischenschichten verdrängen. Bei PAK wurden Verdrängungsprozesse nur im Falle von Phenanthren festgestellt. Bei anderen in den Experimenten eingesetzten PAK (vorwiegend Naphthalin, Acenaphthen und Fluoren) war offenbar der Dampfdruck so groß, daß vor dem Austauschexperiment nicht mehr genügend organisches Material in der Bodenprobe adsorbiert war. Bei parallel durchgeführten Versuchen mit reinem Quarzsand und mit Seesand als Festphase wurde dagegen weder bei Phthalaten noch PAK eine wesentliche Störung des Desorptionsgleichgewichts in der Größenordnung der bentonithaltigen Proben nach dem Verdrängungsexperiment festgestellt. Dies ist ein Hinweis darauf, daß Verdrängungsprozesse bevorzugt auf Oberflächen von Tonmineralen stattfinden. Insgesamt konnte mit dieser Arbeit gezeigt werden, daß Gleichgewichtseinstellungen von Umweltchemikalien an Tonmineralen durch biogene Tenside gestört werden können. Durch die Einwirkung der biogenen Tenside kommt es zu einer verstärkten Desorption der Umweltchemikalien aus den Tonmineralen.
Fragestellung: Ziel der vorliegenden Studie ist die umfassende psychologische Untersuchung aller Lebendnierenspender, die zwischen 1973 und 2001 im Frankfurter Universitätsklinikum eine Niere gespendet haben. Bisherige Untersuchungen deuten auf eine gute körperliche und psychische Gesundheit der Nierenspender hin. Diese Untersuchungen weisen jedoch zumeist eine geringe Rücklaufquote und methodische Probleme auf. Sie beschränken sich auf die Erhebung einer geringen Anzahl der immer wieder gleichen Variablen. Zudem besteht ein Mangel an langfristigen Follow-up Untersuchungen. Methode: In einem gemeinsamen Projekt der Kliniken für Nephrologie und Psychosomatik werden die Nierenspender (N=152) internistisch und psychologisch nachuntersucht. Die psychologische Untersuchung verwendet ein breites Spektrum von Erhebungsmethoden. Neben einem halbstrukturierten Interview (Dauer ca. 30 - 60 Minuten) werden vier standardisierte Fragebögen eingesetzt. Ergebnisse: Acht Spender verstarben vor Beginn der psychologischen Untersuchung - in keinem Fall als Folge der Einnierigkeit. Fünf Spender waren unauffindbar. 20 Spender wurden aufgrund von Sprachproblemen ausschließlich medizinisch untersucht und nicht in die psychologische Untersuchung mit einbezogen. 112 der verbleibenden 119 Spender konnten psychologisch untersucht werden, was einer Rücklaufquote von 94 % entspricht. Die untersuchten Spender weisen, im Vergleich zu vorliegenden Normen, überdurchschnittliche Kennwerte in verschiedenen gesundheitsrelevanten psychologischen Variablen, wie psychische Symptombelastung, Gesundheitsverhalten, Selbstwirksamkeitsüberzeugung und Kohärenzgefühl auf. Auch in einer Reihe medizinischer Variablen spiegelt sich die insgesamt gute Befindlichkeit der Lebendnierenspender wider. Fast alle Spender (97 %) geben an, dass sie sich wieder für eine Spende entscheiden würden. 91 % der Spender äußern sich als vollständig zufrieden mit ihrer Entscheidung, während nur ein Spender (1 %) die Entscheidung zur Spende bedauert. Lediglich 2 % der Spender berichten von psychologischen Komplikationen. Bezüglich der kleinen Gruppe von Spendern, für die sich mit der Nierenspende auch negative Erfahrungen verbinden, lassen sich keine eindeutigen Muster eines ungünstigen Verlaufs erkennen. Diskussion: Die Ergebnisse der Studie weisen auf eine insgesamt gute Langzeitprognose für das körperliche und psychische Wohlbefinden der Spender hin. Schlussfolgerungen für die weitere Untersuchung prognostisch relevanter Variablen zur Evaluation der Spendewilligen und die Bereitstellung eines adäquaten Beratungs- und Hilfsangebot für die Spender werden diskutiert.
Die Hauptkomplikation (bis zu 30-50%) bei der Therapie von Gefäßeinengungen (Stenosen) nach invasiven Interventionen ist eine durch Verletzung des Gefäßes verursachte erneute Einengung (Restenose) der Gefäßstrombahn. Basic Fibroblast Growth Factor (bFGF) gehört zu einer Gruppe von 21 strukturell miteinander verwandten Heparin-bindenden Wachstumsfaktoren, die auf eine Vielzahl verschiedener biologischer Prozesse wie Zellproliferation, -migration, Plasminogenaktivierung, Integrinexpression sowie embryonale Entwicklung und Differenzierung wirken. Insbesondere innerhalb der ersten 72 Stunden nach Gefäßwandverletzungen ist es an der Proliferationssteigerung glatter Gefäßmuskelzellen (SMC) und damit an der Entwicklung von Intimahyperplasie (IH) und Gefäßstenosen durch autokrine und parakrine Stimulation beteiligt. Photodynamische Therapie (PDT) hemmt IH und bewirkt hierbei eine vollständige Gefäßzelleradikation mit minimaler Repopulation der Media bei beschleunigter Reendothelialisierung. Weiterhin wird matrix-assoziiertes bFGF inaktiviert und dadurch die Mitoserate und Migration von SMC inhibiert, von Endothelzellen (EC) jedoch gesteigert. Um festzustellen, welchen Einfluß bFGF auf das Remodeling nach Verletzung der Gefäßwand und erfolgter PDT hat, untersucht die vorliegende in-vitro Studie Proliferation sowie bFGF-mRNA- Expression boviner aortaler EC und SMC nach PDT von isolierter extrazellulärer Matrix (ECM). Hierzu wurde ECM nach einer Standardtechnik in 6-Loch Zellkulturplatten hergestellt. Durch Bestrahlung des Farbstoffs Chloraluminium sulfoniertes Phthalocyanin (CASPc; 1 µg/ml) mit Licht (100 J/cm², 100 mW/cm², l=675 nm) wurde die Matrix photodynamisch behandelt. Nach Besiedlung der Matrices mit 2x105 EC bzw. SMC wurde die Proliferation 24, 48 und 72h durchflußzytometrisch bestimmt. Um die quantitative Bestimmung der bFGF mRNA Expression 12, 24 und 48h nach PDT zu realisieren, wurden erstmals die PCR-Bedingungen für b-Actin und bFGF der EC und SMC auf das LightCyclerä-System abgestimmt und etabliert. Die Proliferation von EC nach PDT wurde zu allen Zeitpunkten gegenüber EC auf unbehandelter ECM signifikant (p< 0,0004) stimuliert, die von SMC hingegen signifikant (p< 0,002) gehemmt. Die bFGF mRNA-Expression in EC nach PDT der ECM zeigte gegenüber EC auf unbehandelter ECM lediglich einen signifikanten (p< 0,005) Anstieg nach 24h. In SMC nach PDT der ECM konnten hingegen keine signifikanten Änderungen dokumentiert werden. Die Ergebnisse dieser Studie, legen den Schluß nahe, daß es durch einen PDT-Effekt der ECM zu einer akzelerierten Reendothelialisierung kommt. Die anhaltend verstärkte Proliferation der EC ist dennoch wahrscheinlich nicht allein dem vergleichbar kurzen Anstieg der bFGF mRNA-Expression zuzuschreiben. Die Abnahme der SMC-Proliferation nach PDT-Vorbehandlung der ECM läßt vermuten, daß bioaktive Stimuli für die Zellvermehrung ausgeschaltet worden sind. Da hier jedoch eine erhöhte bFGF Protein Konzentration (dies zeigte eine unveröffentlichte Studie unserer Arbeitsgruppe) ohne erhöhte bFGF mRNA Expression vorlag, läßt dies nur den Schluß zu, daß bFGF nicht oder nur in geringem Maße aus den SMC ausgeschleust werden konnte und es zu einer Hemmung der bFGF-vermittelten autokrinen Stimulation der SMC in diesem Modell kommt. Die Ergebnisse dieser Arbeit zeigen die unterschiedliche intrazelluläre Beeinflußung der Gefäßzellfunktionen von EC und SMC durch PDT von ECM und eröffnen damit nicht nur weitere Aspekte zur Aufklärung der Mechanismen der vaskulären PDT, sondern könnten auch zum Verständnis verschiedener Interaktionen zwischen Zellen und deren unmittelbaren Umfeld beitragen.
Seit der Entdeckung der Spirochäten als Erreger der Lyme-Borreliose durch Willy Burgdorfer im Jahre 1982 wird an ihrer genotypischen und phänotypischen Differenzierung gearbeitet. Als humanpathogen gelten die drei Genospezies B. burgdorferi s. s., B. garinii und B. afzelii. Die vorliegende Arbeit beschäftigt sich mit der Etablierung einer schnellen und hochspezifischen Methode zur Subtypisierung der drei o.g. Genospezies und basiert auf einer Polymerase-Kettenreaktion (PCR) des Flagellin-Gens. Als Zielsequenz für die PCR wurde ein konservierter Genabschnitt gewählt, der einerseits so spezifisch ist, dass keine Amplifikation nahe verwandter Spirochäten stattfindet, andererseits phylogenetisch so konserviert vorliegt, dass alle drei humanpathogenen Genospezies erfaßt werden können. Die erhaltenen PCR-Amplifikate wurden zur Subtypisierung mit drei hochspezifischen Oligonukleotiden hybridisiert. In der vorliegenden Arbeit wurden insgesamt 34 Borrelien-Isolate untersucht und eindeutig und reproduzierbar mittels Dot blot-Hybridisierung typisiert. Als entscheidender Parameter zeigte sich die gewählte Waschtemperatur. Sie lag für das Oligonukleotid Fla15 (spezifisch für B. garinii) bei 63,1 °C (+/- 0,2°C), für das Oligonukleotid Fla16 (spezifisch für B. afzelii) bei 67,1°C (+/- 0,2°C) und für das Oligonukleotid Fla8 (spezifisch für B. burgdorferi s. s.) bei 68,0°C (+/- 0,2°C). Die Zielsetzung der Arbeit, eine hochstringente Methode zur Subtypisierung von PCR-Amplifikaten des phylogenetisch konservierten Flagellin-Gens der Erreger der Lyme-Borreliose zu etablieren, konnte erfolgreich umgesetzt werden. Mit der in dieser Arbeit evaluierten und etablierten Methode für die Subtypisierung aller drei humanpathogenen Borrelien-Genospezies eröffnet sich die Möglichkeit, epidemiologische Studien mit klinischen Untersuchungsmaterialien durchzuführen und der Frage nachzugehen, ob die Hypothese des Organotropismus bei der Lyme-Borreliose aufrecht erhalten werden kann.
Entwicklung von Methoden zur Konformationsanalyse supramolekularer Komplexe in Kraftfeldprogrammen
(2003)
Im Verlauf der vorliegenden Arbeit wurde mit dem SUPRA-Algorithmus ein Verfahren zur Berechnung der Struktur Supramolekularer Komplexe programmiert und in das Kraftfeldprogramm MOMO implementiert. Bei der Konformationsanalyse Supramolekularer Komplexe ergibt sich das Problem, dass die Anzahl der notwendigen Rechenschritte mit der Größe der zu berechnenden Struktur, genauer mit der Anzahl vorhandener Torsionsfreiheitsgrade, exponentiell ansteigt. Dieses Problem wurde umgangen, indem die Rechnung in drei kleinere Abschnitte aufgeteilt wurde. Es werden nacheinander drei Konformationsanalysen durchgeführt. Zuerst erfolgt jeweils eine Konformationsanalyse für die beiden beteiligten Einzelmoleküle. Deren Strukturen dienen dann wiederum als Eingabe für die dritte, eigentliche Konformationsanalyse des Supramolekularen Komplexes. Ziel dieser Arbeit war dann unter anderem zu überprüfen, ob trotz der Vereinfachungen diese Vorgehensweise effiziente Ergebnisse liefert. Zu Beginn wurden Berechnungen für den Komplex Adenin-Uracil durchgeführt, die Resultate stimmten mit experimentell gefundenen Paarungsmustern (Watson-Crick, reverse Watson- Crick, Hoogsteen, reverse Hoogsteen) überein. Eine weitere Rechnung am Komplex Cytosin- Guanin fand als Ergebnis Watson-Crick- und reverse Watson-Crick-Paarung. Die besten Ergebnisse wurden unter Verwendung des Ladungsmodells von Gasteiger und Marsili sowie der Wasserstoffbrücken-Potenzialfunktion von Vedani und Dunitz ohne Berücksichtigung der van-der-Waals-Wechselwirkungen erhalten. Diese Kraftfeldeinstellungen wurden im weiteren Verlauf der Arbeit als die optimalen Parameter für den SUPRA-Algorithmus beibehalten. Anschließend wurden zwei Komplexe fluormodifizierter Basenpaare berechnet, um die in einem RNA-Duplex experimentell aufgefundenen C-H...F-C-Brücken rechnerisch zu reproduzieren. Nur für eines der beiden Basenpaare konnte dieses Wasserstoffbrücken- Bindungsmuster erhalten werden, für das andere Dimer wurde die erwartete Struktur nicht gefunden. Es sollte deshalb der gesamte RNA-Duplex berechnet werden. Hierzu war das Programm MOMO nur sehr bedingt geeignet, und zwar sowohl was den Aufbau des Doppelstranges betraf als auch die Energie- und Geometrieberechnung. Trotz umfangreicher Versuche gelang es nicht, die Doppelhelixstruktur im Verlauf der Energieminimierung beizubehalten. Durch Anpassung der Kraftfeldparameter konnte aber eine stark aufgeweitete Helixstruktur berechnet werden, in welcher die modifizierten Basen nach dem experimentell gefundenen Muster gepaart waren. Außerdem wurde der SUPRA-Algorithmus anhand eines Dipyridon-Komplexes auf seine Fähigkeit getestet, Moleküle mit mehreren Torsionsfreiheitsgraden zu berechnen. Hier ergab sich wegen der konformationellen Flexibilität eine Rechenzeit von über drei Wochen. Das Ergebnis der Rechnung stimmte gut mit der experimentell gefundenen Struktur überein. Am Beispiel zweier Komplexe selbstkomplementärer Diketopiperazine sowie eines Komplexes aus N,N'-Di(tert-butyl)-melamin und 5,5-Dimethylbarbitursäure wurden Rechnungen von Komplexen aus mehr als zwei Molekülen durchgeführt. Es zeigte sich eine gute Übereinstimmung der Ergebnisse mit den bekannten Kristallstrukturen. Als letztes wurden anhand zweier selbstkomplementärer Acetylhydrazon- und dreier Diketon- Diol-Komplexe fünf unbekannte Strukturen doppelt wasserstoffbrücken-gebundener Dimere vorhergesagt. Anschließend sollte jeweils die Kristallstruktur bestimmt und mit dem Ergebnis der Vorhersage verglichen werden. Im Fall der Diketon-Diol-Komplexe gelang bisher keine Züchtung eines entsprechenden Mischkristalls, sondern die beteiligten Komponenten kristallisierten einzeln aus. Bei den zwei Acetylhydrazonen dagegen konnten Kristalle erhalten werden. Eine der Kristallstrukturen wies das mit dem SUPRA-Algorithmus vorhergesagte Dimer auf. Im Verlauf der Arbeit zeigte sich des Öfteren, dass die gewählte Strategie, die Anzahl der Startstrukturen bei der Konformationsanalyse zu begrenzen, um ein exponentielles Ansteigen der Rechenschritte zu verhindern, erfolgreich war. Mehrmals fanden sich als Ergebnis der Rechnung Strukturen von komplexgebundenen Molekülen, die sich stark von der Startkonformation eines Einzelmoleküls unterschieden, so zum Beispiel im Falle des Dipyridon-Komplexes oder der Diketon-Diol-Komplexe. Für die Zukunft sind weitere Kristallisationsversuche der Acetylhydrazone geplant, um eventuelle Polymorphe aufzufinden, bei denen sich auch eine Übereinstimmung mit der zweiten vorhergesagten Struktur zeigt. Weiterhin ist beabsichtigt, die Packungsenergien der gefundenen Kristallstruktur sowie einer theoretischen Kristallstruktur, die in ihrem Wasserstoffbrückenbindungs-Muster der mit MOMO gemachten Vorhersage entspricht, zu berechnen und zu vergleichen. Durch Einführung verschiedener Liganden in das Acetylhydrazon und Vergleich der daraus resultierenden Packungsmuster sollen Regeln über die den Kristallisationsprozess bestimmenden Einflussfaktoren abgeleitet werden. Weiterhin soll eine Reihe von anderen Verbindungsklassen synthetisiert, strukturell untersucht und berechnet werden, um so weitere Vergleiche zwischen theoretischen Vorhersagen und Kristallstruktur anstellen zu können. Für das Programm MOMO wäre wünschenswert, den Multipol-Ansatz in die Vollversion zu integrieren, um eine exaktere Berechnung von Basenstapelungs- und anderen p-p- Wechselwirkungen zu erreichen. Darüber hinaus sollte eine Parametrisierung des von S. Monz verbesserten Abraham-Ladungsmodells vorgenommen werden. Beides würde zu einer Verbesserung der Beschreibung intermolekularer Wechselwirkungen führen, welche für den SUPRA-Algorithmus relevant sind.
Die opto-elektronische Erzeugung intensiver Terahertz-Pulse unter Verwendung von Verstärkerlaser-Systemen stellt eine leistungsfähige und im wissenschaftlichen Umfeld etablierte Technik dar. Es ist anzunehmen, dass diese Technik in Zukunft auch für kommerzielle Anwendungen eingesetzt werden wird. (Z.B. entwickelt die Firma Nikon, Japan ein Echtzeit- Bildgebungssystem mit opto-elektronisch erzeugter Terahertz-Strahlung basierend auf einem Verstärkerlaser.) In dieser Arbeit werden gängige und neuartige opto-elektronische Terahertz-Emitter für Verstärkerlaser theoretisch und experimentell untersucht. Zur experimentellen Untersuchung wurde die Methode der elektro-optischen Detektion, welche in der Arbeit ausführlich vorgestellt wird, verwendet. Dabei wird insbesondere die spektrale Detektorempfindlichkeit dargestellt und eine Methode zur Durchführung kalibrierter Messungen vorgestellt, welche auch für die Verwendung mit Verstärkerlasern geeignet ist. Zu den untersuchten bekannten Emittern gehört der vor ca. 10 Jahren erstmals vorgestellte groß- flächige GaAs-Emitter mit externem Feld. Obwohl dieser Emitter in der Literatur bereits ausführlich untersucht wurde, werden in der vorliegende Arbeit über den Stand der Literatur hinausgehende neue Aspekte wie die Feldabschirmung auf Grund von Ladungsträgerverschiebung und die Abhängigkeit der erzeugten THz-Feldstärke bzw. der THz-Pulsenergie von der Emitterfläche diskutiert. Zudem erfolgt die Behandlung dieses Emitters erstmals vollständig quantitativ, wobei eine gute Übereinstimmung mit den experimentellen Daten erreicht wird. Der zweite in der Arbeit untersuchte Emitter ist der großflächige ZnTe-Emitter. Die elektro-optische Erzeugung von THz-Strahlung in ZnTe-Kristallen mit hoch-repetierlichen Kurzpuls-Lasersystemen ist langjährig bekannt. Die Verwendung großflächiger ZnTe-Kristalle in Verbindung mit Verstärkerlasern wurde allerdings in Rahmen dieser Arbeit erstmals demonstriert. Vor dem Hintergrund der demonstrierten hervorragenden Eigenschaften dieses Emitters ist dieses besonders erstaunlich. Der Hauptteil der Arbeit beschäftigt sich mit der neuartigen Erzeugung von THz-Pulsen in laser-generierten Plasmen. Dabei wurden zwei Methoden untersucht. Die erste Methode, welche im Rahmen dieser Arbeit erstmals realisiert wurde, basiert auf einer Vorspannung des Plasmas mit einem externen elektrischem Feld. Die Methode ist vergleichsweise wenig effektiv, stellt aber eine gute Möglichkeit zur Überprüfung der in der Arbeit entwickelten Modelle für die THz-Emission dar. Die zweite Methode, die erstmals von Cook et al. im Jahre 2000 demonstriert wurde, basiert auf einer "optischen Vorspannung" des Plasmas mittels der Überlagerung des Laserpulses der Fundamentalfrequenz mit einem phasensynchronen Laserpuls der zweiten Harmonischen. Die ausführliche experimentelle und theoretische Untersuchung dieser Methode beinhaltet eine quantitative Modellierung der zu erwartenden Ergebnisse auf Basis des von Cook et al. vorgestellten phänomenologischen Modells, welches auf zeitunabhängigen Nichtlinearitäten dritter Ordnung im Plasma oder in der Luft beruht. Die in dieser Arbeit vorgestellte quantitative Analyse legt die Schlussfolgerung nahe, dass das phänomenologische Modell von Cook et al. in der vorliegenden Form in Frage gestellt werden muss. Daher wurde im Rahmen der Arbeit ein einfaches Modell zur Erklärung der mikroskopischen Ursache der Nichtlinearität entwickelt. Dieses Modell beinhaltet die Kopplung der Nichtlinearität mit dem lokalen Ionisierungsprozess und damit formal auch eine explizite Zeitabhängigkeit der Nichtlinearität im Plasma. Die quantitative Modellierung der makroskopischen THz-Emission auf Basis des mikroskopischen Bildes der Generations-Nichtlinearitäten zeigt, dass das Modell die experimentellen Befunde zufriedenstellend beschreiben kann. Die Arbeit schließt mit einem Vergleich der untersuchten Emitter in Bezug auf spektrale Eigenschaften, Effizienz und Sättigungsverhalten. Bei der Darstellung des Sättigungsverhaltens wird anhand der in der Arbeit entwickelten Modelle versucht die Entwicklung der erzeugten THz-Feldamplituden für Laserpulsenergien von bis zu 50 mJ vorauszusagen. Diese Abschätzung lässt vermuten, dass der Plasma-Emitter für Laserpulsenergien von 10mJ und mehr das Potential hat, deutlich höhere THz-Feldamplituden zu erzeugen als alle gängigen Standardemitter. Entsprechende Experimente in diesem Laserpuls-Energiebereich sind am Front-End des PHELIX-Lasers der GSI (Gesellschaft für Schwerionenforschung) in Darmstadt im Rahmen der Fortführung der Forschungsarbeiten geplant.
Ziel dieser Arbeit ist es, eine Lücke im methodischen Spektrum neurobiologischer Methoden zu schließen. Es ist heute möglich, das Gehirn auf unterschiedlichen Ebenen zu beschreiben. Es stehen jedoch keine Methoden zur Verfügung, um die Anordnung der Zellen innerhalb eines Nukleus quantitativ zu beschreiben. Die Anzahl und die Anordnung der Zellen ist jedoch eine essentielle Voraussetzung, um die Funktion eines Nukleus zu verstehen. Das hier vorgestellte Verfahren zur Rekonstruktion eines Nukleus basiert auf Nissl-gefärbten Semidünnschnitten der Medialen Superioren Olive (MSO) der Wüstenrennmaus Meriones ungiuculatus. Diese werden mit einer Digitalkamera lichtmikroskopisch aufgenommen und bilden die Basis der Rekonstruktion. In einem ersten Schritt werden innerhalb einer Schnittebene mehrere Einzelbilder patchworkartig zu einem Image Mosaic zusammengefügt. Durch diesen Schritt ist die Auflösung innerhalb einer Schnittebene praktisch unbegrenzt. Das Verfahren beinhaltet mehrere Kontrollmechanismen und funktioniert praktisch fehlerfrei. Danach werden die Bilder farblich korrigiert und mit Methoden der Mustererkennung werden die Zellkerne extrahiert. Die Extraktion der Zellkerne steht in ihrer Qualität einer manuellen Extraktion in nichts nach. Die Zellkerne dienen als Grundlage für den Archimedes-Alignment-Algorithmus, der die Schnittserie in einen dreidimensionalen Bezug setzt, indem aufeinander folgende Schnitte aneinander ausgerichtet werden. Auch dieses Verfahren beinhaltet eine Kontrolle und funktioniert fehlerfrei. Aus diesen Daten kann dann eine Rekonstruktion erstellt werden. Diese wird weiter ausgewertet und ergibt schließlich ein dreidimensionales Abbild des untersuchten Bereichs. Sämtliche Verfahrensschritte arbeiten entweder fehlerfrei oder mit einer nur sehr geringen Fehlerrate. Somit stellt dieses Verfahren eine robuste, effiziente und universell anwendbare Möglichkeit für die umfassende Analyse der Neuronenverteilung im ZNS dar. Das Verfahren eröffnet die Möglichkeit, Nuklei dreidimensional zu untersuchen, bietet aber auch einen Ansatzpunkt um mittels histologischer Daten weiteres Datenmaterial (etwa elektrophysiologischer oder morphologische Daten) zu integrieren.
Die extrazelluläre Matrix (ECM) dient in mehrzelligen Organismen nicht nur als mechanische Stütze, sondern nimmt direkten Einfluss auf eine Vielzahl zellulärer Prozesse wie Proliferation, Differenzierung und Migration. Die Discoidin-Domain-Rezeptoren (DDR) 1 und 2 sind die bisher einzig bekannten ECM-bindenden Rezeptoren mit einer intrinsischen Kinaseaktivität. Rezeptor- Tyrosinkinasen spielen bei der Signaltransduktion eine wichtige Rolle. Sie nehmen durch Bindung spezifischer Liganden Signale außerhalb der Zelle auf und initiieren eine Signalkaskade, die letzlich zur Transkription oder Repression von Zielgenen führt. Nach Bindung von nativem Kollagen an die Rezeptoren DDR1 und DDR2 kommt es zu einer Homodimerisierung, die zur Autophosphorylierung der Rezeptoren führt. Eine generierte DDR1-Knock-out-Maus zeigt einen Defekt in der Differenzierung der Brustdrüse und ist nicht in der Lage, ihre Jungen zu säugen, die genauen Ursachen hierfür sind jedoch bislang unbekannt. Ebenso sind die Zielgene der aktivierten Rezeptoren und insbesondere die Rolle von DDR1 in der Brustdrüse bislang wenig erforscht. In der vorliegenden Arbeit wurde nach Zielgenen, die durch die Signalkaskade von DDR1 und DDR2 in ihrer Transkription beeinflusst werden, gesucht. Außerdem wurde die Rolle von DDR1 in der Brustdrüse im Detail analysiert. Zur Auffindung von Zielgenen wurden Zelllinien generiert, in denen die Expression von DDR durch Doxycyclin reprimierbar ist und mit Hilfe von Microarrays auf die Deregulation von Matrixgenen sowie Matrix-assoziierten und -modifizierenden Genen untersucht. Agrin und alpha 3-Integrin konnten als gemeinsame, reprimierte Zielgene von DDR1 und 2 identifiziert werden. Der P-Selectin-Ligand PSGL-1 und das Proteoglykan Decorin wurden von beiden Rezeptoren induziert. Weiterhin wurde das Brustdrüsengewebe trächtiger DDR1-Knock-out-Mäuse mit dem Brustdrüsengewebe heterozygoter Mäuse verglichen. Dazu wurden Microarrays verwendet, auf denen 15.000 Gene abgebildet waren. Die Analyse zeigte eine Repression von MDGI (Mammary derived growth inhibitor), Osteopontin und WDNMI in DDR1-Knock-out-Mäusen, während die Transkription des IGF-Bindeprotein IGFBP-5 erhöht war. Die Deregulationen konnten mittels Real-time-PCR verifiziert werden. Im zweiten Teil der Arbeit wurde die Rolle von DDR1 in der nichttransformierten Brustepithelzelllinie HC11 und in primären Brustepithelzellen aus DDR1-Knock-out Mäusen untersucht. Dabei konnte ein Defekt von DDR1-Knock-out Zellen in der terminalen Differenzierung beobachtet werden. Im Gegensatz hierzu differenzierten DDR1 überexprimierende HC11-Zellen schneller als HC11-Wildtyp-Zellen und bildeten größere Mengen des Differenzierungsmarkers beta-Kasein. Die Analyse verschiedener Signalwege, die bei der Differenzierung von Brustepithelzellen angeschaltet werden, zeigte, dass DDR1 eine entscheidende Rolle in der Signaltransduktion von Stat5a/b spielt. Die Prolaktin induzierte Stat5a/b-Phosphorylierung war in DDR1 exprimierenden HC11 Zellen stärker und länger anhaltend als in parentalen HC11 Zellen. Dieser Effekt konnte nach Aktivierung von DDR1 durch Typ I Kollagen noch verstärkt werden. In der vorliegenden Arbeit konnten PSGL-1, Decorin, Agrin und Integrina3 als Zielgene in DDR1 und DDR2 überexprimierenden Zellen identifiziert werden. Ferner wurde im Brustdrüsengewebe von DDR1-Knock-out-Mäusen eine Repression von MDGI, Osteopontin und WDNMI sowie eine Induktion von IGFBP-5 gefunden. Die Analyse DDR1 überexprimierender HC11 Zellen und primärer DDR1-Knock-out-Brustepithelzellen zeigte, dass DDR1 eine essentielle Rolle in der terminalen Differenzierung von Brustepithelzellen hat. Dabei konnte erstmals ein Einfluss von DDR1 auf die Prolaktin-induzierte Aktivierung von Stat5a/b gezeigt werden.
Die hier vorgelegte Arbeit hatte zur Aufgabe, funktionellen Einflüsse auf den Neurotransmittertransporter GAT-1 zu erhellen, welche durch eine N-Glykosilierung des Transportproteins hervorgerufen werden. Frühere Untersuchungen deuteten bereits darauf hin, daß der Glykosilierung der drei extrazellulär vorhandenen N-Glykosilierungsstellen des GAT- 1 neben einer expressionellen Bedeutung auch eine funktionelle zukam. So zeigten sich bei Arbeiten anderer Gruppen, welche N-Glykosilierungsmutanten des GAT-1 verwendeten, um die Glykosilierung des Transportproteins zu beeinträchtigen, daß fehlende Oligosaccharide an den N-Glykosilierungsstellen des GAT-1 durchaus in eine Reduktion der GABA-Aufnahme in die Zellen mündete, was zumindest bei Oozyten des Xenopus laevis auf eine verminderte Transportrate zurückgeführt werden konnte. An CHO-Zellen konnte nun auf gleiche Weise eine Reduktion der GABA-Aufnahme beobachtet werden, und es galt, mit elektrophysiologischen Methoden die Ursachen dieser Reduktion zu erkunden. Die hier vorgelegte Arbeit vermochte nun bei CHO-Zellen, eine Verminderung der Transportrate als Ursache jener reduzierten GABA-Aufnahme auszumachen. Zu diesem Zwecke wurden die CHO-Zellen entweder mit der DNA des mGAT1 Wild-Typs (einem aus der Maus klonierten GAT-1-Transporter) oder mit der DNA von N-Glykosilierungsmutanten des mGAT1 transfiziert. Es fanden zwei verschiedene N-Glykosilierungsmutanten Verwendung, an denen jeweils zwei der drei N-Glykosilierungsstellen Asparagin durch Aspartat bzw. Glycin ersetzt wurden: (Asp176, Gly181, Asn184) bzw. DDN (Asp176, Asp181, Asn184). Wie indes die durch eine beeinträchtigte N-Glykosilierung verminderte Transportrate zustande kam, und wie sich eine entsprechende Erklärung in die bisherige Annahme den GAT-1 Reaktionszyklus betreffend einfügen und mit dessen Struktur verbinden ließe, vermochte die hier vorgelegte Arbeit zu einem großen Teil einsichtig zu machen. Zwei Phänomene konnten die Transportrate vermindern: Zunächst waren die Zeitkonstanten transienter Ströme, welche bei Abwesenheit von GABA auftreten, verlangsamt. Weil diese Ströme den ratenlimitierenden Schritt im Reaktionszyklus zu repräsentieren scheinen, mußte also jener Schritt, welcher die Okklusion des ersten Natriums oder die darauffolgende Konformationsänderung beinhaltet, verlangsamt sein. Im weiteren zeigten Analysen der bei den transienten Strömen auftretenden Ladungsverschiebungen, daß die Natrium-Transporter-Interaktion auf extrazellulärer Seite durch das Fehlen von Oligosacchariden an den N-Glykosilierungsstellen des GAT-1 beeinträchtigt war, wobei als Grund hierfür eine Verstärkung der dimensionalen bzw. elektrogenen Schranke zu sehen ist, welche sich vor der Natriumbindungsstelle des GAT-1 befindet. Eine Veränderung der Expressionsrate als tragende Ursache verminderter Transportraten bzw. reduzierter GABA-Aufnahmen konnte hingegen ausgeschlossen werden. Experimente mit dem N-Glykosilierungs-Inhibitor dMM sowie Vergleiche von Experimenten verschiedener Mutanten vermochten die oben beschriebenen Effekte hauptsächlich auf die durch die Mutationen fehlenden Oligosaccharide zurückzuführen und weniger auf andere durch die Mutation hervorgerufene strukturelle Änderungen des GAT-1-Proteins.
Vom 01.01.1985 bis 31.12.1995 wurden 144 Patienten wegen eines Rektumkarzinoms im oberen und mittleren Drittel behandelt. Bei allen Patienten wurde eine Rektumresektion durchgeführt. Ziel der Arbeit war eine kritische Qualitätskontrolle der Therapie des Rektumkarzinoms am Klinikum Offenbach mittels Langzeitergebnissen. Vergleichend wurde die chirurgische Therapie mit und ohne zusätzliche Chemo- und Strahlentherapie gegenübergestellt. In unserem Krankengut fanden sich 82 Männer (57%) und 62 Frauen (43%). Der Altersdurchschnitt betrug 66 Jahre. Die Altersgrenzen lagen bei 38 und 98 Jahren. Bei 116 (80,6%) Patienten konnte eine R0-Resektion durchgeführt werden, 18 (12,5%) erhielten eine R1-Resektion und 10 (6,9%) der Therapierten eine R2-Resektion. Die Gesamtletalität innerhalb des Kollektivs betrug bis zum 31.10.2000 58,3%. Bei 61 (42%) der Behandelten war das Versterben mit dem primären Tumorleiden in Zusammenhang zu bringen. Die 5-Jahres-Überlebensrate betrug insgesamt 49,7%. Hier konnten wir eine deutliche Stadienabhängigkeit erkennen. Die perioperative Letalität, die bezüglich einer 30-Tage-Letalitätsgrenze ermittelt wurde, verzeichnete eine Rate von 2,8%. Todesursachen waren Sepsis, Thrombosen und tumorbedingtes Herzkreislaufversagen. Eine Tumorprogression erlitten insgesamt 59 (41%) der Behandelten. Eine Fernmetastasierung wiesen nach 5 Jahren 17 (11,8%) Patienten auf, Lokalrezidive wurden bei 42 (29,1%) aus unserem Kollektiv beobachtet. Einer Chemotherapie unterzogen sich 27 (18,8%) Patienten. Auf die Stadien verteilt entsprach dies 12% der Behandelten mit Stadium II, 29,7% mit Stadium III und 41,9% mit Stadium IV. Von diesen verstarben 21 (84%) tumorassoziiert. Bei 11 (40,7%) Therapierten lag eine Fernmetastasierung vor, 10 (37,1%) litten zum Zeitpunkt des Todes an einem Lokalrezidiv. Strahlentherapeutisch wurden 21 (14,6%) Patienten des Kollektivs behandelt. Die Stadieneinteilung dieser Patienten zeigte 1,9% in Stadium I, 20% im Stadium II, 32,4% im Stadium III und 9,7% im Stadium IV. Von diesen verstarben 14 Patienten tumorassoziiert. Bei 4 Patienten lag eine Fernmetastasierung vor, 11 erlitten ein Lokalrezidiv. Unserer Ergebnisse konnten die Notwendigkeit einer adjuvanten Therapie noch nicht belegen, da sich diese zum Zeitpunkt der Studie gerade erst etablierte und somit unsere Stichproben mit einer zu geringen Anzahl von Behandelten keine Schlussfolgerungen zuließen Aufgrund des retrospektiven Studiendesigns war statistisch nur eine rein explorative Aussage möglich. Ziel folgender Studien sollte, zur Steigerung der Qualität, eine prospektive Datenerfassung sein.
Der Neugeborenenikterus ist ein häufiges Phänomen in der Neonatalperiode. Bis zur Hälfte der Neugeborenen sind in den ersten 3 - 5 Lebenstagen davon betroffen. Der Notwendigkeit zur Verhütung des Kernikterus steht der Wunsch nach Vermeidung unnötiger diagnostischer und therapeutischer Maßnahmen gegenüber, die den Patienten und das Gesundheitswesen belasten. Im Zeitraum vom 1. Januar bis zum 31. Dezember 1999 wurde in der Frauenklinik des Bürgerhospitals Frankfurt a. Main retrospektiv die Krankenakten von 639 Neugeborenen ausgewertet. Hierbei wurden die transkutan gemessenen Bilirubinwerte den gleichzeitig bestimmten laborchemischen Werten für das Gesamtbilirubin gegenübergestellt. Insgesamt konnten 314 vergleichende Bestimmungen von 639 Neugeborenen untersucht werden. Hierbei entfielen auf den 2. Lebenstag 92 Bestimmungen, auf den 3. Lebenstag 100, auf den 4. Lebenstag 76 Bestimmungen, auf den 5. Lebenstag 29 Bestimmungen und auf den 6. Lebenstag 17 Bestimmungen. 27 Neugeborene hatten ein Geburtsgewicht von weniger als 2500 g, 38 Neugeborene wurden vor der vollendeten 37. Schwangerschaftswoche geboren. Die Gruppen der korrelierenden Laborwerte wurden mittels des Hahn-Prognose-Intervall - Verfahrens für Methodenvergleiche statistisch untersucht. Hierbei wurde zusätzlich zu einem 95 % Vertrauensintervall (97.5 % als einseitiger Bereich) ein p-Wert von 0.998 verwendet, der in einem einseitigen Ansatz einem p-Wert von 0.999 entspricht und somit ein Vertrauensintervall von nahezu 100 % erreicht wird. Die Grenzwerte für das Gesamtbilirubin wurden den Leitlinien der Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften entnommen. Da ausschließlich die oberen Grenzwerte definiert werden sollten, wurde auf die Berechnung von Korrelationskoeffizienten verzichtet, die Regressionskoeffizienten sind jeweils angegeben. Der hier eingesetzten transkutanen Meßmethode hat sich als Screeninginstrument bewährt, um bei Neugeborenen die Zahl der Blutentnahme zu reduzieren , dadurch konnte die Zahl kapillärer Blutentnahme bis zu 79% gesenkt werden. In der vorliegenden Untersuchung haben wir erstmalig die Bestimmung des Prognoseintervalls als statistisches Verfahren eingesetzt, um Grenzwerte für die Notwendigkeit einer Kontrolle der transkutanen durch die Serum-Bilirubinbestimmung zu erstellen. Dies ist von besonderer Bedeutung, um in der tcB falsch negative Ergebnisse zu vermeiden, die unter Umständen das Unterlassen therapeutischer Maßnahmen zur Folge haben. Das Prognoseintervall schließt falsch negative Ergebnisse mit hoher Präzision aus. Dies gilt besonders für das 99,9% Prognoseintervall, in dessen Bereich das Risiko falsch negativer Ergebnisse vernachlässigbar gering ist. Wir zeigten die Anwendbarkeit des Prognoseintervalls zur Verlaufskontrolle während der ersten fünf Lebenstage und bei verschiedenen vorgegebenen Serumbilirubinwerten termingerecht geborener Kinder sowie bei Säuglingen, die vor der 37. Schwangerschaftswoche oder mit einem Geburtsgewicht unter 2500 g geboren wurden.
Die Stellung der Breitensportart Rudern als gesundheitsfördernde Sportform ist in der Literatur gleichlautend positiv beschrieben. Im leistungsorientierten Rudersport müssen neben den Verletzungen und Fehlbeanspruchungen der eigentlichen Sportart die unabdingbaren Nebentrainingsformen berücksichtigt werden. In den neunziger Jahren vollzog sich ein trainingsmethodischer Wandel, die Einführung eines erschwinglichen Rudersimulators und eine technische Weiterentwicklung im Boots- und Ruderbau. Einhergehend kam es zu einer geänderten Belastungsphysiologie, so daß neue Untersuchungen sinnvoll erscheinen. Die vorliegende Arbeit erhebt über den retrospektiven Zeitraum von vier Jahren explorativ das Auftreten von Verletzungen und Fehlbeanspruchungen, wobei deren Qualität und Verteilung in den Trainingsformen Wasser-, Ergometer-, Kraft-, Hallen-, Rad-, Lauftraining und die unter dem Punkt "Sonstige" zusammengefaßten übrigen Trainingsformen registriert wurden. Diese Studie beschreibt trainingsformspezifische Fehlbeanspruchungen und Verletzungen sowie deren Auftreten bei den Beobachtungseinheiten Geschlecht, Leistungsgruppe und Gewichtsklasse. Im Rahmen der Diskussion werden Möglichkeiten und Ansätze zur Prävention erörtert und aufgezeigt. Erfaßt wurden bei einer Rücklaufrate von 44% anhand von auf Meisterschaften und Wettkämpfen ausgeteilten sowie an Bundes- und Landestrainer versendeten tabellarischen Fragebögen die Daten von 110 Wettkampfruderern. Als Kriterium der Aufnahme in diese Studie galt die Teilnahme an nationalen Meisterschaften oder ein der Altersklasse angepaßter wöchentlicher Trainingsumfang. Die Zuordnung der Sportler in die jeweilige Beobachtungseinheit der beiden Leistungsgruppen erfolgte aufgrund von Kaderzugehörigkeit, Teilnahme an internationalen Meisterschaften und zeitlichem Umfang des wöchentlich realisierten Trainings. Der Trainingsumfang der Ruderer beläuft sich in dieser Studie im Durchschnitt auf 12,8 Stunden reiner Belastungszeit pro Woche. Korrelierend zu den verschiedenen Jahreszeiten gestaltet sich das Training der Ruderer unterschiedlich. Im sogenannten Sommertraining, das die Wettkampfperiode beinhaltet, liegt der Schwerpunkt auf der eigentlichen Sportart, was anhand der Trainingsgewichtung von über 77% des Gesamttrainingsumfanges bestätigt wird. Einzig das Krafttraining wird in diesem Zeitraum mit 11% des Umfanges noch erwähnenswert häufig betrieben. Während des aus Übergangs- und Vorbereitungsperiode bestehenden Wintertrainings überwiegen die Nebentrainingsformen deutlich. Das Rudern selbst wird nur zu dem geringen Anteil von knapp 30% des Trainingsumfanges betrieben, wobei das für leistungsorientierte Ruderer unabdingbare Krafttraining in diesem Zeitraum mit 27% den zweitgrößten Stellenwert hat. Neben dem ebenfalls mit großen Anteilen betriebenem Ergometer- und Lauftraining ist in Anbetracht der hohen Beschwerderate beim Hallensport noch der Trainingsanteil von 7% zu erwähnen. Bei 249.480 erfaßten Belastungsstunden wurden bei 57% der Sportler Verletzungen und bei jedem Athleten Fehlbeanspruchungen erfaßt. Die dominierenden Verletzungsformen waren muskuläre Prellungen und Zerrungen sowie Schädigungen der Bandstrukturen der Sprunggelenke in Form von Bänderdehnungen und -Rupturen. Traumen größeren Schwergrades wurden, von der einen bei den sonstigen Trainingsformen aufgetretenen Lendenwirbelkörperfraktur abgesehen, in dieser Studie nicht gefunden. Als die mit Abstand verletzungsreichste Sportform mit erheblichen trainingsbegrenzenden Konsequenzen erweist sich der Hallensport, wobei eine für Ballsportarten typische Lokalisationshäufigkeit am Sprunggelenk aufzufinden war. Männliche Athleten und Hochleistungssportler wiesen jeweils höhere Verletzungsraten als ihre Vergleichpartner auf. Beim Rudern fand sich als sportartspezifisches und zugleich geringfügiges Trauma die bei rudertechnischer Unzulänglichkeit entstehenden Hautabschürfungen der Handknöchel. Schädigungen der Bandstrukturen der Sprunggelenke fanden sich in dieser Sportform nicht. Joggen und die nicht näher erfragten "sonstigen" Sportformen zogen bevorzugt Distorsionen der Sprunggelenke nach sich, wohingegen Rad-, Kraft- und Ergometertraining vereinzelt zu Verletzungen in Form von muskulären Zerrungen führten. Im Vordergrund der Beschwerdesymptomatiken der erfaßten Fehlbeanspruchungen fand sich in allen Trainingsformen eine hohe Betroffenenrate von muskulären Verspannungen. Als ruderspezifisch zu bezeichnende Fehlbelastungen lagen bei 89% der Ruderer subepidermale Blasenbildungen im Bereich zwischen distaler Hohlhandbeugefalte, Grundgliederbeugefalten sowie auf den Grund- und Mittelphalangen vor. Weiterhin fanden sich sportartspezifisch hohe Beschwerderaten der Lendenwirbelsäule und der Kniegelenke sowie im etwas geringeren Umfang Überlastungen der Sehnenstrukturen der Handgelenke ("rower's wrist"). Neben der eigentlichen Sportform treten Fehlbeanspruchungen gleicher Symptomatik beim Ergometer- und Krafttraining auf, wobei die Betroffenenraten korrelierend mit dem geringeren Trainingsumfang niedriger liegen. Athletinnen und Schwergewichte weisen beim Ergometertraining eine deutlich erhöhte Beschwerderate auf. Das Lauftraining führte bei Athleten gehäuft zu Beschwerdesymptomatiken der Kniegelenke. Der aus Art und Umfang der Konsequenzen zugewiesene Schweregrad der erfaßten Verletzungen und Fehlbeanspruchungen zeigt zwischen Geschlecht, Leistungsklasse und Gewichtsklasse teils deutliche Differenzen. Bei ähnlicher Verteilung der Schweregrade der Verletzungen beider Geschlechter waren männliche Athleten zu höherem Anteil von Fehlbeanspruchungen leichten und zu kleineren des schweren Typs betroffen. Bei den Leistungsgruppen finden sich nur geringe Unterschiede der Schweregrade von Verletzungen. Bezüglich der Fehlbeanspruchungen fanden sich bei den Hochleistungssportlern signifikant vermehrt mittelschwere Formen, wohingegen Leistungssportler eher leichte und schwere Fehlbelastungsformen erlitten. Schwergewichte waren vermehrt von schweren Verletzungen betroffen, wohingegen Leichtgewichte zu größeren Teilen mittelschwere angaben. Bezogen auf die Fehlbeanspruchungen fanden sich bei den schwergewichtigen Sportlern charakteristisch vermehrt mittelschwere Formen und bei den Leichtgewichten geringfügig vermehrt leichte. Eine Prävention von Verletzungen ist im leistungsorientiertem Rudersport in besonderem Maße durch Überdenken der Struktur des Hallentrainings möglich. Fehlbeanspruchungen und chronische Überlastungsschäden können insbesondere durch Korrektur von Bewegungsabläufen, Reduzierung biomechanisch ungünstiger Belastungen, durchdachter Trainingsmethodik und regelmäßige sportmedizinische Überwachungen vermindert werden.
Bei vielen malignen Erkrankungen sind deregulierte Signalübertragungswege bedeutsam für die Pathogenese. Modellcharakter hierfür haben die Philadelphia (Ph) Chromosom positiven Leukämien, zu denen 90 % der chronisch myeloischen Leukämien und etwa 15 - 30 % akuten lymphatischen Leukämien des Erwachsenen gehören. Das Philadelphia Chromosom, das durch die reziproke Translokation von Chromosom 9 und 22 entsteht, codiert für ein tumorspezifisches Fusionsprotein, die BCR-ABL Tyrosinkinase. Diese ist konstitutiv überaktiviert und führt zu autonomen Wachstum und maligner Entartung der Philadelphia positiven Zellen. Ein neuer therapeutischer Ansatz, die Hemmung des pathogenetisch bedeutsamen Signalweges, ist mit dem BCR-ABL spezifischen Tyrosinkinase Inhibitor Imatinib möglich. Der starke antileukämische Effekt von Imatinib gegenüber BCR-ABL positiven Leukämien konnte in klinischen Studien mit Ansprechraten von etwa 60 % bei der Ph+ALL gezeigt werden. Dieser Erfolg wird jedoch von der Resistenzentwicklung gegenüber Imatinib getrübt. So entwickelt die Mehrzahl der Patienten mit Ph+ALL nach einer medianen Behandlungszeit von 2 Monaten ein Rezidiv. Ein häufiger Resistenzmechanismus bei Polychemotherapien ist die erhöhte Expression der pleiotrope Zytostatikaresistenz vermittelnden Proteine P-gp und MRP-1. Diese Arbeit sollte untersuchen, ob die ABC-Transportproteine P-gp und MRP-1 bei der Imatinibresistenz beteiligt sind. MRP-1 und das durch das MDR-1 Gen codierte P-gp sind membranständige Transportproteine, die Tumorzellen durch Auswärtstransport von vielen unterschiedlichen, chemisch nicht verwandten Zytostatika, Resistenzen gegenüber diesen Substanzen verleihen. Um die Rolle von P-gp und MRP-1 bei der Entwicklung der Imatinibresistenz zu bestimmen, wurde untersucht, ob Imatinib ein Substrat von P-gp oder MRP-1 ist, und ob es während der Behandlung mit Imatinib zu einem Anstieg der funktionellen Aktivität dieser Proteine kommt. Mittels transfizierter Zelllinien ließ sich zeigen, dass die P-gp Substrate Calcein AM und Tritium-markiertes Vinblastin in Anwesenheit von Imatinib schlechter transportiert werden. Bei Annahme eines kompetetiven Mechanismus lag die Vermutung nahe, dass Imatinib nicht nur ein Inhibitor des P-gp bedingten Transports von Calcein AM und Vinblastin ist, sondern selbst ein Substrat. Durch Verwendung einer P-gp transfizierten Zelllinie in einem Transwellassay, in dem diese einen vektoriellen Substrattransport bewirkt, konnte direkt gezeigt werden, dass Imatinib durch P-gp nicht aber durch MRP-1 und MRP-2 transportiert wird. Somit ist P-gp potentiell in der Lage, Resistenzen gegen Imatinib auszulösen. Um die funktionelle Aktivität von P-gp in den mononukleären Zellen der mit Imatinib behandelten Patienten bestimmen zu können, wurde eine durchflusszytometrische Methode unter Verwendung von Calcein AM etabliert. Die untersuchten Patientenzellen zeigten jedoch bei niedrigem Ausgangsniveau keinen Anstieg der funktionellen P-gp Aktivität nach Resistenzentwicklung, so dass weder MRP1 noch P-gp Anteil an der Resistenzentwicklung bei Ph+ALL gegenüber Imatinib zu haben scheinen. Die Möglichkeit, die konstitutiv aktive Tyrosinkinase von BCR-ABL mit Imatinib zu inhibieren, ermöglicht es, pathogenetische Charakteristika der BCR-ABL positiven Leukämien zu untersuchen. Die Ph+ALL ist charakterisiert durch ihre schlechte Prognose mit einem Langzeitüberleben von weniger als 10 % bei konventionellen chemotherapeutischen Regimes. Ob die Zytostatikaresistenz vermittelnden Proteine Pgp und MRP-1 hierfür ursächlich sind, sollte in einem weiteren Teil der Arbeit untersucht werden. Durch Hemmung der BCR-ABL spezifischen Tyrosinkinase von Philadelphia Chromosom positiven Zelllinien mit Imatinib kam es bei einem Teil dieser Zelllinien zur Abnahme des MRP-1 Proteinniveaus und der MRP-1 mRNA Expression. Dies begründete die Hypotheose, dass die aktivierte BCR-ABL Tyrosinkinase zu einer Hochregulation der MRP-1 Transkription führt, und damit für die schlechte Prognose ursächlich ist, lag nahe. Weder c-kit noch die BCR-ABL nachgeschalteten Signalproteine RAS-MAP-Kinase, c-MYC und STAT 5 waren bei der Herrunterregulation von MRP-1 unter Imatinib beteiligt. Durch den Nachweis der vorwiegend zytoplasmatischen Lokalisation von MRP-1 in den untersuchten Lymphoblasten mittels konfokaler Immunfluoreszenzmikroskopie und durch den Nachweis einer sehr niedrigen funktionellen Aktivität von MRP-1 in diesen Zellen mittels Durchflusszytometrie eine Bedeutung von MRP-1 für die schlechte Prognose nicht anzunehmen.
Die bei verschiedenen klinischen Indikationen, wie beispielsweise als Volumenersatz oder zur Hämodilution, eingesetzte Hydroxyethylstärke wird vorwiegend über das Molekulargewicht und, sachlich richtiger, über die molare Substitution charakterisiert. In neueren Publikationen wurde die Beachtung der Substituentenverteilung, das C2/C6- Verhältnis, als zusätzliches Merkmal gefordert. Ferner sollten nicht die Parameter der Ausgangslösung, sondern die "in vivo- Merkmale" als maßgeblich für die Charakterisierung von HES herangezogen werden. Obwohl die hochsubstituierte HES in den siebziger Jahren eingeführt wurde, fehlen bisher noch immer Untersuchungen dieser HES. Die überwiegende klinische Anwendung der nachträglich eingeführten mittelsubstituierten HES hat hierzu entscheidend beigetragen. Ziel dieser Arbeit war es, an freiwilligen Versuchspersonen die in vivo- Veränderungen einer hochsubstituierten, hochmolekularen, HES (HES 450/0,7) nach Mehrfachinfusionen mit längerer Nachbeobachtung zu untersuchen. Dabei sollten die chemischen Veränderungen der HES im Serum und im Sammelurin mittels High Performance Liquid Chromatographie (HPLC) und Gaschromatographie (GC) bestimmt werden. Wie bereits in früheren Untersuchungen nachgewiesen wurde, konnte erneut festgestellt werden, dass auch langfristig weniger als 50 Prozent der am Probanden infundierten HES im Harn wiedergefunden werden (lediglich 37,35% der infundierten Menge). Aufgrund einer langsamen Elimination der verwendeten hochsubstituierten HES aus dem Plasmaverteilungsraum führen die täglich wiederholten Infusionen zu einem raschen Anstieg der Serumkonzentration von HES. Andererseits ist festzustellen, dass die Serumkonzentration von HES 30 Tage nach der letzten Infusion noch immer mehr als 50 Prozent der HES- Konzentration nach Abschluß der ersten Infusion beträgt. Das mittlere Molekulargewicht (Mw) der HES im Serum nimmt zunächst rasch auf Werte knapp über 200.000 Dalton (Da) ab; auch 30 Tage nach der letzten Infusion werden noch Werte knapp unter 200.000 Da gemessen. Das Zahlenmittel (Mn) steigt hingegen rasch an und bleibt dann relativ konstant um etwa 130.000 Da. Dies bedeutet, dass die HES in vivo einheitlicher wird. Eliminiert werden zunächst die hochmolekularen Anteile durch Aufspaltung und die niedermolekularen durch renale Elimination. Der Polydispersitätsquotient nimmt dementsprechend erheblich ab. Die gaschromatographische Bestimmung der molaren Substitution und des C2/C6- Verhältnis beschränkte sich auf die im Harn wiedergefundene HES. Hierbei konnte festgestellt werden, dass sich die molare Substitution kaum veränderte. Andererseits erfolgte ein deutlicher Anstieg des C2/C6- Verhältnis im Versuchsverlauf. Dies bedeutet eine Verminderung der Substitution an C6. Erwartungsgemäß erfolgte durch die Applikation von HES eine Hämodilution, die im weiteren Verlauf der mehrtätig wiederholten Infusionen durch versuchsbedingte Blutverluste überlagert und verstärkt wurde. Der kolloidosmotische Druck (KOD) nahm während der Infusion geringfügig zu, ebenso die Plasmaviskosität, die im Gegensatz zum KOD auch langfristig erhöht blieb. Die Amylaseaktivität im Serum nahm erwartungsgemäß zu und war auch 30 Tage nach der letzten Infusion als Ausdruck der Komplexbildung mit HES noch um 150 Prozent gegenüber dem Ausgangswert erhöht. Als wesentliches Ergebnis der vorgelegten Untersuchungen ist das Ausmaß der Kumulation von HES im Serum nach Mehrfachinfusionen anzusehen, die auch durch den dauerhaften Anstieg der Serumamylaseaktivität untermauert wird. Die verwendete Dosierung von HES lag noch im Bereich der Herstellerempfehlungen, wobei dieser keinerlei Hinweise auf eine mögliche Kumulation gibt. Der Nachweis hoher HES- Konzentrationen auch Wochen nach Infusion von hochsubstituierter HES scheint bedeutsam für die Dosierung bei Mehrfachinfusionen zu sein. Das Gewichtsmittel der Molmassen von hochmolekularer HES nimmt innerhalb des Organismus von 409.880 Da auf 232.580 Da nach der letzten Infusion ab, während das Zahlenmittel von 101.480 Da auf 132.020 Da zunimmt. Dies führt zu einer Abnahme des Polydispersitätsquotienten, d.h. zu einem engeren Schnitt der Molekülverteilung. Interessanterweise liegen die mittleren Molmassen von hochsubstituierter HES (0,7) im Serum deutlich oberhalb der Werte für mittelsubstituierte HES (0,5) und damit auch deutlich oberhalb der für diese HES ermittelten Nierenschwelle von 40.000 Da. Auch diese Daten, die erheblich von den Daten für mittelsubstituierte HES abweichen, können als Argument gegen die Charakterisierung von HES nach der in-vivo- Molmassenverteilung angeführt werden. Grundsätzlich kann aus den Daten abgeleitet werden, dass nicht kontrollierte Mehrfachinfusionen hochsubstituierter HES bei nachweislicher Kumulation zu Nebenwirkungen in Folge von überhöhter Volumenwirkung führen können. Dem entspricht, dass klinisch relevante Nebenwirkungen in der Regel nur bei Verwendung hochsubstituierter HES beobachtet wurden. Die vorgelegten Daten sollten Anlaß sein, die Dosierungsrichtlinien für Mehrfachinfusion hochsubstituierter HES zu modifizieren.
Der metasomale Lichtsinn des Skorpions : eine immunhistologische und feinstrukturelle Untersuchung
(2003)
Extraretinale Photorezeption im Bauchmark des Skorpions war seit mehr als 30 Jahren aus elektrophysiologischen und verhaltensbiologischen Untersuchungen bekannt. Von den zugehörigen Sinneszellen waren aber weder ihre Struktur und Lage noch ihre neuronale Verschaltung bekannt. Mit immunhistologischen und feinstrukturellen Untersuchungen konnten in dieser Arbeit in den letzten Abdominalganglien des Skorpions Paruroctonus mesaensis Zellgruppen identifiziert werden, die vermutlich das strukturelle Korrelat dieser extraretinalen Photorezeption, des metasomalen Lichtsinns (ML), sind. In meiner Arbeit konnten folgende Befunde erhoben werden: Immunhistologische Erkenntnisse: - In den metasomalen Ganglien des Skorpions gibt es wenige Zellen, die immunhistologisch mit Antikörpern gegen Proteine der Phototransduktionskaskade (Opsin, Transducin und Arrestin) reagieren. - Der metasomale Lichtsinn ist kein geschlossenes Sinnesorgan sondern ist aus mehreren Zellclustern mit jeweils etwa 5-7 spindelförmigen kleinen Zellen zusammengesetzt. - Diese ML-Zellgruppen sind bilateralsymmetrisch auf der Ventralseite der Ganglien jeweils an den Übergängen in die Konnektive angeordnet. - Die Zellen sind - wie alle Invertebraten-Photorezeptoren - histaminerg. Ihre kurzen afferenten Axone enden ipsilateral im gleichen Ganglion auf ebenfalls histaminergen Inteneuronen, die bis in das Unterschlundganglion reichen. Feinstrukturelle Erkenntnisse: - Nach den bisherigen Untersuchungen haben alle ML-Zellen die gleiche Feinstruktur. Das Cytoplasma ist sehr reichhaltig mit Mitochondrien und rauhem endoplasmatischen Retikulum gefüllt, was erkennen lässt, dass diese Zellen hochaktiv sind. Sie haben kein Schirmpigment. - Sie besitzen einen länglichen, häufig gelappten Zellkern mit viel Heterochromatin. - Besonders charakteristisch für die ML-Zellen sind Lysosomen, die rhabdomere Abbauprodukte beinhalten. Diese Abbauprodukte verändern sich in Abhängigkeit vom Licht und unter der Kontrolle der inneren Uhr. Es lassen sich die für Arthropodenaugen charakteristischen Abbaustufen für diese exogenen und endogenen Abbauvorgänge feststellen. - An der apikalen Seite der potentiellen Photorezeptorzellen befinden sich lange rhabdomere Mikrovilli, die sich unregelmäßig um eine Lakune winden. Gemeinsam mit Nachbarzellen bilden diese Mikrovilli eine Haube, die von einer Kapsel umschlossen wird. - Das andere Zellende setzt sich in ein kurzes Axon fort. - Efferente Fasern innervieren die afferenten Endigungen der Rezeptorzellen nahe an ihren Terminalen. - Als Besonderheit ist in den ML-Zellen eine einzelne intrazelluläre Cilie zu finden. Sie ist meist zwischen dem Zellkern und einem Golgi-Apparat lokalisiert. Eine potentielle Funktion des Metasomalen Lichtsinns im Skorpion wird insbesondere im Zusammenhang mit der Perzeption natürlicher Zeitgeberreize durch den retinalen und extraretinalen Photorezeptorkomplex.
ZIELSETZUNG: In heutiger Zeit beobachtet man in allen Bereichen der Chirurgie den Trend zu weniger traumatischen Operationen im Sinne einer minimalinvasiven Chirurgie. In der Herzchirurgie ist eines dieser Verfahren die OPCAB-Methode, eine Bypassoperation ohne Einsatz der Herz-Lungen-Maschine (off pump coronary artery grafting). Um eventuelle Vorteile dieser Methode auf die Kontraktilität des Herzmuskels zu untersuchen, wurde sie mit einer Bypassoperation unter Verwendung der extrakorporalen Zirkulation verglichen. Dazu wurde ein Leitfähigkeitskatheter verwendet, welcher die linksventrikuläre Funktion mit Hilfe von Druck-Volumen-Beziehungen vor und nach der Operation erfassen kann. METHODEN: 34 Yorkshire Duroc Schweine wurden sternotomiert und anschließend der jeweiligen OP-Methode zugeführt. Der Leitfähigkeitskatheter wurde in den linken Ventrikel eingeführt. Die Kontraktilitätsparameter wurden prä- und postoperativ gemessen. Eine Gruppe (n=11) wurde für eine Stunde einer normothermen extrakorporalen Zirkulation ausgesetzt. Eine zweite Gruppe (n=8) wurde nach der OPCAB-Methode operiert. Die dritte Gruppe (n=15) diente als Kontrollgruppe ohne Operation und extrakorporale Zirkulation. ERGEBNISSE: In der EKZ-Gruppe zeigt sich postoperativ bei allen bestimmten Kontraktilitätsparametern (ESPVR [p=0,01], dP/dt max [p<0,0001] & EF [p<0,0002]) ein signifikanter Kontraktilitätsverlust des Herzmuskels. Hinzu kommt ein signifikanter Abfall des Herzindex [p=0,0004]. In der OPCAB-Gruppe ist kein signifikanter Unterschied bezüglich der ESPVR [p=0,06] sowie der EF [p<0,65] nachzuweisen. Ebenso kommt es nicht zu einem Abfall des Herzindex [p=0,34]. Nicht ganz eindeutig stellt sich in unseren Versuchen das Ergebnis von dP/dt max [p=0,02] dar. Es zeigt einen signifikanten Unterschied, obwohl dieser von der ESPVR sowie der EF nicht wiedergegeben wird. Im intraoperativen Vergleich zeichnet sich insgesamt ein signifikanter Abfall der Herzmuskelkontraktilität während des Anlegens der Anastomose ab. In der Kontrollgruppe ist bei keinem der bestimmten Parameter im prä- und postoperativen Vergleich eine Änderung nachzuweisen (ESPVR [p=0,94], dP/dt max [p=0,75], EF [p=0,65], CI [p=0,78]). SCHLUSSFOLGERUNG: Der Einsatz der extrakorporalen Zirkulation führt zu einer signifikanten postoperativen Einschränkung der linksventrikulären Funktion. Die OPCAB-Methode führt in der sensiblen Phase des Anlegens der Gefäßanastomose ebenfalls zu einer Einschränkung der Herzmuskelkontraktilität, dennoch sind die Auswirkungen im Vergleich zur extrakorporalen Zirkulation deutlich reduziert. Im prä- /postoperativen Vergleich lässt sich kein Kontraktilitätsverlust nachweisen. Es kommt nicht zu einem Abfall der Herzleistung. Diese Studie zeigt somit einen eindeutigen Vorteil der OPCAB-Methode hinsichtlich Kontraktilität und liefert damit ein zusätzliches Argument zur weiteren Verbesserung dieser OP-Methode.
Viele mikroskopische Vorgänge in Festkörpern und molekularen Verbindungen sind verbunden mit Änderungen ihres Magnetisierungszustandes. Dies macht den Einsatz externer Magnetfeldsensoren interessant, die sich über wohlbekannte Effekte kalibrieren ließen und dann im Messeinsatz quantitative Aussagen liefern können. Nun laufen viele der interessanten magnetischen Vorgänge in besagten Materialien auf sehr schnellen Zeitskalen im Piko- und Subpikosekundenbereich ab. Kein etablierter Magnetfeldsensor kann diese Anforderung leisten. Im Rahmen dieser Arbeit wurde eine systematische Untersuchung verschiedener Ansätze zum Bau ultraschneller Magnetfelddetektoren durchgeführt. Ein Teil der Arbeit beschäftigt sich mit dem Potential photokonduktiver Ringantennen als Emitter und Detektor für ultraschnelle Magnetfelder. Ein alternativer Ansatz zur Messung transienter Magnetfelder besteht in der Verwendung magnetooptischer Sensoren, wie sie in verschiedenen Anwendungen, in denen keine Zeitauflösung gefordert wird, bereits zum Einsatz kommen (z. B. in der Faradaymikroskopie). Es wird eine für ultraschnelle Magnetooptik vielversprechende Materialklasse als Sensormaterial vorgestellt: die DMS-Systeme. Das sind magnetisch dotierte Verbindungshalbleiter, die in der Umgebung ihrer exzitonischen Resonanzen gewaltige Verdetkonstanten aufweisen. Parallel zu den DMS-Systemen wird das Verhalten eines dotierten Eisengranats untersucht, der als Ferrimagnet völlig andere Voraussetzungen als Messsensor bietet. Darüber hinaus werden verschiedene experimentelle Techniken zur Messung magnetooptischer Phänomene vorgestellt und ihre Vor- und Nachteile ausführlich diskutiert. Es wird ein Verfahren entwickelt, das trotz des Einsatzes der hochempfindlichen Differenzdetektion eine gewisse spektrale Auflösung gewährleistet und deshalb den Betrieb der DMS-Systeme als magnetooptische Sensoren erst ermöglicht. Es werden für die verschiedenen Messmethoden und magnetooptischen Materialien die Grenzen der Nachweisempfindlichkeit analysiert und ihre Eignung als schnelle Detektoren untersucht. Die verschiedenen Vor- und Nachteile der beiden Sensorsubstanzen wird anhand der gemessenen magnetischen Transienten detailliert analysiert. Anschließend wird das Optimierungspotenzial der beiden Materialklassen hinsichtlich ihrer chemischen Zusammensetzung ausgearbeitet und dargestellt.
Die vorliegende Studie versteht sich als ein Beitrag zur Geschichte der Kanonbildung, sie führt an eine historische Nahtstelle, an der ein Kanon etabliert, verfestigt und schließlich verändert wird im Laufe von nur wenigen Generationen deutscher Autoren. Es handelt sich um die vielleicht aufregendste Epoche der deutschen Literatur- und Kulturgeschichte: die zweite Hälfte des 18. Jahrhunderts. Ausgangspunkt für diese Beobachtungen bildet nicht ein Text, sondern ein Werk der antiken Kunst, der Torso vom Belvedere, über dessen Wirkung freilich in Texten reflektiert wird. Der Literaturwissenschaftler neigt professionell dazu, sich einseitig auf den Text zu konzentrieren, aber gerade in der Kanondebatte zeigt es sich, daß gravierende ästhetische Entwicklungen sich nicht nur in einem Medium allein formieren: Kanonforschung ist per se interdisziplinäre Forschung.
Folgender Aufsatz basiert auf [...]einem Vortrag "Cornelia und ihre Liebschaft", der am 26. August 1999 im früheren Emmendinger Wohnhaus ("Schlosserhaus") der Schwester Johann Wolfgang Goethes gehalten wurde. Organisation: Kulturamt der Stadt Emmendingen anlässlich des 250. Geburtstags des Dichters. Nach einer kurzen biographischen Übersicht, stehen folgende Überlegungen im Mittelpunkt dieser Arbeit: 1. soll verdeutlicht werden, woher Cornelia Goethes Männer - und Frauenideale stammen 2. wie Cornelia ihre Welt vergeblich nach diesen Idealen zu modellieren versuchte und 3. soll auf eine interessante, von der Forschung bis dahin wenig beachtete weibliche Figur im Leben Cornelias aufmerksam gemacht werden: Sophie von La Roche. Die Erstpublikation enthält einige vergleichende Betrachtungen (auf Portugiesisch) über D. Leonor de Almeida, Marquesa de Alorna, die im selben Jahr wie Cornelia Goethe geboren wurde, den Grafen von Oeynhausen heiratete und in Portugal als Dichterin und Übersetzerin unter dem Namen "Alcipe" Berühmtheit erlangte. Ein Erfolg und eine Art der Selbstverwirklichung, die Goethes Schwester versagt blieben. Während Sophie von La Roches und Alcipes Werke durch Wieland, bzw. Filinto Elysio, Anerkennung fanden und einem breiteren Publikum zugänglich gemacht wurden, blieben Cornelia Goethes schriftstellerische Ambitionen im Versuchsstadium stecken.
Goethe (1749 - 1832)
(2003)
Goethe: den "wahren Statthalter des poetischen Geistes auf Erden" hat Novalis ihn einst in der Romantiker-Zeitschrift "Athenäum" genannt. Es dürfte keine Nation geben, in der ein einziger Name zum Synonym für ihre Kultur geworden ist - die wichtigste kulturpolitische Institution Deutschlands trägt bezeichnenderweise seit dem Ende der Weimarer Republik den Namen Goethes -, keine Nation, die ein halbes Jahrhundert ihrer Literaturgeschichte nach einem einzigen Autor: als "Goethezeit" bezeichnet hat. Den Deutschen gilt Goethe mit fast noch größerer Selbstverständlichkeit als Homer den Griechen, Dante den Italienern, Cervantes den Spaniern, Shakespeare (mit langer Verzögerung) den Engländern oder Puschkin den Russen als ihr größter Dichter.
Eine Nation ohne "Volk" ist nicht denkbar. Nationale Identität stellt sich nur her, wenn ein entsprechendes Bewußtsein sich über die oberen und gebildeten Stände hinaus auch bei den unteren Bevölkerungsschichten verankert. [...] Die Herausbildung patriotischen Engagements und (in dessen zeitlicher Folge) nationaler Identität vollzieht sich im Deutschland des 18. und frühen 19. Jahrhunderts in unterschiedlichen Phasen und Formen. Im Folgenden soll zunächst nach der Entstehung des Patriotismus, soweit er für die Volksaufklärung wichtig ist, gefragt und auf seine spezifischen Ausformungen und praktischen Konsequenzen gesehen werden, um sodann einen Blick auf die aus der gemeinnützig-patriotischen Reformbewegung entstehende Volksaufklärung selbst zu werfen. Welche Bedeutung hatte sie für die Vermittlung von Denkweisen und Haltungen, die sich bei deutschen Gebildeten bereits durchgesetzt hatten, welchen Einfluß nahm sie auf die beim „Volk“ verankerten Vorstellungen vom Funktionieren staatlicher und gesellschaftlicher Institutionen, welche Rolle spielte sie bei der Popularisierung patriotischen Denkens und für die Entstehung einer nationalen Identität? Die eigentliche Bedeutung der Volksaufklärung, dieses vorweg, dürfte darin liegen, daß hier in einem mehr als ein Jahrhundert dauerndem Prozeß die unteren Schichten der Bevölkerung überhaupt erst in die Nation mit einbezogen wurden und auch bei ihnen die Vorstellung von einer modernen Staatsbürgernation Fuß fassen konnte.
Architextur
(2003)
Der Wechsel vom mechanischen zum elektronischen Paradigma, von der klassischen zur modernen episteme bedeutet, so geht aus der hier angestellten Untersuchung hervor, eine große Herausforderung für die Architektur. Solange sich das mechanische Paradigma, die klassischen episteme sich selbst als Architektur erkennen konnten, kann das non-fundamentalistische Paradigma seine Identität in der Art von Architektur nicht mehr finden. (Oder: sie erfindet keine mehr dafür.) Im mechanischen Paradigma konnte man, was wirklich ist und was Wirklichkeit ist am Haus, an dessen fest fundierter, zur harmonischen Einheit gefügter hierarchischer Ordnung zum Zweck der Umschließung ablesen. Das Gebäude konnte auch für das Denkgebäude der episteme ohne weiteres zum Vorbild und Leitbild werden. Die Art von Architektur besitzt aber kaum mehr Gültigkeit für ein Weltbild, das aus Zufallsmomenten und Entgleitungen, aus unregelhafter Mehrdimensionalität, Simultaneität und Virtualität besteht. Um die entgleitende Position des Identitätsstifters einigermaßen restaurieren zu können, sollte die Architektur ihre Konventionen der Formgestaltung, ihre Konventionen der Theoriebildung, ja ihre ganze Architeturidentität ändern. Die ver-störenden Gesten der Grenzverschiebungen in Philosophie und Architektur des Dekonstruktivismus optieren vielleicht dafür.
Zwischen giri und ninjo : der Yakuza-Mythos in Paul und Leonard Schraders Roman und Film THE YAKUZA
(2003)
Für Leonard Schrader war es ein langer Weg bis zu seinem ersten Roman The Yakuza, der in zwei Stufen entstand. Zunächst hatte er bloß eine Story: die Idee zu einer Geschichte, in der ein cleverer, aber tapsiger Amerikaner nach Japan kommt, wo er 20 Jahre zuvor schon einmal war, und dort zwischen alle Regeln und Riten fällt. Ihren besonderen Charakter sollte die Geschichte durch die mythische Dimension erhalten, die Schrader im yakuza-eiga, dem Genre des japanischen Gangsterfilms, vorgefunden hatte.
Ruhm, Ruin und Rilke
(2003)
Schon bei seiner Einführung in die wissenschaftliche Literatur meinte der Begriff Déjà vu anderes als er besagt. Die beiden Primärquellen, auf die sich Ludovic Dugas in seinem terminologisch grundlegenden Artikel von 1894 bezog, verwenden bezeichnenderweise auch gar nicht diesen Ausdruck, sondern einen allgemeineren ...
Im folgenden wird nicht ein Versuch zur Geschichte männlicher Masken unternommen, ebenso wenig wie eine religionswissenschaftliche oder ethnologische Analyse des Maskengebrauchs und seiner gender-Ordnung. Im Kern geht es vielmehr um den denkwürdigen Punkt, dass an der Nahtstelle zwischen Mythos und Aufklärung in der griechischen Antike eine Neukartierung des Männlichen und Weiblichen im Feld des Generativen vorgenommen wird. Die späten Nachfahren dieser männlichen Machtergreifung, um die es im zweiten Teil geht, entwickeln Figuren des Sexuellen, worin das Generative radikal ausgeschlossen und das Begehren zum Schauplatz eines nur noch in sich selbst kreisenden Maskenspiels wird – jenseits jeder Reproduktionslogik. Man könnte die These wagen: die 'Männer' besetzen die mythische Generativität, doch generieren sie nichts mehr außer sich selbst. Vielleicht ist die ungeheure Kreativität, die in der europäischen Moderne (heute besonders auf dem Feld der 'Reproduktion des Lebens') entfesselt wird, nichts als eine Maske, die diese innere Unfruchtbarkeit überdeckt. Nach einer Abklärung des Maskerade-Konzepts, wie es hier verwendet wird, werden in einem ersten Kapitel mythische Beispiele gezeigt, in welchen die mythische Produktivität des Weiblichen (die Magna Mater) dem symbolischen Regime von Herren-Göttern unterstellt wird. Diese Umcodierung wird die abendländische, nämlich männliche Auffassung von Sexualität und Reproduktion nachhaltig prägen. Sie hat ihren Preis. Er wird, im zweiten Teil, errechenbar an den legendären Figuren des männlichen Sex – Casanova, Don Juan, Sade, 'Walter' und Sacher-Masoch –, welche die "Masken des Begehrens" (Ariès / Béjin) in der Moderne bestimmt haben. Im Mittelpunkt steht dabei Sacher-Masoch, der das masochistische Begehren, das den scheinbaren Kontrapunkt zur männlichen Selbstermächtigung darstellt, aus einer Vielzahl mythischer, literarischer und bildkünstlerischer Figurationen des übermachtig Weiblichen und des demütigen, gar geopferten Männlichen synthetisiert.
Wenn alles (oder doch fast alles) ›Kultur‹ ist und Kulturwissenschaftler so eigentlich über alles (oder doch fast alles) Bescheid wissen müssten, ist die Qual der Wahl groß - selbst bei der (ohnehin unabdingbaren) Beschränkung auf Linklisten statt einzelner Seiten. Die vorliegende Bibliographie setzt sich zwei Ziele: Zum einen sollen die wichtigsten Web-Angebote zu Kulturwissenschaften/Cultural Studies erschlossen werden; zum anderen sollen über wenige, anerkannte ›Portalseiten‹ Wege zum Internetwissen über die für den Kulturwissenschaftler relevanten Disziplinen und Forschungsgebiete eröffnet werden. Wie schon bei den vorangehenden Teilen der Bibliographie bitten wir unsere Leser um Alternativ- und Ergänzungsvorschläge. Die Bibliographie wird auch auf unserer Homepage (www.kulturpoetik.de bzw. www.culturalpoetics.net) veröffentlicht, kann also von dort heruntergeladen und im eigenen Browser verwendet werden.
Zu den wichtigsten Neuerungen der "Sattelzeit", dem Übergang von der alteuropäischen zur "modernen" Gesellschaft um 1800, gehört die Herausbildung und Etablierung einiger Begriffe, die sich durch ihre Fähigkeit auszeichnen, eine Vielzahl verstreuter Erscheinungen als kontinuierliches Ganzes zu präsentieren. "Kollektivsingulare" hat Reinhart Koselleck diese Begriffe genannt, zu denen beide Definienten des im vorliegenden Band umrissenen Forschungsbereichs zählen: "die Geschichte" ebenso wie "die Literatur". Diese und andere Kollektivsingulare integrieren, was in einer von der Erfahrung beschleunigter Veränderung geprägten Welt, in der das Wißbare beständig wächst, dem verstehenden Zugriff zu entgleiten droht. In der modernen Welt kommt oder – hier muß mittlerweile vielleicht einschränkt werden – kam ihnen daher eine kaum zu überschätzende kognitive wie lebenspraktische Funktion zu.
Machen wir uns nichts vor. Auch wenn "Event" zum "PR-Wort der letzten Jahre" gekürt worden ist, wenn "Events auf die Besucher wie eine moderne Konsumdroge" wirken, wenn gar vom "Trend zum Event" gesprochen wird, von dem alle Bereiche der Gesellschaft längst so stark erfaßt sind, daß sich ihm nichts und niemand mehr entziehen kann – es bleibt dabei: Wann auch immer davon in Verbindung mit Kultur die Rede ist, da hat man es mit einem bösen Kampfbegriff zu tun. Mit "Eventisierung der Kultur" ist ihr steter Verfall gemeint. Und das Label "Eventkultur" gibt den Zustandsbegriff für eine Gesellschaft, die antrat, mit Kunst und Literatur die höchsten Höhen des Menschenmöglichen zu erreichen, und die nun ihr Bestes, Schönstes und Wahrstes bei einem Schaustellerwettbewerb auf dem Jahrmarkt verhökert. Event, das ist das "zur Sensation hoch inszenierte Nichtereignis, und die größte Kunst im Medienspiel ist das lauteste Krähen". Hier wird, so scheint es, "die Kunst zum bloßen Anlaß für den Konsum (...), zum Alibi", weil sie "in sonderbarer Perversion der alten Horazischen Ästhetik des 'utile cum dulci' und des 'prodesse et delectare', Zucker auf eine Sache streut, die sonst keinem mehr schmeckt." Und das passiert en masse: "Anschwellende Programmhefte, ausufernde Veranstaltungskalender, zunehmender Festivaltourismus, Boom der Multiplex-Kinos, Expo, Millenium Dome – was ist", so fragt sich da der kritische Betrachter mit Blick aufs Literarische, "was ist aus dem Erzählen geworden?" ...
Das Ganze des Teutschen Merkurs, d.h. 38 Jahrgänge, kann man nur quantitativ erfassen. Ich konnte in diesem Beitrag nur einen winzigen Bruchteil der möglichen quantitativen Auswertungen vorstellen. Ich hoffe, anhand des Fächerspektrums, der Beiträger, Wielands spezifischer Herausgebertätigkeit und der Programmatik, die vielfältige Angebote zur Kommunikation, zum Dialog und zur Selbst-Aufklärung beinhaltete, deutlich gemacht zu haben, daß die Verbindung von Kultur, Kommunikation und Aufklärung eine zentrale Rolle für diese Zeitschrift spielte. Umgekehrt hatte aber auch der weit rezipierte Teutsche Merkur eine entscheidende Rolle für die Kultur, Kommunikation und Aufklärung im gesamten deutschen Sprachraum inne.
Pfeilzeichen sind im Alltag des postmodernen Menschen mindestens ebenso präsent, wie es die Pfeile im Leben unserer jagenden Vorfahren gewesen sein dürften. Sie übernehmen wichtige Funktionen bei der Orientierung im Raum, bei der Bedienung von Geräten und bei der Tradierung von Wissen. Pfeilzeichen finden sich draußen wie drinnen, in gedruckten wie in digitalen Medien, sie sind Bestandteile von Bildern, Texten und mathematischen Formeln und vermitteln in vielfältiger Weise zwischen Text, Bild und Zahl. Im Laufe der Zeit hat sich das Pfeilzeichen zu einer hochflexiblen Zeichenfamilie mit einem breiten Spektrum an Formen, Bedeutungen und Funktionen entwickelt. Diese "semiotische Karriere" des Pfeilzeichens möchten wir im folgenden Abschnitt an ausgewählten Beispielen aus Kunst, Literatur und Alltag nachzeichnen, um uns anschließend der erneuten Ausdifferenzierung des semiotischen Potenzials in den neuen Medien zuzuwenden. Die Pfeilzeichen dienen uns dabei als Beispiel, um drei Thesen über Prozesse semiotischen Wandels zu belegen: 1. Neue Zeichenfunktionen und -bedeutungen bilden sich stets auf der Basis bereits vorhandener Funktionen und Bedeutungen heraus. Dabei werden alte Bedeutungen in den seltensten Fällen ersetzt; vielmehr handelt es sich um Prozesse semiotischer Ausdifferenzierung, bei der "ältere" Funktionen und Bedeutungen mit verändertem Stellenwert erhalten bleiben. 2. Die Ausdifferenzierung erhöht die potenzielle Ambiguität von Zeichen und Zeichenkomplexen, sodass deren Interpretation den Zeichenbenutzern immer mehr abverlangt. Gerade am Beispiel der Pfeilzeichen lässt sich sehr gut zeigen, dass deren Funktion und Bedeutung in hohem Maße kontext- und mediengebunden ist und in neuen Medien oft neu erlernt werden muss. 3. Grundlegend für die semiotische Ausdifferenzierung des Pfeilzeichens ist der Stellenwert des Pfeils in einem komplexen Handlungsrahmen, auf den wir mit dem Ausdruck "Pfeil-Szenario" Bezug nehmen. Darin dient der Pfeil als Geschoss einer Waffe, z. B. eines Pfeil-Bogens, seltener auch einer Armbrust oder eines Blasrohrs. Der Pfeil ist ein Element der gesamten Waffe, die sich aus Pfeilspitze, Schaft, Federn (und Ritze) zusammensetzt.
Romantische Ausgelassenheiten : demonstriert an Clemens Brentano ; das Märchen von dem Dilldapp
(2003)
"Kultur" ist im letzten Jahrzehnt zu einem Schlüsselbegriff humanwissenschaftlicher (und auch politischer) Debatten avanciert. Dabei läßt sich allerdings feststellen, daß die Theoriebildung oftmals einen eher diffusen Begriff von Kultur veranschlagt und daß die Kulturtheorie daher noch weit davon entfernt ist, über ein adäquates methodisches Instrumentarium zu verfügen. Es dominieren empirisch-deskriptive Theorien, die den Kulturbegriff so abstrakt-inhaltsleer fassen, daß er nur noch für die symbolischsemiotische Konstruiertheit von Lebenswelt überhaupt steht oder zuletzt semantisch mit "Zivilisation" im allgemeinen zusammenfällt. Für Zwecke konkreter Kultur- und Zivilisationskritik ist ein derart undifferenzierter Kulturbegriff nicht mehr zu gebrauchen. Ja, nicht einmal systematische Deskription leistet er noch, da schon Klassifikationsversuche von Kulturtypen unter den Verdacht politischer Unkorrektheit gestellt werden. Der Verzicht auf systematisierende Kritik erzeugt denn auch den Eindruck von Beliebigkeit, den die meisten aktuellen sogenannten kulturwissenschaftlichen Arbeiten vermitteln.
Ich möchte den Gemeinsamkeiten wie den Differenzen beider Texte nachgehen und aus ihrem Spannungsverhältnis die "Welt" der Venetianischen Epigramme charakterisieren. Zunächst stelle ich vergleichend einige der Prosa und den Epigrammen gemeinsame Themen und Motive vor und suche ihre poetischen Versionen zu analysieren. In einem zweiten Punkt wird sich zeigen, daß Goethe nicht nur zu äußerst gewagten erotisch-sexuellen Themen neigt, sondern diese auch ganz bewußt im unteren sozialen Milieu des "Volks" ansiedelt. Erklärungen dafür kann – drittens – ein Blick auf Goethes Reaktion auf die im Vorjahr 1789 statt-gefundene Französische Revolution bieten und – viertens – zu dem Ergebnis führen, daß auch in seinem Inneren sich eine "Revolution" ereignete, die ihn zu dieser Zeit in Verwirrung und Irritation brachte. "Verwirrung und Irritation" sind wiederum Momente, die auch sein Venedig-Erlebnis vier Jahre zuvor, 1786, prägten. Unterschiedlich jedoch ist deren literarische Behandlung: Erfolgt im Tagebuch der italienischen Reise – das wäre ein fünfter Punkt – ein Ordnungs- und Orientierungsprozeß, so bleibt in den Venetianischen Epigrammen – sechstens - die Turbulenz bestehen, und gerade sie erweist sich als poetisch produktiv. Sie läßt sich – siebtens - generell als "Grenzüberschreitung" definieren, deren poetischen Niederschlag ich in einigen zentralen Bereichen verfolgen möchte, um abschließend in einem achten Punkt nach gemeinsamen Strukturmerkmalen der Venetianischen Epigramme zu suchen. Da Besonderheit und Reiz des ganzen Zyklus aus Goethes Befindlichkeit im Jahre 1790 resultieren, zitiere ich die handschriftliche Urfassung aus dieser Zeit und nicht die abgemilderten und geglätteten Versionen von 1795 und 1800.
Barockrhetorik in Salzburg : zur Rolle der Benediktiner im frühneuzeitlichen Rhetorikunterricht
(2003)
Die Frankfurter Universitätsklinik hat mit der Eröffnung des interdisziplinären Brustkrebszentrums 1997 im Rhein-Main-Gebiet neue Maßstäbe bei der Behandlung von Brustkrebs gesetzt. Ziel ist es, die diagnostischen und therapeutischen Abläufe in der Brustkrebsbehandlung zu optimieren sowie die ökonomischen und fachlichen Ressourcen besser zu nutzen. Doch eine gute Therapie ist nur ein Werkzeug bei der Bekämpfung der seit Jahren zunehmenden Brustkrebserkrankungen. Nach Kaufmanns Ansicht ist es wichtig, "zweigleisig zu fahren: Früherkennungsmaßnahmen tragen dazu bei, Tumoren früh zu erkennen. Darüber hinaus gilt es, durch mehr Information mehr Körper- und Gesundheitsbewusstsein zu entwickeln. Denn wer gut informiert ist, hat die besseren Chancen."
Gegenstand dieser Arbeit war die Untersuchung der optischen und elektronischen Eigenschaften von metallorganischen Materialien, die mit dem Verfahren der Elektronenstrahlinduzierten Deposition hergestellt wurden. Da es sich bei diesen noch relativ unerforschten Endprodukten um Materialmengen von wenigen Nanogramm Gewicht und geometrische Abmessungen im Sub-µm-Bereich handelt, wurden hierzu neue Verfahren der Herstellung, Strukturierung und Charakterisierung entwickelt. Sowohl die optischen als auch die elektronischen Eigenschaften dieser Deponate besitzen einen gemeinsamen physikalischen Nenner in ihrer inneren Morphologie: ein nanokristallines dielektrisches Verbundmaterial, das aus metallischen Kristalliten und organischen Polymeren gebildet wird. Im Hinblick auf die Durchführung der Untersuchungen war das Augenmerk auf zwei potentielle industrielle Anwendungen gerichtet: den Photonischen Kristallen und den Einzelelektronen-Phänomenen bei Raumtemperatur. Mit Hilfe von Beugungsexperimenten im Fernfeld wird ein Verfahren gezeigt, das eine der periodischen Struktur von Photonischen Kristallen angepaßte Charakterisierung von Materialstrukturen mit optischer Bandlücke ermöglicht. Das mathematische Grundgerüst bildet dabei eine rigorose Streutheorie, die als Lösung der Helmholtz-Gleichung an dielektrischen Zylindern mit wenigen hundert nm Durchmesser den Experimenten zugrunde gelegt wird und sowohl für die praktische Dimensionierung des Versuchsaufbaus als auch für die theoretische Auswertung der Meßdaten, z.B. für die Brechungsindexbestimmung, dient. Die Herstellung und Kontrolle der Eigenschaften von Einzelelektronen-Tunnelelementen (SETs, Single Electron Tunneling Devices), welche bei hohen Temperaturen mit einer abzählbar kleinen Anzahl von Elektronen noch arbeiten, dürfte wohl eine der größten Herausforderungen in der heutigen Festkörperelektronik sein. Obwohl die Idee dazu, auf Basis der "Orthodoxen Theorie", bis auf die 80er Jahre des vergangenen Jahrhunderts zurückgeht, konnten nennenswerte Ergebnisse nur unter "Laborbedingungen" mit entsprechend hohem experimentellem Aufwand erzielt werden. In der vorliegenden Arbeit wird ein neuer Weg gegangen, um die beiden wesentlichen Bedingungen der orthodoxen Theorie, nämlich die Kleinheit der Kapazitäten und hohe Tunnelwiderstände, durch das ungeordnete nanokristalline Netzwerk der metallorganischen Deponate zu erfüllen. Die Motivation hierzu liegt in der hochohmigen organischen Matrix der Deponate, die mit darin eingebetteten elektrisch isolierten Nanokristalliten (die mit Durchmessern zwischen 1 nm und 2.5 nm ausgezeichnete Quantenpunkte bilden) eine ideale Umgebung für den Betrieb von Einzelelektronen-Tunnelelementen bereitstellen. Ein stabiles Verhalten unter hohen Temperaturen und eine ausgeprägte Resistenz gegen quantenmechanische Fluktuationen (z. B. dem Co-Tunneln oder Hintergrundladungen) wird durch den Aufbau von nanokristallinen Netzwerken, die in der Arbeit als "Über-SET" bezeichnet werden, erreicht. Mit Hilfe der entwickelten speziellen Technik lassen sich Nanokristallite elektrisch bis zur quantenmechanischen Tunnelgrenze voneinander isolieren und als Quantenpunkte betreiben. Die dabei beobachtbaren Phänomene sind diskretisierte I/U-Kennlinien und das Blockade-Verhalten der Spannung bei Raumtemperatur, deren Entstehung in Monte-Carlo-Simulationen auf zwei physikalische Grundprinzipien zurückgeführt wird: der Ausbildung von Einfangzuständen (Traps) für Elektronen an Grenzstellen und dem Mechanismus des negativen differentiellen Widerstandes (NDR, Negative Differential Resistance). Beide Effekte fungieren in einer gegenseitigen Kombination zueinander durch Coulomb-Wechselwirkungen zu einem mikroskopischen Schalter für den gesamten Strom.
In dieser klinischen Studie wurden 10 normalgewichtige und 10 übergewichtige Patienten mit Diabetes mellitus 2 und einer unbehandelten diabetischen Polyneuropathie über vier Wochen mit a-Liponsäure 1200 mg/die per os behandelt. Vor und nach der Therapie wurde ein intravenöser Glucosebelastungstest bei jedem Patienten durchgeführt und die ermittelten Glucose-, Insulin-, Pyruvat- und Lactatspiegel mit einer Kontrollgruppe (10 normalgewichtige und 10 übergewichtige normoglykämische Kontrollpersonen) verglichen. Die SI und SG Werte wurden mit Hilfe der Minimalmodeling Technik ermittelt. In dieser Studie wurden folgende Ergebnisse erzielt: 1. Die SI- und SG-Werte waren bei der normalgewichtigen Kontrollgruppe höher als bei den übergewichtigen Kontrollpersonen. 2. Die SI und SG waren bei beiden diabetischen Gruppen verglichen mit den Kontrollgruppen vermindert. 3. Die SI-Verminderung in beiden diabetischen Gruppen deutet auf eine primäre Insulinresistenz hin, die für die Entwicklung der Erkrankung entscheidend ist. 4. Bei den Kontrollgruppen waren die Nüchternpyruvatspiegel bei den Über-gewichtigen höher als bei den Normalgewichtigen, wobei die Steigerung der Lactat- und Pyruvatspiegel und damit die errechnete AUC für Pyruvat und Lactat unter dem Glucosebelastungstest keine signifikanten Unterschiede in beiden Gruppen zeigte. 5. Die Nüchternlactatspiegel waren sowohl bei normal- als auch bei übergewichtigen Patienten mit Diabetes mellitus 2, verglichen mit der jeweiligen Kontrollgruppe, deutlich erhöht. Die Nüchternpyruvatspiegel waren bei übergewichtigen Diabetikern jedoch deutlich höher als bei normalgewichtigen Diabetikern. 6. Die deutlich erhöhten Lactat- und Pyruvatspiegel im Nüchternzustand bei diabetischen Patienten weisen auf eine beeinträchtigte basale Glucoseoxidation hin. 7. Unter intravenöser Glucosebelastung stiegen die Pyruvatspiegel stärker als die Lactatspiegel an und waren vor allem bei übergewichtigen Diabetikern deutlich erhöht. Dieser starke Anstieg belegt die verminderte Glucoseoxidation bei Diabetikern. 8. Die vierwöchige a-Liponsäuretherapie verbessert signifikant die SG sowohl bei normalgewichtigen- (** P<0.01) als auch bei übergewichtigen Diabetikern (* P<0.05). Der Therapieeffekt von a-Liponsäure auf die SI war bei normalgewichtigen Patienten deutlich höher als bei übergewichtigen Patienten. Der SG- und SI-Effekt auf die Glucose-Wiederaufbaurate war nach der Therapie verbessert. 9. Bei normalgewichtigen Patienten führte eine vierwöchige a-Liponsäuretherapie zu einer verbesserten Glucoseverstoffwechselung. Der weniger ausgeprägte Therapieeffekt von a-Liponsäure bei übergewichtigen Diabetikern mag wohl auf der Schwere der Stoffwechselentgleisung in dieser Patientengruppe beruhen. 10. a-Liponsäure führte zu einer deutlichen Abnahme der AUC für Pyruvat und Lactat in beiden Gruppen. Dieses Ergebnis deutet darauf hin, dass a-Liponsäure wahrscheinlich über eine Stimulation auf dem Niveau des Pyruvat-Dehydrogenasekomplexes wirkt. a.Liponsäure scheint also sowohl im Nüchternzustand als auch unter Glucosebelastung die Glucoseoxidation bzw. den Pyruvatmetabolismus zu verbessern. Bei Patienten mit Diabetes mellitus 2 ist die Glucoseabbaurate durch eine verminderte aerobe und anaerobe Glucoseoxidation gehemmt. Grund dafür ist wahrscheinlich eine PDH Aktivitätsabnahme. Die ständige Hyperglycämie führt zu einer Zunahme der Pyruvat- und Lactatkonzentration und einer Abnahme der SI und SG. Die orale Einnahme von a-Liponsäure beschleunigt anscheinend den intrazellulären Glucosemetabolismus durch Stimulation der PDH und erhöht das intrazelluläre Redox- potential. Es kommt dadurch wahrscheinlich zu einer Verbesserung der Energiegewinnung aus Phosphaten und mobilisiert den Glucosetransporter, wodurch sich der Glucosetransport in die Muskelgewebe verbessert. Damit führt a-Liponsäure zu einer verbesserten Glucoseutilisation bei Patienten mit Diabetes mellitus 2.
Diese Arbeit untersucht die Produktion von Teilchen durch Vakuumpolarisation in Anwesenheit klassischer Felder. Eine unquantisierte Beschreibung des bosonischen Sektors einer Quantenfeldtheorie wird möglich, wenn dieser stark besetzt ist. Sind die Besetzungszahlen größer als eins, können Quantenprozesse als Korrekturen angesehen werden. Für die Fermionen gibt es wegen des Paulischen Prinzips kein solches Konzept. Situationen mit diesen starkbesetzten Feldern finden sich im Fall der Quantenchromodynamik (QCD) zum Beispiel in ultrarelativistischen Schwerionenkollisionen. Diese werden zur Zeit am Relativistic Heavy Ion Collider (RHIC) am Brookhaven National Laboratory durchgeführt und in Zukunft am Large Hadron Collider (LHC) am CERN untersucht werden. Diese hochbesetzten sind auch starke Felder. Damit können in Abwesenheit weiterer Skalen Prozesse mit unterschiedlich häufigen Kopplungen an das Hintergrundfeld nicht parametrisch unterschieden werden. Die dominanten Quanteneffekte werden durch Terme der klassischen Wirkung. die zweiter Ordnung in den Quantenfeldern sind, repräsentiert. Alle diesbezüglichen Informationen sind in den Propagatoren der entsprechenden Quanten enthalten. Wegen der starken Felder müssen hier die vollen Propagatoren im Hintergrundfeld benutzt werden. Bei schwacher Kopplung - in führender Ordnung in den Quanteneffekten - enthalten sie alle Details über die Streuung der Quantenteilchen am Feld und deren Produktion durch Vakuumpolarisation. Ohne weitere radiative Korrekturen, gibt es in der Quantenelektrodynamik die Produktion von Elektron-Positron-Paaren. Analog dazu werden in der QCD Quark-Antiquark-Paare produziert. Dort kommt aber wegen der Nichtlinearität des Feldtensors noch die Produktion von Paaren gluonischer Quantenfluktuationen hinzu. Die Quarks und Antiquarks sowie die gluonischen Quantenfluktuationen sind parametrisch nicht zu unterscheiden. Für Schwerionenkollisionen lassen sich Größen wie die anfängliche Energiedichte und die Zerfallszeit des hochdichten Regimes abschätzen. Es stellt sich nun die Frage, ob man bei Einschränkung auf diese Situationen eine der beiden Quantenspezies als unwichtig vernachlässigen kann. Im Bereich hoher Teilchenimpulse, läßt sich die Produktion störungstheoretisch beschreiben. Hier untersuche ich zunächst in der niedrigsten Ordnung der klassischen Wirkung die Produktionsprozesse der beiden Arten von Quanten bei Anwesenheit beliebiger Felder. Für die Aufteilung des Gluonenfeldes in seinen Erwartungswert und seine Fluktuationen wird die Hintergrundfeldmethode der QCD verwendet. Für den Spezialfall rein zeitabhängiger Felder werden die Produktionsraten für Parametersätze, wie sie für RHIC und LHC erwartet sind, angegeben. Es stellt sich heraus, daß auf perturbativem Niveau sowohl Situationen, in denen die Fermionen dominieren, als auch solche, in denen die gluonischen Quantenfluktuationen überwiegen' vorkommen. Im Fall der Gluonen könnte der stark besetzte niederengetische Bereich durch das klassische Feld und der hochenergetische schwächer besetzte durch eine perturbative Beschreibung hinreichend genähert sein. Da es für die Fermionen jedoch kein klassisches Feld gibt, bliebe ihr niederenergetischer Bereich vollkommen unbehandelt. Hier ist auf jeden Fall eine nichtperturbative Beschreibung notwendig. Diese kann auf dem vollen Fermionpropagator im Hintergrundfeld aufgebaut werden. Der bereits oben verwendete Spezialfall eines rein zeitabhängigen Feldes kann als Näherung eines boostinvarianten Szenarios in der zentralen Region der Schwerionenkollision gesehen werden. In Anwesenheit derartiger Felder wird hier der volle retardierte Propagator hergeleitet. Für den exakten Propagator und alle Näherungen wird das Impulsspektrum der produzierten Fermionen berechnet. Dabei stellt sich die sogenannte Abelsche Näherung als bester Kandidat neben der exakten Beschreibung heraus. Sie entspricht, im Gegensatz zur störungstheoretischen Näherung, bei der die Fermionen immer mir ihrem asymptotischen kinematischen Impuls propagiert werden, einer Propagation mit dem mittleren kanonischen Impuls, was die Verbesserung der Näherung erklärt. Mit den, durch die induzierten Strömen modifizierten Yang-Mills-Gleichungen, stellt die Arbeit das komplette Funktionensystem dar, daß benötigt wird, um eine selbstkonsistente Berechnung des klassischen Feldes mit perturbativ beschriebenen gluonischen Quantenfluktuationen und exakt berechneten Quarks und Antiquarks durchzuführen.
Das zeitdiskrete Rohrmodell besitzt für die Modellierung der menschlichen Sprachproduktion eine wichtige theoretische und praktische Bedeutung, da es ein mathematisch handhabbares Modell darstellt und zugleich eine vereinfachte akustische Beschreibung des Sprechtraktes beinhaltet. Dies ist einerseits begründet durch die modellhafte Beschreibung der Ausbreitung von ebenen Wellen durch den Sprechtrakt und andererseits in der Darstellung des Rohrmodells als zeitdiskretes lineares System. Erst durch die Verfügbarkeit von adäquaten Schätzalgorithmen, welche die Modellparameter aus dem Sprachsignal bestimmen, ist das Rohrmodell für Anwendungen in der Sprachverarbeitung interessant. Diese liegen allerdings nur für die einfachsten unverzweigten Rohrmodelle vor, welche den Sprechtrakt nur stark vereinfacht modellieren. Für erweiterte Rohrmodelle existieren nur in eingeschränkter Weise adäquate Schätzalgorithmen, mit denen die Modellparameter aus dem Sprachsignal geschätzt werden können. Daher wird mit dieser Arbeit versucht diesen Mißstand aufzulösen, wofür Schätzalgorithmen auch für erweiterte Rohrmodelle entwickelt und vorgestellt werden. Die Erweiterungen des Rohrmodells beziehen sich auf Rohrverzweigungen, die auch mehrfach auftreten können, und Rohrabschlüsse, die frequenzabhängig oder zeitvariabel sein können. Zusätzlich werden Sprechtraktmodelle behandelt, die zwei Systemausgänge aufweisen. Dies wird für Analysen von getrennt aufgenommenen Mund- und Nasensignalen von nasalierten Lauten diskutiert, um die Lippen- und Nasenabstrahlung einzeln zu berücksichtigen. Ebenso werden verzweigte Modelle mit zwei Systemausgängen für eine Beschreibung des Nasaltraktes unter Berücksichtigung der beiden Nasengänge behandelt. Die Erweiterungen des Rohrmodells durch Verzweigungen und angepaßte Rohrabschlüsse ermöglichen eine genauere Beschreibung des Sprechtraktes infolge der Verzweigungen durch den Nasaltrakt und infolge der Abschlüsse an den Lippen, Nasenlöchern und der Glottis. Die Parameterbestimmung wird durch Minimierung eines Fehlers durchgeführt, welcher ein spektrales Abstandsmaß zwischen dem Rohrmodell und dem analysierten Sprachsignal darstellt. Für die Definition des Fehlers wird die inverse Filterung herangezogen, welche eine Leistungsminimierung des Ausgangssignals des inversen Systems beinhaltet. Dabei hat sich gezeigt, daß die Fehlerdefinition der inversen Filterung modifiziert werden muß, um auch erfolgreich auf erweiterte Rohrmodelle angewendet werden zu können. Die Modifikation kann für erweiterte Rohrmodelle einheitlich für den zeitinvarianten und zeitvariablen Fall vorgestellt werden. Über den allgemeinen Ansatz der Schätzung hinaus werden auch effiziente Schätzverfahren für ausgewählte Rohrstrukturen und allgemeine Pol-Nullstellen-Systeme vorgestellt. Die diskutierten Schätzverfahren ermöglichen eine gute Approximation der Sprachspektren durch die Modellbetragsgänge. Darüber hinaus konnte auch gezeigt werden, daß durch entsprechende Rohrmodellstrukturen und eine geeignete Vorverarbeitung des Sprachsignals realistische Querschnittsflächen des Sprechtraktes geschätzt werden können. Daher eignen sich die erweiterten Sprechtraktmodelle auch für die Sprachproduktion. In Synthesebeispielen wurden Lautübergänge auf der Basis von geschätzten Vokaltraktflächen realisiert und in Resynthesebeispielen mittels unverzweigter Rohrmodelle wurde insbesondere die Anregung der Modelle diskutiert. Daß durch die Verwendung von Rohrmodellen auch Lauttransformationen möglich sind, zeigt die vorgestellte künstliche Nasalierung von Sprachsignalen unnasalierter Laute, welche mittels verzweigter Rohrmodelle und Analysen von getrennt aufgenommenen Mund- und Nasensignalen erreicht werden konnte.
Bemerkenswerte Fortschritte in der rekombinanten Antikörpertechnologie und die Entwicklung unterschiedlichster Antikörperformate zur Expression in Bakterien, niederen und höheren Eukaryonten haben Antikörperderivaten vielfältige Anwendungsbereiche eröffnet. Hierzu gehört beispielsweise ihr Einsatz als experimentelle Wirkstoffe in der Tumortherapie, wo einige dieser Ansätze bereits in klinischen Studien evaluiert werden. Daneben könnten rekombinante Antikörperderivate aber auch eine zunehmend wichtige Rolle in der funktionellen Genomik spielen, beispielsweise bei der Aufklärung der Funktion medizinisch relevanter Genprodukte. So stellt der gezielte Einsatz intrazellulär exprimierter single-chain Fv Antikörperfragmente (scFvs) grundsätzlich einen viel versprechenden Ansatz zur selektiven Interferenz mit der Funktion intrazellulärer Proteine dar. Solche scFv Fragmente sind jedoch nach Expression im Zytosol aufgrund des dort vorherrschenden reduzierenden Milieus häufig inaktiv, was auf die nicht erfolgte Ausbildung intramolekularer Disulfidbrücken zurückzuführen ist, die normalerweise in den variablen Domänen von Antikörpern vorliegen. Nur wenige, bisher meist sehr aufwendig durch individuelle Analyse einzelner Moleküle identifizierte scFvs weisen eine ausreichend hohe intramolekulare Stabilität auf, um den Verlust der Disulfidbindungen kompensieren zu können und unter diesen Bedingungen aktiv zu sein. Dies steht bislang einer breiten Anwendung zytoplasmatischer scFvs entgegen. Ziel dieser Arbeit war es, ausgehend von hochdiversen scFv Antikörper-Bibliotheken ("Libraries") direkt solche selten auftretenden scFv Antikörperfragmente zu isolieren, die trotz des reduzierenden Milieus im Zytosol von Säugerzellen aktiv sind und hochspezifisch an die intrazellulären Domänen von ErbB-Rezeptoren wie dem Epidermalen Wachstumsfaktor-Rezeptor (EGFR) oder dem nahe verwandten ErbB2 Molekül binden. Diese ErbB-Rezeptoren sind in einer Reihe humaner Tumore überexprimiert. Als wichtige signalleitende Moleküle tragen sie zur malignen Transformation von Zellen bei und spielen eine wichtige Rolle in der Tumorentstehung und -progression. Sie stellen daher viel versprechende Zielstrukturen für die Entwicklung neuartiger Wirkstoffe dar. Auf der Grundlage des Yeast Two-Hybrid Systems wurde ein in vivo Assay etabliert, der das Screening von scFv Libraries nach ErbB-spezifischen scFvs unter intrazellulären Bedingungen in Hefezellen erlaubt. Während es nicht möglich war, in einer im Rahmen der vorliegenden Arbeit generierten anti-ErbB2 scFv-Library und einer mit 8 x 10 hoch 5 unabhängigen Klonen wenig diversen anti-EGFR scFv-Library intrazellullär aktive ErbBspezifische scFv Antikörper nachzuweisen, konnte eine zweite anti-EGFR scFv-Library aufgrund ihrer großen Komplexität von 2 x 10 hoch 8 nicht komplett in Hefezellen gescreent werden. Die Library wurde daher zunächst durch wenige Runden Phagen Biopanning präselektioniert, um so die Diversität der Library auf ein Maß zu reduzieren, das eine weitere Selektion in vivo durch Yeast Two-Hybrid Screening zuließ. Mit Hilfe dieser Kombination aus in vitro Präselektion und in vivo Assay gelang es, verschiedene intrazellulär aktive EGFR-spezifische scFv Fragmente aus einer anti-EGFR scFv-Library zu isolieren. Durch GST "pull-down" Experimente und Koimmunpräzipitationsexperimente konnten deren Spezifität und intrazelluläre Aktivität in Säugerzellen in vitro und in vivo verifiziert werden. Wie durch Konfokale Laserscanning Mikroskopie gezeigt wurde, kolokalisieren die isolierten scFv Antikörper mit EGFR an der Zellmembran EGFR-überexprimierender humaner Tumorzellen. Ein direkter Effekt der Expression der EGFR-spezifischen scFvs auf die Autophosphorylierung des Rezeptors und auf die Proliferation von EGFRexprimierenden Mausfibroblasten wurde jedoch nicht beobachtet. Die Ergebnisse der vorliegenden Arbeit zeigen, dass mit Hilfe des hier entwickelten Konzepts intrazellulär aktive EGFR-spezifische scFv Fragmente aus einer hochdiversen scFv-Library isoliert werden konnten. Prinzipiell sollte diese Strategie auch auf die Gewinnung intrazellulär aktiver scFv Antikörperfragmente anwendbar sein, die spezifisch an andere zytoplasmatische Zielmoleküle binden. Daneben könnten die Spezifität und intrazelluläre Aktivität der bereits isolierten EGFR-spezifischen scFv Fragmente genutzt werden, um z.B. durch Fusion mit Lokalisierungssignalen, Enzymen oder bestimmten Protein-Protein-Interaktionsdomänen die Signalleitung des EGFR gezielt zu beeinflussen. Entsprechende Ansätze werden gegenwärtig in der Arbeitsgruppe weiter verfolgt.
MHC Klasse I Moleküle liegen im Endoplasmatischen Reticulum (ER) als Dimer bestehend aus einer schweren Kette mit Transmembrandomäne und einem 12 kDa-Protein, dem ß2-Mikroglobulin vor. Nach der Beladung des MHC-Klasse I-Moleküls mit einem antigenen Peptid, welche vorwiegend im Cytosol durch proteasomalen Abbau generiert und durch den Transportkomplex TAP ins ER transloziert werden, findet der Transport des MHC-Peptid-Komplexes zur Zelloberfläche statt. Dort wird das Antigen cytotoxischen T-Zellen präsentiert. An der Assemblierung und Reifung von MHC-Klasse I-Molekülen sind verschiedene Chaperone beteiligt. Eine wichtige Rolle beim Peptidbeladungsprozess von MHC-Klasse I-Molekülen spielt Tapasin. Dabei handelt es sich um ein 48 kDa, MHC-codiertes Typ I Transmembran-Glycoprotein aus der Immunglobulinsuperfamilie. Es verbrückt den TAP-Komplex mit MHC-Klasse I-Molekülen, hält unbeladene MHC-Klasse I-Moleküle im ER zurück und führt eine Qualitätskontrolle des gebundenen Peptids durch. Bei dieser Peptideditierung werden Peptide wieder selektiv aus der MHC-Bindungstasche entfernt, wenn sie mit einer niedrigen Affinität gebunden sind. Dadurch wird sichergestellt, dass keine leeren oder suboptimal beladenen MHC-Peptid-Komplexe an die Zelloberfläche gelangen. In der vorliegenden Arbeit wurde ein System etabliert, mit dem der Einfluss von Tapasin auf die Peptidbeladung von MHC-Klasse I-Molekülen in vitro untersucht werden kann. Dazu wurde ein Verfahren zur heterologen Expression und Reinigung von funktionalem, löslichem Tapasin aus E. coli-Zellen aufgestellt. Weiterhin wurden ß2m und die schwere Kette von HLA-B*2705 heterolog in E. coli-Zellen exprimiert, isoliert und zusammen mit einem Reporterpeptid zum funktionalen HLA-B*2705 renaturiert. Bei Untersuchungen der Wechselwirkung zwischen Tapasin und HLA-B*2705-Molekülen konnte mittels der Oberflächen-Plasmonen-Resonanz-Spektroskopie eine direkte Interaktion zwischen Tapasin und unbeladenem HLA-B*2705 gezeigt werden. Detailliertere Untersuchungen zur Rolle von Tapasin bei der Peptidbeladung wurden mittels einer Gelfiltration gekoppelt mit der Fluoreszenzdetektion des Reporterpeptids durchgeführt. Dabei konnte festgestellt werden, dass unbeladene MHC-Klasse I-Moleküle in Anwesenheit von Tapasin stabilisiert werden und in einer Konformation gehalten werden, die eine Assoziation mit Peptid fördert. Weiterhin wurde gezeigt, dass durch Tapasin die Assoziationsrate für die Peptidbindung erhöht ist. Somit kann in Anwesenheit von Tapasin eine größere Anzahl an Peptiden auf eine stabile und hochaffine Bindung an MHC-Klasse I-Moleküle überprüft werden. In Experimenten mit bereits beladenen MHC-Klasse I-Molekülen konnte gezeigt werden, dass der neugebildetete Komplex auch nach erfolgter Peptidassoziation durch Tapasin stabilisiert wird. Dies ist vermutlich auf eine Erniedrigung der Dissoziationsrate für das Peptid zurückzuführen. Mit dem in dieser Arbeit etablierten Untersuchungssystem ist die Grundlage zu detaillierten Studien der Rolle von Tapasin bei der Peptidbeladung von MHC-Klasse I-Molekülen geschaffen.
Große Stammbäume
(2003)
Sei T ein kritischer oder subkritischer Galton-Watson Stammbaum (GW-Baum) mit einer Kinderzahlverteilung endlicher oder unendlicher Varianz. Wir sind an der Struktur von T , bedingt darauf, dass T "groß" ist, interessiert. Der klassische sowie naheliegende Zugang ist, T auf eine große Gesamtgröße oder eine große Höhe zu bedingen. In dieser Arbeit werden drei, zum GW-Baum eng verwandte Typen von zufälligen Stammbäumen vorgestellt, deren Analyse aufschlussreiche Einsichten über große GW-Stammbäume liefert. Zur Untersuchung dieser auf große Gesamtgröße bedingten Stammbäume schlagen wir eine Familie von zufälligen, größenverzerrten Bäumen vor, deren auf Größe bedingte Verteilung mit der des, auf gegebener Größe bedingten, Baumes T übereinstimmt. Diese zufälligen Stammbäume besitzen eine einfache probabilistische Struktur, wenn man sie entlang der Ahnenlinien von rein zufällig gezogenen Knoten zerlegt. Die Verwandschaftsstruktur des von den gezogenen Knoten und der Wurzel aufgespannten Teilbaumes hängt im wesentlichen von dem asymptotischen Verhalten der Kinderzahlverteilung ab. Während bei endlicher Varianz diese Teilbäume asymptotisch binär sind, können bei unendlicher Varianz im Limes auch andere Formen auftreten. Wir zeigen, dass diese Teilbäume GW-Bäume bedingt auf ihre Gesamtblätterzahl sind. Mit Hilfe der Zerlegung entlang der Ahnenlinien erhalten wir zudem einen Grenzwertsatz für die reskalierte Gesamtgröße des Baumes mit einer Gamma-Verteilung als Limes. Die Analyse großer Bäume führen wir unter dem Aspekt des Größenverzerrens fort, indem wir eine weitere Familie zufälliger Bäume vorschlagen. Diese erhalten wir durch Größenverzerrung in der n-ten Generationsgröße. Wir werden sehen, dass der dadurch gewonnene zufällige Stammbaum eine ähnliche probabilistische Struktur wie der in der Gesamtgröße größenverzerrte Baum besitzt. Hier beweisen wir mit einfachen Überlegungen Aussagen über die Generation des jüngsten gemeinsamen Vorfahren (MRCA) von uniform aus Generation n gezogenen Knoten, sowie die Struktur des von diesen Knoten aufgespannten Skeletts. Schließlich betrachten wir die in [15] vorgestellte probabilistische Zerlegung des auf Mindesthöhe n bedingten GW-Baumes. Damit werden wir klassische Sätze über die Höhe des MRCA und die Grenzverteilung der reskalierten n-ten Generationsgröße für den Fall einer Kinderzahlverteilung mit unendlicher Varianz auf alternativem und anschaulichem Weg beweisen. Zudem erhalten wir eine Grenzverteilung für die Anzahl der Kinder des MRCA.
Durch Substitution der vier Cysteine des a-Amylase-Inhibitors Tendamistat wurden Disulfidmutanten erzeugt. Zur Herstellung wurde im Rahmen dieser Arbeit die statistische Mutagenese angewandt. Die beiden Mutanten 11H27I45R73T und 11H27N45S73D wurden mit einem kombinierten Verfahren aus Olignukleotidsynthese und PCR erzeugt. Dieses hat als Grundlage die Genkassette, die in pT136 und pAX5a enthalten ist. Durch die gleichzeitige Veränderung beider Cysteine einer Disulfidbrücke sind Probleme mit der Einschränkung in der Variantenvielfalt nicht vorhanden, sowie mehrfache Mutationszyklen nicht notwendig. Die 4-fach-Mutanten wurden in Streptomyces lividans kloniert und exprimiert. Dabei konnte gezeigt werden, daß stabiles Tendamistat erhalten wird. Damit wurde Disulfidbrücken-freies Tendamistat erhalten, ohne zusätzliche Mutationen einführen zu müssen.
Boswelliasäuren (BAs) sind pentazyklische Triterpene, die als biologisch aktive Komponenten des Weihrauchharzes aus Boswellia serrata identifiziert wurden. Weihrauchpräparate werden seit langer Zeit in der indischen Medizin zur Behandlung entzündlicher Erkrankungen angewandt. Klinische Untersuchungen an Patienten mit chronisch entzündlichen Darmerkrankungen und peritumoralen Hirnödemen zeigen ebenfalls vielversprechende Effekte. Bislang wurde die 5-Lipoxygenase (5-LO) als Schlüsselenzyms der Leukotrien(LT)-Biosynthese und die Elastase als molekulare Targets der BAs identifiziert und in direkten Zusammenhang mit der antiinflammatorischen Wirkung gebracht. LTs sind wirksame Mediatoren entzündlicher und allergischer Reaktionen, die von Leukozyten freigesetzt werden und ihre Effekte über spezifische G-Protein-gekoppelte Rezeptoren (GPCRs) vermitteln. Unter den verschiedenen getesteten BAs ist 3-O-Acetyl-11-Keto-BA (AKBA) der potenteste 5-LO Inhibitor, wohingegen 11-Keto-BA (KBA) etwa 3-fach weniger aktiv ist und BAs ohne 11-Keto-Funktion (ß-BA und A-ß-BA) kaum wirksam sind. Darüber hinaus lassen AKBA und KBA eine wesentlich potenterer Hemmung der 5-LO Aktivität in intakten Zellen als in zellfreien Systemen erkennen. Die Hemmung der 5-LO bzw. der LT-Biosynthese als antiinflammatorisches Wirkprinzip der BAs wird derzeit sehr kontrovers diskutiert und ist aufgrund der Diskrepanz zwischen den erreichbaren Blutspiegeln und den IC50-Werten für die 5-LO Hemmung eher unwahrscheinlich. Ziel der Arbeit war es die molekularen Grundlagen der pharmakologischen Eigenschaften von BAs aufzuklären. Der Schwerpunkt lag bei der Identifizierung und Charakterisierung zentraler Signaltransduktionsmechanismen, die von BAs in menschlichen Blutzellen (polymorphkernigen Leukozyten (PMNL), Thrombozyten) vermittelt werden. Daneben sollten funktionelle Zellantworten untersucht und in einen kausalen Zusammenhang mit der Signaltransduktion und einer Rezeptoraktivierung gebracht werden. Parallel dazu wurde die Wirkung der BAs auf eukaryontische Zelllinien (MM6 Zellen, HL60 Zellen) untersucht. Überraschenderweise konnte festgestellt werden, dass KBA und AKBA in Konzentrationen > 10 µM potente Aktivatoren von PMNL sind, während BAs ohne 11-Keto-Gruppe kaum aktiv sind. Vergleichbar mit chemotaktischen Stimuli (z.B. fMLP, PAF), erhöhen AKBA und KBA die intrazelluläre Ca2+-Konzentration und aktivieren die Mitogenaktivierten Proteinkinasen p38 MAPK und p42/44MAPK. Untersuchungen der proximalen Signaltransduktionswege ergaben, dass die Phosphatidylinositol 3-Kinase (PI 3-K), nicht jedoch die Proteinkinase C, in die AKBA-induzierte MAPK Aktivierung involviert ist. In Analogie zu chemotaktischen Liganden von GPCR (z.B. fMLP, PAF) kommt es durch Zellstimulation mit BAs zu funktionellen Zellantworten in Leukozyten, Es konnte gezeigt werden, dass 11-Keto-BAs in der Lage sind, die Bildung von reaktiven Sauerstoffspezies, die Freisetzung von Arachidonsäure (AA) und ihre anschließende Metabolisierung durch 5-LO in PMNL zu induzieren, Dies ist einleuchtend, da diese Prozesse u.a. durch Ca2+ Mobilisierung und MAPK Aktivierung vermittelt werden können. Die pharmakologische Charakterisierung der zugrundeliegenden Signalwege liefert Hinweise auf eine Abhängigkeit von Ca2+, die Beteiligung der PI 3-K und der p42/44MAPK. Im Gegensatz zu AKBA und KBA sind BAs ohne 11-Keto-Gruppe (ß-BA und A-ß-BA) potente Agonisten für Thrombozyten und stimulieren, in ähnlichem Ausmaß wie Thrombin, die Ca2+ Mobilisierung und die Aktivierung von MAPK. Auch funktionelle Zellantworten wie die Bereitstellung von AA sowie deren Metabolisierung durch 12-LO werden durch BAs ohne Keto-Funktion induziert. Zusammenfassend sind also BAs in hohen, pharmakologisch nicht-relevanten Konzentrationen als multifunktionelle Agonisten inflammatorischer Prozesse aufzufassen. Es ist jedoch denkbar, dass BAs in niedrigen Konzentrationen eine antagonistische Wirkung an bestimmten Rezeptoren gegenüber chemotaktischen Faktoren (z.B. PAF, LTB4) ausüben. Dies könnte eine plausible Erklärung für die entzündungshemmenden Wirkungen der Boswelliasäuren sein.
Im öffentlichen Diskurs wird Kolumbien vor allem mit Drogenhandel assoziiert. Der über Jahre angehäufte Reichtum der Rauschgiftkartelle beläuft sich mittlerweile zwar auf rund 40% des Gesamtbesitzes im Land, das Drogengeschäft macht jedoch "lediglich" 6% des BIP aus; das ist wesentlich weniger als in Bolivien und Peru. Anbau und Handel mit Koka/Kokain und in geringerem Maße auch mit Opium/Heroin haben keines der Bürgerkriegs-Probleme geschaffen, sondern bestehende nur verschärft. Wo also liegen die eigentlichen Ursachen für die brutalen Menschenrechtsverletzungen im jahrzehntealten Bürgerkrieg, in dem seit 1964 über 200000 Menschen ums Leben kamen? ...
Fest ins Genom integrierte und durch Vererbung (vertikal) weitergegebene endogene Retroviren stellen ein Risiko im Rahmen einer therapeutischen Übertragung von tierischen Zellen, Geweben oder Organen auf den Menschen dar. Bei Verwendung der als Spender bevorzugten Schweine sind zwei Klassen von C-Typ-Retroviren (PERV) bekannt, die zumindest in vitro humane Zellen infizieren können. Deshalb sind eine molekulare Kenntnis und eine genetische bzw. immunologische Kontrolle dieser Viren zur Vermeidung einer potentiellen Infektion von Xenotranplantat-empfängern wünschenswert. Die Analyse einer genomischen Bibliothek des "large white"-Schweins führte zur Charakterisierung von vier nativen proviralen Vollängensequenzen, von denen drei in der Lage sind, auf humanen Zellen zu replizieren, während ein Provirus zwei Stop- Mutationen im Polymerase-Gen trägt. Die Klone PERV-A(Bac-130A12), PERVA( Bac-151B10) und PERV-A(Bac-463H12) gehören zur Klasse A, der Klon PERVB( Bac-192B9) wird der Klasse B zugeordnet. Alle vier Klone weisen hohe Homologien zu bereits beschriebenen Sequenzen (Czauderna et al., 2000; Krach et al., 2001) auf, sind mit diesen jedoch nicht identisch. Die Bestimmung der flankierenden genomischen Sequenzen ermöglicht den spezifischen Nachweis der Proviren in genomischer DNA und zeigt, daß die vom "large white"-Schwein abgeleiteten Sequenzen zur Untersuchung verschiedener Schweinerassen geeignet sind. Desweiteren konnte gezeigt werden, daß die im Klon PERV-B(Bac-192B9) beobachteten Punktmutationen in einigen der untersuchten Individuen revertiert sind. Die Untersuchung von 86 einzelnen Proben aus 5 verschiedenen Rassen zeigt eine sehr heterogene Verteilung der PERV und würde damit eine Züchtung (in Bezug auf replikationskompetente Viren) PERV-freier Schweine ermöglichen. Dies erübrigt sich aber durch die Tatsache, das Miniaturschweine des d/d-Haplotyps für die getesteten Proviren bereits negativ sind. Faßt man die vier hier und die in der Literatur beschriebenen Proviren (Czauderna et al., 2000; Krach et al., 2001) zusammen, scheinen von den etwa 30-50 Integrationsorten im porcinen Genom (LeTissier et al., 1997; Patience et al., 1997) zwischen sechs und zehn replikations-kompetente Proviren zu enthalten. Für den Fall, daß bei einer XTx Partikel freigesetzt werden, geben die Versuche mit den Pseudotypvektoren Hinweise darauf, daß eine Infektion schon nach wenigen Minuten stattfinden kann und damit auch nach einer raschen Entfernung des Organs persistieren könnte. Diese freigesetzten Partikel lassen sich aber durch Antikörper neutralisieren, so daß es möglich erscheint, Patienten sowie deren Ärzte und Kontaktpersonen zu impfen, um einer potentiellen Infektion vorzubeugen. Darüber hinaus scheinen die phylogenetisch jüngeren Viren mit der "repeat"-losen LTR die Fähigkeit verloren zu haben, xenotrop Zellen zu infizieren, da Proviren mit dieser LTR-Struktur weder aus einer 293-PERV-PK-Bibliothek isoliert werden konnten (Czauderna et al., 2000), noch konnten solche Elemente in genomischer DNA dieser Zellinie nachgewiesen werden. Mit der Untersuchung des Infektionsverhaltens von PERV und durch die Möglichkeit, in der XTx verwendete Schweine auf die Präsenz replikations-kompetenter PERV hin zu testen und die chromosomal lokalisierten Proviren eventuell durch Züchtung zu entfernen, leistet die vorliegende Arbeit einen Beitrag dazu, zukünftige Xenotransplantationen in virologischer Hinsicht sicherer zu machen.
Rückblick Die Motivation für diese Arbeit ergibt sich aus den immer neuen Fragestellungen der modernen Wissenschaft. Deren Beantwortung hängt wesentlich von den geeigneten Messapparaturen ab, die Einblicke in physikalische Prozesse erlauben. Durch effektivere und höher auflösende Detektoren werden präzisere, schnellere und schonendere Messungen möglich. Die Zielsetzung dieser Arbeit über den Hochdruck-Gas-Szintillations-Proportionalzähler ist es, einen Detektor zu entwickeln, mit dem hochenergetische Photonen praktisch vollständig vermessen werden können. Dazu gehören: - die Photonenenergie im Bereich von 5 bis 500 keV, - die Richtung der einfallenden Strahlung (bzw. der Auftreffort auf dem Detektor), - der Absorptionszeitpunkt und - die Diskriminierung von Gamma-induziertem Untergrund. Potenzielle Einsatzgebiete des Detektors sind im wesentlichen medizinische, atom- und astrophysikalische Anwendungen. Die vielversprechenden Eigenschaften dieses Detektorkonzeptes, gegenüber herkömmlichen Gasdetektoren, ergeben sich aus den Mechanismen der primären und der sekundären Gasszintillation. Daraus folgen der überlegene Verstärkungsprozess und das schnelle Zeitsignal. Als Grundlage für die in dieser Arbeit diskutierten Ergebnisse dienen die zuvor von Dangendorf und Bräuning entwickelten Konzepte und die von ihnen gebauten Prototypen. Sie sind geeignet für kleine und mittlere Photonenenergien und liefern eine gute Energie- und Zeitauflösung. Die Tests der Ortsauslese mit abbildenden, optischen Systemen zeigten erste Resultate. Ausgehend von diesen bestehenden Entwicklungen war die Motivation der Arbeit, den Aufbau an die gewünschten Anforderungen anzupassen. Für die höheren Photonenenergien werden ein dichterer Absorber, also ein höherer Gasdruck und damit verbunden neue Auslesekonzepte benötigt. Problem Ein zentrales Problem, das aufgrund dieser neuen Anforderungen auftritt, ist der Druckunterschied zwischen dem Hochdruck-Szintillator und der bei Niederdruck oder im Vakuum betriebenen UV-Auslese. Die dadurch bedingten Kräfte machen entweder besondere Stützstrukturen oder stabile - und dadurch dicke - Fenster erforderlich. In beiden Fällen geht ein Teil des Signals verloren und die Detektorauflösung nimmt ab. Es handelt sich dabei jedoch nicht um prinzipielle Probleme. Die Schwierigkeiten sind rein technischer Natur. Deshalb wurde intensiv weiter nach neuen Konzepten und Lösungsansätzen gesucht, die die Vorteile dieser überlegenen physikalischen Prozesse ausnutzen können. Lösungsansatz Das konkrete Ziel - bzw. die Aufgabenstellung - dieser Arbeit war, mit neuen Technologien, und dabei vor allem mit einem neuen Mikrostruktur-Elektroden-System, bislang bestehende technische Hürden zu überwinden (Kapitel 3). Durch die Möglichkeit, einen in das Hochdruckvolumen integrierten Photonendetektor zu bauen, werden viele der Stabilitätsprobleme gelöst. Mit der großflächigen Auslese des Szintillationslichts direkt dort, wo es entsteht, werden die Transmissionsverluste in Fenstern vermieden. Es gibt damit nur kleine raumwinkelabhängige Effekte und es wird nur ein Gasvolumen und damit kein zusätzliches System zum Evakuieren, Zirkulieren und Reinigen benötigt. Durch die Trennung der Energie- und der Ortsinformation und deren separate Auslese wird zwar die Komplexität des Detektors erhöht, die Teilsysteme können jedoch unabhängig für die jeweiligen Anforderungen optimiert werden. Grundlagen Im Rahmen dieser Arbeit wurden bereits existierende Erfahrungen aufgegriffen und in deren logischer Fortsetzung, ein, in das Szintillatorvolumen integrierter, UV-Photonendetektor entwickelt. Zunächst musste mit einer umfangreichen Recherche ermittelt werden, welche Anforderungen an einen integrierten Photonendetektor bestehen und wie ein solches System in den Aufbau eingebunden werden kann. Mit dem GEM, der sich schon in diversen anderen Gasdetektoranwendungen als universell einsetzbarer Verstärker bewährt hatte, war ein potenzielles Mikrostuktur-Elektroden-System für unsere Anwendung gefunden. Um die Einsatztauglichkeit dieser Mikrostrukturen für die neuen Applikationen zu analysieren, wurden sie im Standard-Design, unter vielen verschiedenen Betriebsparametern getestet. Dabei wurden wertvolle Erfahrungen im Umgang mit den Mikrostrukturen gesammelt. Die GEMs wurden in den typischen Detektorgasen, bei verschieden Drücken, elektrischen Spannungen und Feld-stärken studiert. Dabei wurden die Chancen, aber auch - vor allem aufgrund elektrischer Überschläge und Instabilitäten - die Grenzen des damit Erreichbaren, aufgezeigt. Mit der Herstellung der speziell für diese Anwendung entwickelten GEMs wurde die Grundlage für den stabilen Betrieb des Detektors geschaffen. Simulationsrechnungen In Kooperation mit einer italienischen Gruppe vom INFN in Cagliari haben wir, mit dem Detektor-Simulations-Programm Garfield, Berechnungen durchgeführt (Kapitel 4). Damit konnte schon vor der technischen Realisierung ein Überblick über die Betriebsbedingungen eines mehrstufigen und komplexen Systems gewonnen werden. Dazu zählen die messtechnisch erfassbaren Größen, wie z.B. die mittlere Gasverstärkung und Diffusion. Daneben konnten aber auch die Prozesse im Kleinen studiert werden. Von besonderem Interesse für die Funktion des Detektors ist dabei der Verlauf der Feldstärke in den Poren der Mikrostrukturen und den umliegenden Regionen. Dessen räumlicher Verlauf in Kombination mit den jeweiligen Gasdaten bestimmen die Elektronentransportparameter, die Gasverstärkung, die Diffusion und die Effizienz. In den Xenon-Szintillator integrierter UV-Photonen-Detektor Der UV-Photonendetektor konnte in zwei Varianten erfolgreich in ein Volumen mit dem Xenon-Gas-Szintillator integriert werden. Die Verbindung der CsI-Photokathode mit dem Elektronenverstärker wurde dabei zum einen als semitransparente dünne Schicht auf einer Quarzglasplatte vor der GEM-Folie und zum anderen als opake Variante auf der Frontseite des GEM realisiert. Bei der Auslese des Xenon-Szintillationslichts mit einer in reinem Xenon und bei hohem Druck betriebenen CsI-Photokathode, wurde Neuland betreten. Es wurde erfolgreich gezeigt, dass der integrierte Photonendetektor auf GEM Basis für die hier diskutierten Einsatzbereiche und Anforderungen funktioniert. Die Ankopplung der Photokathode an die Verstärkerstruktur und dabei vor allem der Elektronentransport von der CsI-Schicht in die Verstärkungszone, wurden im Detail untersucht. Dass die Gasverstärkung in reinem Xenon bei den beschriebe-nen Betriebsparameter überhaupt funktioniert, liegt zum einen daran, dass die optische Rückkopplung mit diesem neuen Design effektiv unterdrückt werden kann. Zum anderen konnten die Einflussparameter auf die Gasverstärkung, für den mehrstufigen GEM-Verstärkungsprozess in reinem Xenon, im Detail untersucht werden. Die gekoppelten Gas-Verstärker-Elemente wurden mit einer eigens für diese Anwendung entwickelten Versorgungsspannungsquelle betrieben, die die Folgen von elektrischen Überschlägen minimiert (Kapitel 5.1.3). Gegenüber den herkömmlichen Gasdetektoren ist es mit diesem neuartigen Aufbau möglich, den UV-Photonen-Detektor bei diesen Betriebsparametern stabil zu betreiben. Abbildende Optiken - optische und mechanische Eigenschaften Parallel zur Entwicklung dieses großflächigen Detektors zur Messung des Energiesignals und der Registrierung des primären Lichts, wurde das Konzept zur Ortsauslese via abbildender Optik weiterverfolgt. Die optischen Abbildungseigenschaften der Linsen wurde im Wellenlängenbereich des Xenon-Szintillationslichtes untersucht. In ersten Tests konnte bei kleinen Gasdrücken und somit geringen mechanischen Beanspruchungen die Ebene der Sekundär-lichterzeugung auf einen gekapselten Mikro-Kanal-Platten-Detektor abgebildet werden. Die Festigkeit der Quarzglaslinse für die Druckbeanspruchungen im hier diskutierten Detektor konnte in Zusammenarbeit mit der Fachhochschule Heilbronn - mittels Finite-Elemente-Berechnung - als ausreichend verifiziert werden. Ausblick Die beiden getrennten Systeme für Orts- und Energiemessung funktionieren unabhängig voneinander. Die Vorraussetzungen für die Kombination der Komponenten in einem gemeinsamen Aufbau sind damit geschaffen. Damit ist der Weg für die folgenden Schritte in diesem Projekt aufgezeigt. Als logische Fortsetzung dieser Arbeiten ist geplant, den integrierten Photonendetektor mit der Photokathode auf der GEM-Frontseite, zusammen mit der Ortsauslese gemeinsam aufzubauen. Von dieser Kombination profitiert das Auflösungsvermögen beider Messungen. Die Korrektur der ortsabhängigen Schwankungen in der Effizienz der Photokathode verbessert die Energieauflösung signifikant. Auf der anderen Seite kann durch das geschickte Setzen von geeigneten Bedingungen auf das Energiesignal die Ortsmessung optimiert werden. Als weiterer naheliegender Schritt auf dem Weg zum effizienten Nachweis der hochenergetischen Photonen, bietet sich der Einbau einer zusätzlichen Verstärkungsstufe zum Aufbau eines dreifach-GEM-Detektors an. Damit kann bei höheren Gasdrücken, trotz kleiner werdender maximaler Verstärkung pro GEM, eine ausreichende Gesamtverstärkung erreicht werden. Der Einsatz des Detektors in einem größeren Experiment, in Kombination mit anderen Messapparaturen, rückt somit in greifbare Nähe.
Wir haben uns in dieser Arbeit der möglichen Produktion Schwarzer Löcher in hochenergetischen Teilchenkollisonen unter Annahme einer Raumzeit mit großen Extra-Dimensionen gewidmet. Die Produktionsraten, die bei einer neuen fundamentalen Skala im Bereich Mf ~ 1 TeV zu erwarten sind, liegen für den LHC in der Größenordnung von ~ 10 hoch 8 Schwarzen Löchern pro Jahr. Diese hohe Anzahl begründet das Interesse an den Eigenschaften der produzierten Schwarzen Löchern und wirft die Frage auf, wie diese Objekte beobachtet werden können. Bei der Untersuchung der Eigenschaften dieser Schwarzen Löcher haben wir festgestellt, dass das Entstehen Schwarzer Löcher ab einer c.o.m.-Energie im Bereich der neuen Planck-Masse zu einer raschen Unterdrückung hochenergetischer Jets, wie sie in pp-Kollisionen entstehen, führt. Dies ist ein klares Signal und leicht zu beobachten. Unter Ansetzen des Mikrokanonischen Ensembles haben wir die Zerfallsrate der Schwarzen Löcher und ihre Lebensdauer berechnet. Es zeigt sich, dass diese Lebensdauer hoch genug ist, um ein zeitlich deutlich verzögertes Signal zu erhalten. Nimmt man an, dass die statistische Mechanik bis zur Größenordung Mf gülig bleibt, so gelangen die Schwarzen Löcher im Zuge ihrer Verdunstung in einen quasi-stabilen Zustand und ein Rest verbleibt. Die Lebenszeit ist von der Anzahl der Dimensionen abhängig und lässt so Rückschlüsse auf diesen Parameter zu. Im Falle (Mf ~ TeV, d > 5) liegt sie für Energien von ~ 10 TeV in der Größenordung 100 fm/c. Eine geometrische Quantisierung der Strahlung legt außerdem nahe, dass die Schwarzen Löcher nicht restlos verdampfen können, sondern ein stabiler Überrest verbleibt. Diese Ergebnisse sind in [202, 203, 205] veröffentlicht worden.
Die Immobilisierung ist eine wichtige Ursache von Knochenverlusten. Viele Autoren haben über eine erhebliche Abnahme der Knochenmasse nach Frakturen der langen Röhrenknochen berichtet, die nicht nur die Frakturstelle, sondern auch deren Nachbarschaft betrifft. Angegeben wurden Substanzverluste von bis zu 50 % sowohl proximal als auch distal der Frakturstelle. Im Erwachsenenalter kommt es über einen Zeitraum von mehreren Jahren zu einer partiellen Wiederherstellung der Knochenmasse, die allerdings auch ausbleiben kann. Untersuchungen nach Radiusfrakturen wurden bisher qualitativ mittels nativer Röntgendiagnostik durchgeführt. Die Verlaufsbeobachtung mittels DEXA ermöglicht die quantitative Bestimmung der Knochendichte und Lokalisation der ersten, bzw. stärksten Atrophie im Handskelett. Da bisher für die Früherkennung einer Heilentgleisung im Stadium I lediglich die mehr oder weniger stark ausgeprägten klinischen Symptome einen Anhalt bieten, wäre die Feststellung eines quantitativen Schwellenwertes mit einer hohen Genauigkeit eine Bereicherung für Definition, Früherkennung und Therapiekontrolle einer Heilentgleisung, bzw. Algodystrophie. Um einen vergleichenden Bezug herstellen zu können, wird die Kenntnis des "physiologischen" Knochenmineralsalzgehaltes entsprechend der Händigkeit vorausgesetzt. Um letzteres zu eruieren soll die Studie dienen. Ferner soll ein objektives und sensitives Maß für die Beurteilung des Ausmaßes einer seitendifferenten Bemuskelung, z. B. im Gutachtenwesen, erarbeitet werden. Die primären Zielvariablen sind die Knochendichte der Hände sowie die Muskel-, Mineral- und Fettmasse der oberen Extremitäten absolut und relativ zur dominanten Seite. Anhand dieser Variablen soll das Ausmaß der "physiologischen" Gewichtung durch die Händigkeit bestimmt werden und Berücksichtigung finden bei der Beurteilung fraglicher "pathologischer" Entmineralisierung, bzw. Muskelatrophie einer Seite. Die Knochendichte und der Knochenmineralgehalt der Hand sowie die Ganzkörpergewebszusammensetzung wurden mittels DEXA (Dual X-Ray Absorptiometry) ermittelt. 114 gesunde weiße Frauen und Männer ohne Verletzungen der oberen Extremität nach der Pubertät im Alter zwischen 20 und 82 Jahren, davon 19 Links- und 95 Rechtshänder, erhielten Scans beider Hände sowie des ganzen Körpers. Durch Serien- und Doppelbestimmungen wurde die Präzision der Knochendichtemessungen kontrolliert. Es zeigte sich ein Variationskoeffizient von 0,3 % bis 0,8 % in Abhängigkeit von der ROI-Position. Das verwendete DEXA-Gerät ist also in der Lage, die Knochendichte mit hoher Präzision zu bestimmen. Wir konnten in unserer Studie signifikante Differenzen zwischen beiden Armen, bzw. Händen bei Normalpersonen nachweisen. Die prozentualen Unterschiede zwischen dominantem und nicht dominantem Arm liegen für die BMD (Knochendichte) bei insgesamt 2,7%, für die BMC (Knochenmineralgehalt) bei 7,4%, für die Muskelmasse bei 11,5% und für das Absolutgewicht (BMC + Muskelmasse + Fettmasse) beider Arme bei 8,3%. Der prozentuale Fettgehalt war dabei im dominanten Arm durchschnittlich 2,3% niedriger als im kontralateralen Arm. Kein Unterschied zwischen beiden Armen konnte beim absoluten Fettgehalt gefunden werden. Ebenfalls signifikante Abweichungen bestehen für BMD und BMC beider Hände. Der mittlere prozentuale Unterschied liegt hierbei für die BMD bei 3,8% und für die BMC bei 5,9% . Bei Linkshändern sind jedoch im Unterschied zu Rechtshändern alle Mittelwerte im nicht dominanten, rechten Arm höher als im dominanten Arm - mit Ausnahme des absoluten und prozentualen Fettgehalts, wo das Gegenteil gilt. Diese Unterschiede sind für die BMC mit 4,8 %, die Muskelmasse mit 6,7 % sowie den absoluten und prozentualen Fettgehalt mit 9,4 % und 3,2 % signifikant. Keine signifikante Differenz bei Linkshändern besteht für die BMD und das Gesamtgewicht des Armes. Die Hände betreffend zeigen Linkshänder im Gegensatz zu Rechtshändern keinerlei signifikante Abweichung. Die geschlechtsspezifischen Unterschiede betrachtend, verlieren Frauen bereits mit Eintritt in die Menopause kontinuierlich an Knochenmasse in Armen und Händen, wohingegen bei den männlichen Individuen ein Anstieg von BMD und BMC bis zum 69. Lebensjahr zu verzeichnen ist. Erst danach kommt es zu einer signifikanten Abnahme, die jedoch geringer ausgeprägt ist als bei den weiblichen Personen. Der Unterschied zwischen beiden Geschlechtern beläuft sich für die BMD der Arme auf insgesamt 17% und für die BMC auf 36%. Die Hände betreffend sind die Differenzen zwischen männlichen und weiblichen Personen etwa um ein Drittel niedriger und betragen 11% für die Knochendichte und 28% für den Knochenmineralgehalt. Postmenopausale Frauen haben im Durchschnitt in den Armen und in den Händen ca. 10% weniger Knochenmasse als premenopausale Frauen. Männliche Personen haben im dominanten Arm insgesamt 39% und im nicht dominanten Arm 42% mehr Muskelmasse als Frauen. Der Fettgehalt in beiden Armen ist bei Männern ca. 21% niedriger als bei Frauen. Die Knochendichte der Hände kann auch zur Abschätzung der systemischen Mineralisierung herangezogen werden. So besteht eine positive signifikante Korrelation zwischen der BMD der Hand einerseits und der des gesamten Körpers (r = 0,62) sowie dem T-Score whole body (r = 0,78) als Maß der systemischen Mineralisierung. Auch BMD von Hand und gleichseitigem Arm korrelieren gut miteinander (r = 0,72), ebenso die Knochendichte der Arme einerseits und die Muskelmasse (r = 0,72) des gleichseitigen Armes, das Körpergewicht (r = 0,49) und die Körpergröße (r = 0,54) andererseits. Eine negative signifikante Korrelation konnte unter anderem nachgewiesen werden zwischen der BMD der Arme und ihrem prozentualen Fettgehalt (r = -0,71). Diesen Ergebnissen zufolge ist also von einem geringen, aber signifikanten Unterschied bei der Knochendichte, dem Knochenmineralgehalt und der "body composition" (Gewebszusammensetzung) zwischen beiden Armen und Händen - mit Ausnahme des absoluten Fettgehalts - bei Rechtshändern auszugehen. Bei Linkshändern dagegen liegt keine reine Linkshändigkeit vor.
Betrachtet man als Sprecher oder Sprecherin des Deutschen die mit '-su' derivierten Verben im Aymara und ihre spanischen Übersetzungen, so fällt auf, daß diese Verben häufig eine Entsprechung in einem deutschen Partikelverb mit 'aus-/heraus-' oder 'auf-' haben, und zwar nicht nur dann, wenn sie Bewegungsvorgänge bezeichnen, sondern auch, wenn keine Direktionalität erkennbar ist. [...] Diese Parallele zwischen '-su' und 'aus-' oder 'auf-' ist frappierend, wenn man bedenkt, dass die beiden Sprachen keinerlei genetische Beziehung haben, und die Annahme liegt nahe, daß hier ein ähnliches kognitives Konzept zugrundeliegt. Um dies genauer beurteilen zu können, ist allerdings mehr Information über '-su' im Aymara nötig. So habe ich mir für die vorliegende Arbeit zum Ziel gesetzt, die Semantik von '-su' im Aymara genauer herauszufinden und herauszuarbeiten, welche Funktionen das Suffix hat. Dabei interessierte mich zum einen, ob sich neben den in den Aymara-Grammatiken beschriebenen Funktionen des Morphems, nämlich der Markierung der Richtung 'nach außen' und des kompletiven Aspekts, noch weitere Funktionen herausarbeiten lassen und wie diese mit der Semantik der jeweiligen Verbwurzel interagieren. Daneben widmete ich mich der Fragestellung, worin der Zusammenhang zwischen den verschiedenen Funktionen des Morphems bestehen könnte.
Die Mehrzahl der akuten B-Zell Leukämien (B-ALL) im Kindesalter kann heutzutage geheilt werden (ca. 80%). Es gibt jedoch eine Untergruppe, die sog. Hochrisiko-Leukämien, der ein anderer Pathomechanismus zu Grude liegt und für die keine effektive Therapie zur Verfügung steht. Diese Form tritt fast ausschliesslich bei Kleinkindern im ersten Lebensjahr und bei älteren Patienten als Sekundärleukämie nach Chemotherapie auf. Diese akuten Hochrisiko-Leukämien sind zu 80% mit Translokationen des MLL Gens, Chromosom 11, Bande q23, assoziiert. Die reziproke Translokation t(4;11), bei der das MLL Gen mit dem AF-4 Gen fusioniert wird, hat die Expression der zwei funktionellen Derivatproteine MLL.AF-4 und AF-4.MLL und gleichzeitig eine Dosisreduktion des nativen MLL Proteins um 50% zur Folge. Das Zusammenspiel dieser Fakoren scheint die Grundvoraussetzung für die pathologische klonale Expansion leukämischer Blasten zu sein. Aus Untersuchungen in Drosophila melanogaster und im Maussystem ist bereits bekannt, dass das Wildtyp MLL Protein eine essentielle Funktion in der Steuerung von Genexpression durch Histon- und Chromatinregulation ausübt. Daraus stellte sich als Gegenstand dieser Arbeit die Frage nach der bislang überwiegend unbekannten Wildtyp-Funktion des MLL Proteins, und inwieweit das native Expressionsmuster einer Zelle durch die MLL Dosisreduktion beeinflusst, bzw. verändert wird. Zunächst wurden die MLL Targetgene identifiziert, und zwar anhand von je zwei DNA-Microchip-Hybridisierungen mit cRNA aus den MLL+/+ und MLL-/- Fibroblasten-Zelllinien. Der Expressionsvergleich dieser Datensätze ergab insgesamt 197 differentiell exprimierte Gene, die sich in der Expressionsstärke um mind. den 2,5-fachen Wert unterscheiden. Davon wurden 136 Gene bei völliger Abwesenheit des MLL Proteins, im Vergleich zum Normalzustand der Wildtyp-Zellen, um mind. den 2,5-fachen Wert transkriptionell aktiviert, die übrigen 61 Targetgene um mind. diese Stärke transkriptionell deaktiviert. Die Entdeckung dieser transkriptionell reprimierenden Eigenschaften des MLL Proteins, von dem bislang ausschliesslich aktivierende und transkriptionsaufrechterhaltende Eigenschaften bekannt waren, ist eines der wesentlichen Ergebnisse der vorliegenden Arbeit. Ein Teil der, durch die Abwesenheit des MLL Proteins hochregulierten 136 Gene ist bereits als Tumormarker bekannt oder an folgenden onkogenen Mechanismen beteiligt: Proliferation durch Fehlsteuerung des Zellzyklus mit gesteigerter Nukleotid-Biosynthese, erhöhte Migrationsaktivität durch veränderte extrazelluläre Matrix mit der Folge von Metastasierung/Organinfiltration, erhöhter Schutz vor proteolytischem Abbau nukleärer (Onko-) Proteine, und der Generation von Spleiss-Varianten mit z.T. negativem Einfluss auf essentielle Differenzierungswege. Zu diesen, in der Summe das Krebsrisiko erhöhenden Effekten, kommt noch hinzu, dass eine Gegenregulation durch MLL induzierte Expression von Tumorsuppressoren (verschiedene Zellzyklus- Inhibitoren) fehlt. Da bei Leukämie-Zellen die MLL Proteindosis reduziert ist, liegt der Schluss nahe, den oben genannten 136 identifizierten Genen eine mögliche direkte Beteiligung an der Leukämogenese beizumessen. Die meisten der 61 Gene, die durch das MLL Protein transkriptionell aktiviert wurden, kodieren für Faktoren, die zum größten Teil in embryonale Differenzierungsprozesse involviert sind. Dabei spielt die Entwicklung von meso- und ektodermalen Geweben eine besondere Rolle. Das MLL Protein ist somit für die Organogenese von Herz, Leber, Nieren, sensorischen Organen, hämatopoietischen Zellen und ebenso für Knochen und Muskeln essentiell. Die gewonnenen Daten wurden durch verschiedene Experimente (subtraktive Klonierung und RT-PCR) verifiziert und die wenigen, bereits publizierten MLL Targetgene konnten durch diese Arbeit bestätigt werden. Neben den Targetgenen des MLL Proteins sollten auch diejenigen der beiden Derivatproteine MLL.AF-4 und AF-4.MLL identifiziert werden. MLL+/+ Zellen wurden mit den humanen Derivatkonstrukten stabil transfiziert und im Vergleich zur Leervektor-Kontrolle per DNA-Microchips analysiert. Wieder Erwarten wurden keine unterschiedlichen Transkriptionsmuster erhalten. Daraufhin wurden Komplementationsexperimente zur Eignungsüberprüfung des Testsystems durchgeführt. Es stellte sich heraus, dass das humane MLL Expressionskonstrukt die MLL-/- Zellen funktionell nicht komplementieren konnte. Dafür gibt es verschiedene Erklärungsansätze, wobei jedoch die Hypothese, dass das "transkriptionelle Gedächtnis" in den murinen embryonalen Fibroblasten (Entwicklungsstatus Tag 10,5 p.c.), bereits stabil etabliert und nur noch marginal veränderbar ist, die Wahrscheinlichste ist. Sollte sich herausstellen, dass die epigenetische Programmierung der Zellen verantwortlich für die hier erhaltenen Ergebnisse ist, hätte das einen dramatischen Einfluss auf unser Verständnis vom Leukämie-Pathomechanismus. Es würde nämlich bedeuten, dass MLL und davon abgeleitete reziproke Derivatproteine nur in einem engen Zeitfenster Einfluss auf Genexpressionsmuster haben und nach einen "hit and run" Mechanismus die Leukämie auslösen.