Refine
Year of publication
Document Type
- Article (13386)
- Part of Periodical (8288)
- Book (5974)
- Doctoral Thesis (3639)
- Part of a Book (2844)
- Review (2562)
- Contribution to a Periodical (2365)
- Working Paper (1015)
- Report (1014)
- Conference Proceeding (515)
Language
- German (42860) (remove)
Has Fulltext
- yes (42860) (remove)
Keywords
- Deutsch (782)
- Literatur (739)
- Rezension (434)
- Deutschland (388)
- Frankfurt <Main> / Universität (341)
- Rezeption (286)
- Geschichte (257)
- Film (224)
- Vorlesungsverzeichnis (223)
- Hofmannsthal, Hugo von (217)
Institute
- Präsidium (5135)
- Medizin (2368)
- Extern (1767)
- Gesellschaftswissenschaften (1381)
- Rechtswissenschaft (1032)
- Geschichtswissenschaften (914)
- Biochemie und Chemie (888)
- Neuere Philologien (827)
- Wirtschaftswissenschaften (779)
- Physik (692)
Ziel dieser Arbeit ist es, eine Lücke im methodischen Spektrum neurobiologischer Methoden zu schließen. Es ist heute möglich, das Gehirn auf unterschiedlichen Ebenen zu beschreiben. Es stehen jedoch keine Methoden zur Verfügung, um die Anordnung der Zellen innerhalb eines Nukleus quantitativ zu beschreiben. Die Anzahl und die Anordnung der Zellen ist jedoch eine essentielle Voraussetzung, um die Funktion eines Nukleus zu verstehen. Das hier vorgestellte Verfahren zur Rekonstruktion eines Nukleus basiert auf Nissl-gefärbten Semidünnschnitten der Medialen Superioren Olive (MSO) der Wüstenrennmaus Meriones ungiuculatus. Diese werden mit einer Digitalkamera lichtmikroskopisch aufgenommen und bilden die Basis der Rekonstruktion. In einem ersten Schritt werden innerhalb einer Schnittebene mehrere Einzelbilder patchworkartig zu einem Image Mosaic zusammengefügt. Durch diesen Schritt ist die Auflösung innerhalb einer Schnittebene praktisch unbegrenzt. Das Verfahren beinhaltet mehrere Kontrollmechanismen und funktioniert praktisch fehlerfrei. Danach werden die Bilder farblich korrigiert und mit Methoden der Mustererkennung werden die Zellkerne extrahiert. Die Extraktion der Zellkerne steht in ihrer Qualität einer manuellen Extraktion in nichts nach. Die Zellkerne dienen als Grundlage für den Archimedes-Alignment-Algorithmus, der die Schnittserie in einen dreidimensionalen Bezug setzt, indem aufeinander folgende Schnitte aneinander ausgerichtet werden. Auch dieses Verfahren beinhaltet eine Kontrolle und funktioniert fehlerfrei. Aus diesen Daten kann dann eine Rekonstruktion erstellt werden. Diese wird weiter ausgewertet und ergibt schließlich ein dreidimensionales Abbild des untersuchten Bereichs. Sämtliche Verfahrensschritte arbeiten entweder fehlerfrei oder mit einer nur sehr geringen Fehlerrate. Somit stellt dieses Verfahren eine robuste, effiziente und universell anwendbare Möglichkeit für die umfassende Analyse der Neuronenverteilung im ZNS dar. Das Verfahren eröffnet die Möglichkeit, Nuklei dreidimensional zu untersuchen, bietet aber auch einen Ansatzpunkt um mittels histologischer Daten weiteres Datenmaterial (etwa elektrophysiologischer oder morphologische Daten) zu integrieren.
Urothelkarzinome entstehen aus dem Epithel (Urothel) der unteren Harnwege (Nierenkelche und -becken, Harnleiter und -blase, sowie proximale Harnröhre). Die Harnblase ist der bevorzugte Ort der Urothelkarzinome. Krebserregende chemische Verbindungen (Karzinogene), die im Urin konzentriert vorliegen, sind Hauptverursacher der Urothelkarzinome. Größter einzelner Risikofaktor ist das Rauchen. Urothelkarzinome alarmieren durch Mikro- oder Makrohämaturie, und werden durch zytologische Bestimmung der Urinzellen (exfoliative Urinzytologie) und durch endoskopische Untersuchung der Harnblase (Zystoskopie) diagnostiziert. Es gibt kein pathognomisches Zeichen das auf ein Urothelkarzinom hinweisen würde. Da gutdifferenzierte Urothelkarzinomzellen kaum von den normalen Urothelzellen zu unterscheiden sind, ist die falsch-negative Rate bei der Diagnose dieser G 0-1 Tumoren mit 42% besonders hoch. Bei den endoskopisch schwer zu erkennenden in situ Karzinomen, die weitgehend entdifferenziert (anaplastisch) sind, liegt die Treffsicherheit bei 94%. Keiner der bis heute vorgeschlagenen Tumormarker hat die geforderte Spezifität, Sensitivität und prognostische Aussagekraft, um für die Diagnostik des Harnblasenkarzinoms von Wert zu sein. In der vorliegenden Arbeit wurde bei der Suche nach einem geeigneten Marker für den Nachweis eines Urothelkarzinoms eine Doppelstrategie verfolgt: 1. Die Expression einiger bekannter Gene wurde mit Reverser Transkription Polymerase Kettenreaktion (RT-PCR) an einer Reihe von Urothelkarzinomen unterschiedlicher Malignitätsgrade (G1 bis G4) und an normalen Urothelien untersucht. Uroplakine, die einzigen bislang bekannten urothelspezifischen Moleküle, bildeten dabei den Schwerpunkt. Ein Uroplakin-RT-PCR Bluttest wurde entwickelt, mit dem es möglich ist, disseminierte Urothelkarzinomzellen zu entdecken, noch bevor sie Metastasen gebildet haben. Die Nachweisempfindlichkeit des Tests liegt bei einer Zelle pro ml Blut. Von den untersuchten Urothelkarzinomprimärtumoren exprimierten alle gut bis mäßig differenzierten Tumoren (G1 und G2) Uroplakin (UP), bei den wenig differenzierten und anaplastischen Tumoren (G3 und G4) war etwa die Hälfte UP-positiv. 2. Die differentielle Genexpression derselben Urothelkarzinome und Urothelien wurde mittels Differential Display RT-PCR (ddRT-PCR) dargestellt, um auch unbekannte Genprodukte zu erfassen, die an der Krebsentstehung beteiligt sein und als spezifische Marker dienen könnten. Die gebräuchliche ddRT-PCR wurde durch eine Homologiedomänen-Konsenssequenz-RT-PCR ergänzt. Es konnten einige bekannte Gene identifiziert werden, darunter das DNA-bindende und transkriptionsregulierende HMG-1 (high mobility group) Protein und das mit Metastasierung assoziierte mts-1 Produkt. Einige Sequenzen zeigten keine Übereinstimmung mit bekannten Genen und sind damit potentiell neue Krebsgenkanditaten.
Motivation der Arbeit Die Motivation zur vorliegenden Arbeit beruht auf zwei herausragenden Charakteristika des deutschen Kapitalstocks. Dieser ist zum einen durch ein hohen Anteil der Wohnbauten gekennzeichnet. Wohnbauten unterscheiden sich in einiger Hinsicht deutlich von den Ausrüstungen sowie den übrigen Bauten und machen daher eine eigenständige Analyse ihrer Bestimmungsgründe erforderlich. Zum anderen fällt auf, daß die meisten Wohnungen Mietwohnungen sind und Deutschland damit im Vergleich mit westlichen Industrienationen eine geringe Eigentümerquote aufweist. Es soll daher die Besitzwahlentscheidung der Haushalte unter besonderer Berücksichtigung der Kosten unterschiedlicher Besitzformen untersucht werden. Längerfristige makroökonomische Entwicklung des Wohnungsbestandes In langer Sicht zeigt sich, daß die seit 1950 entstandenen Wohnungen nur zum Teil durch eine wachsende Bevölkerung erklärt werden können. Bedeutender sind hier veränderte Wohngewohnheiten, die einen höheren Wohnungsbestand erforderlich machen. Zum einen ist hier die Verringerung der Zahl der Haushalte zu nennen, die sich eine Wohnung teilen. Dieser Rückgang war besonders in der unmittelbaren Nachkriegszeit markant, setzte sich aber auch bis in die Gegenwart fort. Zum anderen hat sich die Haushaltsgröße von 3 Personen je Haushalt im Jahre 1950 auf 2,18 Personen im Jahre 1998 verringert. Mittelfristige regionale Entwicklung des Wohnungsbestandes Auffälligste Entwicklung der letzten Jahrzehnte ist der deutliche Rückgang fertiggestellter Wohnungen seit den 1970er Jahren bis 1987 und der danach beobachtbare Wiederanstieg. Zur Untersuchung der konjunkturellen Bestimmungsgründe dieser Entwicklung werden Längsschnitts-Querschnitts-Bauinvestitionsfunktionen für Bundesländer mit Methoden der Panelanalyse geschätzt. Als Investitionsindikator werden die realen Baugenehmigungen (in Kubikmetern umbauten Raums) pro Kopf der Bevölkerung herangezogen. Im Vergleich zu Spezifikationen, die den mit Tobins Q vergleichbaren Renditequotient als Exogene enthalten, zeigen sich hierbei Modelle, die stattdessen die Realzinsen berücksichtigen, im Hinblick auf die Anpassungsgüte ebenbürtig. Neben einem signifikanten Einfluß des Prokopfeinkommens zeigt sich ein signifikant negativer Einfluß der Bevölkerungsdichte und ein signifikanter Einfluß der geographischen Nord-Süd-Lage, mit höherer durchschnittlicher Investitionsaktivität der südlichen Bundesländer. Hierin kommt die besondere Lageabhängigkeit der Bauinvestitionen zum Ausdruck. Ferner zeigt sich, daß der Einkommenseinfluß signifikant von der Vermögensstruktur der untersuchten Einheiten abhängt: Je höher der Anteil des Finanzvermögens im Vergleich zum Wohnungsvermögen ist, umso geringer ist der Einfluß des Einkommens auf die Investitionsaktivität. Je liquider also die Vermögensstruktur der Einheiten ist, umso weniger ist ihre Investitionsaktivität vom laufenden Einkommen abhängig. Da das Einkommen als Indikator des Zustroms liquider Mittel gesehen werden kann, bestätigen sich damit für das Investitionsverhalten von Produktionsunternehmen vorliegende Befunde einer Liquiditätsabhängigkeit der Investitionen auch für die Wohnungsbautätigkeit. Das spricht auch dafür, daß der signifikante Einkommenseinfluß - zumindest nicht ausschließlich - Ausdruck eines Einkommenseffektes bei der Nachfrage nach dem Konsumgut Wohnung ist. Da allerdings daneben auch der Zinseinfluß bzw. der Einfluß des Renditequotienten bei den liquiden Einheiten geringer ausfällt, gewinnen in dieser Gruppe andere, einheitenspezifische und nicht explizit erfaßte Determinanten an Bedeutung. Diese Determinanten sind möglicherweise auch mit einem mesoökonomischen Modell nicht zu erfassen. Zusammenhänge zwischen dem verwendeten Investitionsindikator und der wohnungspolitisch relevanten Zahl neuer Wohnungen werden im Anschluß untersucht. Dabei zeigt sich zwar eine weitgehend gleichläufige Entwicklung beider Größen. Da jedoch einer gegebenen Menge umbauten Raumes sowohl im Zeit- als auch im Ländervergleich eine unterschiedliche Zahl neuer Wohnungen gegenübersteht, ist dieser Zusammenhang durch den Einfluß sich unterscheidender Baukonventionen überlagert. So gibt es etwa - besonders für die Aufschwungphase von 1987 bis 1994 - Hinweise auf "sparsameres" Bauen, wie etwa Einsparen von Nebenflächen und Verringerung der Wohnungsgrößen. Da die berechneten Effekte zudem in den Bundesländern mit unterschiedlichem Gewicht in Erscheinung treten, tragen diese nicht nur zu einer qualitativen Veränderung des Wohnungsbestandes im Zeitablauf, sondern auch zu einer qualitativen Differenzierung des regionalen Wohnungsbestandes bei. Wohnkosten und Besitzformwahl Im nächsten Abschnitt wird der Frage nachgegangen, welchen Einfluß die Kosten der Besitzformen Miete und Eigentum auf die individuelle Besitzformwahl der Haushalte haben. Datenbasis ist die Einkommens- und Verbrauchsstichprobe des Jahres 1993, die eine Fülle von haushalts- und wohnungsindividuellen Informationen enthält. Hierzu werden Mietkosten und Selbstnutzungskosten (ermittelt als Kapitalkosten des gebundenen Vermögens, haushaltsindividuellem Steuervorteil und Erhaltungsaufwand) gegenübergestellt. Für diese Gegenüberstellung ist es erforderlich, für Mieter hypothetische Selbstnutzungskosten, hier für den Fall des Kaufs der aktuell bewohnten Wohnung zu bestimmen. Für Eigentümer sind hypothetische Mietkosten für den Fall zu ermitteln, daß sie die eigene Wohnung mieteten. Es werden durchweg kalkulatorische Werte verwendet, was die Vergleichbarkeit von Mieter und Eigentümerhaushalten gewährleistet und auf beobachtete marktpreisbestimmende Faktoren abstellt. Mit befriedigender Anpassungsgüte werden hierzu mit einem Regressionsansatz, in den Lage- und Ausstattungsmerkmale der Wohnungen eingehen, ein deutschlandweiter Miet- und Verkehrswertspiegel geschätzt. Mit diesen läßt sich eine kalkulatorische Miete und das in der Wohnung gebundene Vermögen (kalkulatorischer Verkehrswert) sowohl für Mieter- als auch für Eigentümerhaushalte abschätzen. Bei der Berechnung der Kosten des gebundenen Eigen- und Fremdkapitals und des Steuervorteils kann auf die individuellen Angaben der Haushalte zugegriffen werden. Die Gegenüberstellung von Mietkosten und Selbstnutzungskosten für beide Haushaltsgruppen ergibt eine Kostendifferenz, die einer Rendite vor Wertsteigerungen entspricht. Deskriptive Analysen für Bundesländer und Einkommensgruppen zeigen, daß im Allgemeinen eine höhere Kostendifferenz mit einer höheren Eigentümerquote einhergeht. Dieser positive Zusammenhang bestätigt sich in einem Logit-Modell, in dem die Kostendifferenz eine gute Klassifikation von Mieter- und Eigentümerhaushalten ermöglicht. Auch nach Aufnahme weiterer in der Literatur berücksichtigter Variablen wie Haushaltsnettoeinkommen und soziodemographischen Variablen bleibt die Kostendifferenz die erklärungskräftigste Variable. Offenbar dienen diese Variablen bei weniger haushaltsindividueller Berechnung der Kosten- bzw. Rentabilitätsvariable auch als Proxies für bestimmte Kosten- bzw. Rentabilitätskomponenten. Eine nach Bundesländern und Einkommensgruppen disaggregierte Analyse der Modellergebnisse bestätigt die gute Klassifikationsgüte, weist aber auch auf noch fehlende Informationen zu den Motiven der Besitzwahlentscheidung hin. Steuerpolitische Implikationen einer unterschiedlichen Wohneigentumsförderung Die Steuervorteile aus der Nutzung selbstgenutzten Wohneigentums sind eine wichtige Komponente der berechneten Kostendifferenz. Um Erkenntnisse über den Einfluß unterschiedlicher steuerlicher Regelungen selbstgenutzten Wohnraums zu gewinnen, werden mikroökonomische Besteuerungsszenarien durchgeführt. Der im Jahre 1993 gültigen Regelung, die Abschreibungen im Rahmen von Höchstbeträgen und ein Baukindergeld vorsieht, werden folgende drei alternative Regelungen gegenübergestellt: (1) Die seit 1996 praktizierte Eigenheimzulage mit einer einkommensunabhängigen Förderung und einem Baukindergeld. (2) Die Gewährung eines Schuldzinsabzugs vom zu versteuernden Einkommen. (3) Die sogenannte Investitionsgutlösung, die auf einer Gewinn- und Verlustrechnung des Wohnungseigentümers beruht. Für jeden Haushalt der Datenbasis werden aufgrund seiner individuellen Situation die Steuervorteile und die Kostendifferenz berechnet, die er bei Gültigkeit der alternativen Regelung aufweisen würde. Mit dem oben geschätzten Logit-Modell wird die Besitzform bei Gültigkeit der alternativen Regelung vorhergesagt. Fehlklassifizierte Mieter, die zudem gemäß verschiedener Variablen als nicht kaufrestringiert eingeschätzt werden, gelten als potentielle Neueigentümer. Gemessen an der Zahl potentieller Neueigentümer erweist sich die Eigenheimzulage als am wohnungspolitisch effektivsten, hätte aber auch den höchsten fiskalischen Aufwand zur Folge. Da die Gewährung eines Schuldzinsabzuges und die Investitionsgutlösung eine geringere Zahl potentieller Neueigentümern mit sich bringen würden, dürfen diese Varianten in der hier unterstellten Ausgestaltung als wohnungspolitisch unergiebig eingestuft werden. Da von der Investitionsgutlösung auch die Alteigentümer betroffen wären, ist bei der hier untersuchten Ausgestaltung mit einer gegenüber dem Status Quo zusätzlichen Subventionierung dieser Gruppe in Höhe von 2,62 Mrd. DM zu rechnen, was wohnungspolitisch nicht zu rechtfertigen ist. Im Hinblick auf die Verteilung der potentiellen Neueigentümer zeigt sich in allen Szenarien, daß diese überwiegend den oberen Einkommensdezilen angehören. Im Vergleich mit den anderen Szenarien führt die Gewährung einer Eigenheimzulage in den unteren Einkommensdezilen, die eine geringe Eigentümerquote aufweisen, noch zur höchsten Zahl potentieller Eigentümer. Die Eigenheimzulage würde hier mit Abstand zur höchsten potentiellen Fördersumme in den unteren fünf Einkommensdezilen beitragen. In den östlichen Flächenstaaten reagiert die Anzahl potentieller Neueigentümer und der durchschnittliche Förderbetrag besonders deutlich auf die unterstellte Fördervariante. Die Eigenheimzulage führt hier zum höchsten Anteil potentieller Neueigentümer, was angesichts der dort niedrigen Eigentümerquote positiv zu beurteilen ist. In den westlichen Flächenstaaten dagegen führen alle betrachteten Fördervarianten der Tendenz nach zu einem hohen Anteil potentieller Neueigentümer in Ländern mit einer niedrigen Eigentümerquote. Im Hinblick auf die Wohnlagen findet der Tendenz nach bei allen Varianten eine stärkere Förderung von Zentren und zentrumsnahen Lagen mit bis zu 25 km Großstadtentfernung statt. Auch gemessen an diesem Verteilungskriterium führt die Eigenheimzulage zu einer geringsten Ausprägung des geschilderten Zentrum-Peripherie-Gefälles. Steuerpolitische Implikationen einer Kombination wohnungspolitischer Instrumente Zunächst zeigt sich, daß reine Begrenzungen des Schuldzinsabzuges wohnungspolitisch nicht effektiv sind. Erst durch eine Kombination mit einer Option auf eine einkommensunabhängige Mindestförderung (ähnlich der Eigenheimzulage, aber ohne Baukindergeld) erlangt die Gewährung eines Schuldzinsabzuges eine wohnungspolitische Effektivität. Die Zahl potentieller Neukäufer ließe sich bei jeweils gleichem fiskalischen Aufwand mit Mindestfördersätzen von knapp 3 Prozent gegenüber dem Status Quo und mit Mindestfördersätzen von rund 3,5 Prozent gegenüber der Eigenheimzulage erhöhen. Die Investitionsgutlösung wird durch das Instrument eines begrenzten Schuldzinsabzuges bzw. eines weiteren Mietzinszuschlages, jeweils kombiniert mit einem Mietgewinnfreibetrag variiert. Zur Erreichung von Aufkommensneutralität bei den Alteigentümern müßte der Schuldzinsabzug drastisch reduziert werden. Mit Mietzinszuschlägen gelangt man ohne Gewährung eines Mietgewinnfreibetrages bei einem Zuschlagsatz von 0,9 Prozentpunkten und bei Gewährung eines Freibetrages von 5.000 DM p.a. bei einem Zuschlag von etwa 2,5 Prozentpunkten zu einer aufkommensneutralen Position der Alteigentümer. Die Investitionsgutlösung wird sodann so ausgestaltet, daß sie für Alteigentümer aufkommensneutral ist. Hierzu wird auf die obigen Erkenntnisse zurückgegriffen und es werden drei verschiedene aufkommensneutrale Kombinationspunkte von Mietzinszuschlag und Mietgewinnfreibetrag gewählt. Potentielle Neueigentümer können auf Ansatz ihres (negativen) Mietgewinnes oder auf die Mindestförderung optieren. Eine gleiche Zahl potentieller Neueigentümer wie im Status Quo würde sich - bei niedrigerer potentieller Fördersumme - bei einem Mindestfördersatz von 2,8 Prozent ergeben. Die schon hohe Zahl potentieller Neueigentümer in der Eigenheimzulage ließe sich - wiederum bei niedrigerer potentieller Fördersumme - bei einem Mindestfördersatz von 3,4 Prozent erreichen und gleichzeitig ein höheres Maß an Gleichheit bei der Verteilung der Fördersummen über die Einkommensdezile erreichen. Bei derart hohen Mindestfördersätzen würde allerdings die größte Zahl potentieller Neueigentümer auf die Mindestförderung optieren, so daß hier praktisch nicht mehr von einer Investitionsgutlösung gesprochen werden kann. Belastet man die Alteigentümer mit per Saldo 2 Mrd. DM so ergeben sich vergleichbare Ergebnisse. Der Fiskus wird dann aber in die Lage versetzt, bei Aufkommensneutralität insgesamt höhere Fördersätze zu gewähren. Resümee Bei der Eigenheimförderung steht das eigenständige wohnungspolitische Ziel einer hohen Eigentümerquote klar im Vordergrund, da andere Zielsetzungen schwierig zu begründen sind. Die durchgeführten Szenarien geben Hinweise darauf, daß mit einer einkommensunabhängigen Förderung dieses Ziel am effektivsten erreicht werden kann. Eine vollständige Verteilungsgleichheit läßt sich allerdings nicht herstellen. In allen Szenarien bleiben die Bezieher höherer Einkommen bevorteilt, wenn auch das Ausmaß der Ungleichheit zwischen den gerechneten Varianten erheblich variiert. Auch hier kommt eine einkommensunabhängige Mindestförderung zu günstigen Ergebnissen und würde zudem die Chance bieten, die seit Jahrzehnten bestehende deutliche Konzentration der Fördermittel auf die oberen Einkommensgruppen abzuschwächen. Eine eindeutige wohnungspolitische Ausrichtung würde zudem den Verzicht auf die familienpolitische Komponente eines Baukindergeldes nahelegen, das Bestandteil der derzeit praktizierten und fast aller vorherigen Förderarten war. Aus den Szenarien gibt es Hinweise darauf, daß einem Verzicht auf diese Komponente bei gleicher wohnungspolitischer Effektivität ein reduzierter fiskalischer Aufwand gegenübersteht. Dagegen stehen allerdings die offenbar mit der Wohnungspolitik immer fest verknüpften familienpolitischen Überlegungen. Bei alledem ist die Stärkung der Nachfrage nach selbstgenutztem Wohnraum vor dem Hintergrund der im ersten Teil der Arbeit aufgezeigten lang- und mittelfristigen, demographischen, ökonomischen und regionalen Rahmenbedingungen der Wohnungsbauaktivität nicht unproblematisch. Stößt diese zusätzliche Nachfrage auf ein starres Angebot, resultieren allenfalls Preissteigerungen, die wiederum eine Erhöhung der Eigentümerquote im Wege stehen und auch aus verteilungspolitischer Sicht nicht wünschenswert sind.
Es wurden Untersuchungen über die Stoffwechselleistungen der im Most und Wein vorkommenden Essigsäurebakterien der Gattungen Acetobacter (13 Stämme) und Gluconobacter (2 Stämme) während der Weinbereitung durchgeführt. Die 15 Stämme der Essigsäurebakterien stammten aus der Sammlung des Fachgebiet Mikrobiologie und Biochemie Forschungsanstalt Geisenheim sowie aus der CCM (Czechoslovak Collection of Microorganisms). Die Stoffwechselleistungen, die unter Berücksichtigung des Zucker-Säure-Stoffwechsels beobachtet wurden, wurden bei Trauben der Sorten Riesling, Rotberger, Portugieser und Reichensteiner, den Mosten der Sorten Riesling, Portugieser und Rotberger und den Weißweinen der Sorten Riesling, Müller Thurgau und Rotwein eines Sortengemisches sowie Weiß- und Rotweinen verschiedener Jahrgänge aus Tunesischen Weinanbaugebieten durchgeführt. Die Essigsäurebakterien wurden auf die Nährböden (Traubenbeeren, Moste und Weine) beimpft und nach festgelegten Zeiten geerntet und analysiert. Die Beimpfung der Traubenbeeren erfolgte durch Besprühen der intakten und angestochenen Beeren mit den Bakterienkulturen. Im Verlauf der Arbeit wurden verschiedene Analyseverfahren angewandt. Dünnschichtchromatographie wurde für die qualitative Analyse der Zuckersäure eingesetzt. Die Ketozuckersäuren wurde durch Flüssigchromatographie sowie HPLC bestimmt. Außerdem auch für die Bestimmung organischer Säuren, Zucker und Alkohole. Ethanol wurden auch mit Titration nach der Methode von Rebelein bestimmt. Gluconsäure, Essigsäure, Glucose, Fructose, D- und L-Milchsäure sowie Dihydroxyaceton wurden enzymatisch spektrophotometrisch quantifiziert. Der Vergleich der Ergebnisse von intakten und angestochenen Beeren zeigte, dass bei angestochenen Beeren ein schnelleres Wachstum der Essigsäurebakterien und damit auch höhere Stoffwechselleistungen erfolgten. Gluconsäure, 2-Ketogluconsäure, 5-Ketogluconsäure sowie 2,5-Diketogluconsäure können von verschiedenen Essigsäurebakterienstämmen produziert werden. Es scheint so, als ob die verschiedenen Arten der Essigsäurebakterien spezifische Muster der Gluconsäure Oxidationprodukte aufweisen. In synthetischen Medien produzierten Essigsäurebakterien große Menge Gluconsäure. Nach 30 Tage produzierten Essigsäurebakterien der Stämme Acetobacter aceti var. aceti, A. liquefaciens Stamm 1347-2, A. xylinum und Gluconobacter oxydans var. suboxydans im Glucosemedium jeweils mehr als 40 g/l Gluconsäure. 5-Ketogluconsäure wurden in allgemein mehr als 2-Ketogluconsäure produziert. Von allen beobachteten Stämmen produzierte nur A. liquefaciens 2,5-Diketogluconsäure. Sowohl in den roten- als auch in den weißen Traubenbeeren produzierten sie Gluconsäure und ihre Oxidationsprodukte. In 15 Tagen wurden bis 11,5 g/l Gluconsäure, 5,3 g/l 2-Ketogluconsäure und bis 9,8 g/l 5-Ketogluconsäure produziert. Das Wachstum der Essigsäurebakterien in den Weinen verlief sehr langsam. In den Weinen wurden von den Essigsäurebakterien nur Essigsäure produziert. Die Produktion von Essigsäure war bei den unterschiedlichen Stämme sehr verschieden. A. aceti var. aceti produzierte die höchste Konzentration von Essigsäure sowohl bei Rotwein als auch bei Rieslingwein. A. aceti var. aceti produzierte bis 87 g/l in Rotwein und bis 61 g/l in Rieslingwein Bei Untersuchungen fertiger Weine wurden außer Gluconsäure auch 2-Ketogluconsäure, 5-Ketogluconsäure und 2,5-Diketogluconsäure gefunden, die auf den Stoffwechsel der Essigsäurebakterien aus Glucose und Gluconsäure zurückgeführt werden müssen. In den untersuchten fertigen Weinen aus Tunesien wurde 0,2 - 7,4 g/l Gluconsäure, 2 - 35 mg 2-Ketogluconsäure, 6 - 30 mg/l 5-Ketogluconsäure und bis 14 mg 2,5-Diketogluconsäure analysiert. Nach den vorliegenden Untersuchungsergebnissen stammen die hohen Gluconsäurekonzentrationen in den Weinen von Gluconobacter oxydans. Die Herkunft der Gluconsäure in diesen Weinen aus dem Stoffwechsel von Essigsäurebakterien wird durch die hochsignifikanten Beziehungen zwischen Gluconsäure und 2-Ketogluconsäure, sowie 2,5-Diketogluconsäure belegt.
Die Neubildung von Aromasubstanzen durch Carotinoidabbau ist eine der vielen Veränderungen der Weine während der Flaschenlagerung. In gealterten Weinen entstehen aromawirksame Kohlenwasserstoffe, C13-Komponenten, u.a. TDN aus den Carotinoidsubstanzen der Weinbeeren. TDN, das natürlich in Pflanzenprodukten vorhanden ist, liefert einen wichtigen Beitrag zum typischen Kerosin-ähnlichen Charakter in Flaschen gealterter Rieslingweine. Als TDN-Precursoren sind oft die Carotinoide Lutein und ß-Carotin vorgeschlagen worden. Die TDN-Bildung wird von mehreren Faktoren beeinflusst. Außer vom Carotinoidgehalt in den Beeren bzw. Mosten, auch von den Traubensorten und -klonen, den verwendeten Hefen und auch durch die Jahrgänge. Andere Aspekte, wie das Vorhandensein von Luteinestern, die Verhältnisse der Carotinoide untereinander, weinbauliche Maßnahmen, wie Entblätterungen, sowie die Gesamtsäure bzw. die pH-Werte der Traubenmaischen, die die TDN-Bildung beeinflussen könnten, wurden ebenfalls mit einbezogen. Die TDN-Bildung während des Weinherstellungsprozesses sowie die TDN-Entwicklung bei der Alterung und dem damit verbundenen Carotinoid-Abbauprozess wurde in dieser Arbeit durch Modellversuche zu klären versucht. Während der Studien wurden Traubenbeeren, Moste und Jahrgangsweine der Sorte Riesling und anderer weißer Sorten verwendet. Der Einfluss von Mikroorganismen auf den TDN-Gehalt wurde durch Verwendung von 9 Hefestämmen (Saccharomyces spp.) und auch bei Spontangärung untersucht. Die Extraktionen der Carotinoide aus Trauben, Mosten und Weinen wurden unter verschiedenen Bedingungen durchgeführt. Eine neue Methode musste wegen des hohen Wasser-, Zucker- und Säuregehalt des Mostes und Weines sowie der gärenden Moste verschiedener Dichten entwickelt werden. Für die Analysen der Carotinoide sowie die deren Luteinestern wurden verschiedene HPLC-Verfahren eingesetzt. Als stationäre Phase dienten Säulen LiChroCART 250-4 HPLC Cartridge LiChrospher 100 RP18 (5µm), RP18 125-4 M LiChroCART, sowie eine 250x4,6 mm (5µm) Hypersil Elite C18. Die Säulentemperatur lag bei 28°C. Die Trennungen wurden mit verschiedenen mobilen Phasen durchgeführt. Mit dem Einsatz des Dioden-Array-Detektor wurden verschiedene Wellenlänge zur Messung der einzelnen Carotinoide verwendet. Lutein wurde bei 450(±4) nm bestimmt, während Zeaxanthin, ß-Apo-8'-Carotinal, ß-Carotin und Chlorophyll-b bei 460(±6) nm und Chlorophyll-a bei 440(±4) nm, gemessen wurden. Außerdem wurden auch typische Wellenlängen wie 473(±6) nm für ß-Apo-8'-Carotinal und 662(±4) nm für Chlorophyll-a eingesetzt. Die TDN-Konzentrationen der Proben wurden durch Gaschromatographie/ Massenspektrometrie analysiert. Die mögliche TDN-Bildung unter Berücksichtigung des Carotinoidabbaus wurde außer in Jungweinen auch in Blankweinen nach Zugabe von Reinsubstanzen bzw. Beerenextrakten beobachtet. In den trüben Jungweinen veränderten sich die Mengen aller Farbstoffe während der Gärung. Die bedeutendsten Veränderungen der Carotinoid-Inhaltstoffe fanden nach dem Erreichen der Maximum-Werte der gebundenen ß-Glucosidaseaktivität der Hefen statt. Die größere Aktivität bei Kellertemperatur, die ebenfalls von der Populationszahl abhängt, verursachte auch die größeren Veränderungen des Carotinoidgehaltes. Es wird festgestellt, dass nach der Gärung nur noch die Hälfte der Konzentrationen der Carotinoide und Chlorophylle übrig geblieben ist und die Bildung von TDN bereits während der Gärung stattgefunden hat. Es wurde gezeigt, dass der Lutein- bzw. der TDN-Gehalt in Jungweinen mit der Glucosidaseaktivität der verwendeten Hefen korreliert werden kann. Dass der Zusammenhang zwischen dem Lutein in Mosten und den TDN-Konzentrationen in den Weinen bei den Rieslingklonen deutlicher ist als bei den anderen Sorten, zeigt dass Lutein ein TDN-Precursor ist. Die Verhältnisse von Lutein zu ß-Carotin ist in den Rieslingtraubenbeeren größer als in den Beeren der anderen "Weißen-Sorten". Die TDN-Bildung in Weinen, die aus den Mosten mit niedrigeren pH-Werten gewonnen wurden, war höher als solche aus Mosten mit höherem pH-Wert. Bei den Weinen aus Trauben der entblätterter Rebstocke zeigten höhere TDN-Gehalt, weil solche weinbauliche Maßnahmen die Konzentrationen der gelöster Carotinoide in den Trauben und folgend auch in den Jungweinen erhöht. Lutein, ß-Carotin und Zeaxanthin sind die Carotinoid-Hauptprecursor bei der TDN-Bildung. Beim prozentualen Vergleich deren Verluste während der Gärung und Lagerung ist der bei Lutein bzw. Zeaxanthin grösser als der bei ß-Carotin. Dabei sind die Mengen maßigen Verluste von ß-Carotin höher als bei Lutein und Zeaxanthin. Als TDN-Precursor sind die Carotinoide Lutein bzw. Zeaxanthin labiler als ß-Carotin. Zeaxanthin wurde nur in sehr geringen Mengen in der Traubenbeeren gefunden. Die Reinsubstanzen Lutein bzw. ß-Carotin zeigten auch deutlich ihren Precursor-Charakter in Hinblick auf die potentielle TDN-Bildung. Durch Säurehydrolyse der Reinsubstanzen bei 50oC zeigte es sich, dass normales TDN, TDN+2 und TDN+4 in D2O (2H2O) aus Lutein gebildet wurde. Aus ß-Carotin wurde nur wenig TDN erzeugt.
Effektivität und Effizienz der hochauflösenden MRT in der Diagnostik akuter Handgelenksverletzungen
(2002)
Die konventionelle Röntgendiagnostik stellte lange Zeit das dominierende diagnostische Instrument zur Beurteilung von akuten Verletzungen des Handgelenkes und der umliegenden Strukturen dar. Da der klinische Verlauf nach Verletzungen des Handgelenkes häufig unbefriedigend und langwierig ist und nicht adäquat therapierte Verletzungen dieser Region mit einer hohen Rate an Sekundärkomplikationen einhergehen, galt es, die Diagnostik des Handgelenkes zu optimieren, da mit der konventionellen Röntgendiagnostik zum einen Frakturen übersehen, umgekehrt aber auch überdiagnostiziert werden können und zum anderen naturgemäß Bandverletzungen nicht ausreichend beurteilbar sind. Da Verletzungen des Handgelenkes meist bei berufstätigen jüngeren Menschen beobachtet werden, stellt dies ein großes ökonomisches Problem dar. Ziel dieser Arbeit war es zu untersuchen, ob durch den gezielten Einsatz der Magnetresonanztomographie in der Frühphase nach einem akuten Handgelenkstrauma, die Diagnostik verbessert werden kann, und inwieweit dies Einfluss auf die nachfolgende Therapieplanung und Therapie hat. Es gelang durch den Einsatz der MRT beim akuten Handgelenkstrauma in Fällen mit einer Diskrepanz zwischen dem unauffälligen oder unklaren konventionellen Röntgenbild und der deutlichen klinischen Symptomatik nicht nur in 10,7% der Fälle (n=6) der Nachweis einer okkulten Fraktur, sondern auch in 64,3% der Fälle (n=36) der Nachweis von Begleitverletzungen im Bereich der ligamentären Strukturen und des TFCC. In 39,3% (n=22) konnte durch die MRT der Verdacht auf eine Fraktur ausgeräumt, in weiteren 5,4% (n=3) eine Änderung bezüglich der Frakturlokalisation vorgenommen werden. Nur 11 der ursprünglich 36 konventionell radiologisch befundeten Verdachtsdiagnosen einer Fraktur konnten im MRT bestätigt werden. In 55,4% wurde die Diagnose und in 66,1% die Therapie geändert (bezugnehmend auf die Daten des ersten Radiologen, Tabelle IV-12). Den verbesserten chirurgischen Therapiemöglichkeiten insbesondere der ligamentären Verletzungen musste durch die Optimierung der MRT Rechnung getragen werden. Es gelang im Rahmen dieser Promotionsarbeit ein zeitsparendes Untersuchungsprotokoll zu erstellen, das es ermöglicht, eine optimale Diagnostik der knöchernen Strukturen des Handgelenkes sowie des Weichteilapparates in weniger als 10 Minuten Untersuchungszeit durchzuführen. T1- und T2-gewichtete STIR-Sequenzen in koronarer Schichtorientierung erwiesen sich als diagnostisch relevant. Aufgrund der verbesserten Diagnostik war es möglich, die Patienten rasch der jeweils optimalen Therapie zuzuführen. So konnten zum einen initial okkulte Frakturen und ausgeprägte Band- und Diskusverletzungen adäquat behandelt und zum anderen durch den sicheren Ausschluss von ossären Verletzungen frühzeitig lange Immobilisationszeiten vermieden werden. Dies stellte einen wesentlichen Benefit für die Patienten dar, da wiederholte Krankenhausbesuche und Röntgenaufnahmen, unnötige Immobilisationszeiten von bis zu 12 Wochen sowie inadäquate - gegebenenfalls invasive - Diagnostik (Arthrographie, Operation) vermieden werden konnten. Durch den frühzeitigen Ausschluss von Frakturen und relevanten ligamentären Läsionen mittels MRT konnte so eine Verkürzung der Arbeitsunfähigkeit in 15 Fällen erreicht werden, in 8 Fällen musste die Dauer der Arbeitsunfähigkeit aus therapeutischen Gründen verlängert werden. Dies spielt sowohl für den Arbeitnehmer als auch für den Arbeitgeber und - bei längeren Krankschreibungszeiten - für die Krankenkassen eine große Rolle. Betriebsausgaben durch Entgeltfortzahlung im Krankheitsfall können so reduziert werden. Aufgrund der wirtschaftlichen Folgen sollte nach unseren Erfahrungen in Fällen mit einem klinischen Verdacht auf eine Fraktur oder schwere Weichteilverletzungen im Bereich des Handgelenkes bei unauffälligem oder unklarem Nativröntgenbild der Einsatz der MRT unmittelbar, möglichst am Tag der Verletzung, erfolgen. Trotz der initial hohen Kosten der kernspintomographischen Untersuchung erscheint uns das Verfahren in der Akutdiagnostik von Handgelenkesverletzungen bei Diskrepanz zwischen dem unauffälligen Röntgenbild und der klinischen Symptomatik indiziert und kosteneffektiv, da durch die adäquate Therapie chronische Handgelenksinstabilitäten und Pseudarthrosen vermieden werden können und auf diese Weise eine Reduktion der Folgekosten möglich ist. Für die Zukunft werden weitere Studien notwendig sein, die die klinische Relevanz des Langzeitverlaufes der in der MRT erhobenen Befunde überprüfen.
Die Entwicklung der Keramik von 3000 BP bis zur Gegenwart in den Tonebenen südlich des Tschadsees
(2001)
Den Kern der hier vorliegenden Arbeit bildet die Gliederung der Keramikfunde von drei Siedlungshügeln aus den Tonebenen (auch firki genannt) des südwestlichen Tschadbeckens Nordost- Nigerias. Obwohl das Gebiet in den 60er Jahren bereits archäologisch erschlossen wurde, waren die keramikchronologischen Aspekte nur oberflächlich abgehandelt worden. Ziel der Arbeit war somit die Erstellung einer grundlegenden Keramikchronologie anhand der sehr umfangreichen Fundmengen aus den Siedlungshügeln Kursakata, Mege und Ndufu. Ihre Stratigraphien erlaubten es, eine Keramikchronologie für die letzten 3000 Jahre zu erstellen. Das Gebiet der dem Tschadsee vorgelagerten firki-Tonebenen konnte erst ab 3000 BP besiedelt werden, wie die C14-Datierungen der Fundplätze bezeugen. Vorher war der auch als Chad Lagoonal Complex bezeichnete Raum von den Wassern des Mega-Tschadsees bedeckt. Diese sogenannte 3000- Jahresgrenze gilt aber nur für die firki-Region, denn in den westlich angrenzenden Sandebenen (Bama Deltaic Complex) war eine Besiedlung um 1000 Jahre früher möglich. Das Siedlungsmaterial der drei Hügel wurde mittels Veränderungen in der Keramik in Bezug auf Verzierung und Form sowie mehrerer C14-Daten in verschiedene Perioden gegliedert: Later Stone Age (1000-500 cal BC), Early Iron Age (500 cal BC-500 cal AD), Late Iron Age (500- 1600 cal AD), Historisch (16.-19 Jh. AD), Subrezent (19.-20. Jh. AD). Later Stone Age und Early Iron Age zeigen in der Keramikentwicklung eine Früh- und Spätphase. Den wichtigsten chronologischen Faktor bilden die Verzierungstechniken, denn vom Later Stone Age bis zur subrezenten Periode ist eine Abnahme von unverzierten Scherben im Verhältnis zu verzierten Scherben zu beobachten, d. h. größere Flächen wurden auf der Keramik verziert. Der Keramikhorizont von Ritz-, Stich- und Wiegebandtechnik im Later Stone Age wandelt sich über das Early Iron Age zu einem Matten- und Roulettehorizont schließlich zu einem Roulettehorizont im Late Iron Age. Den Entwicklungen in der Verzierung lassen sich Veränderungen bei den Gefäßformen gegenüberstellen, die sich von geschlossenen zu offenen Formen wandeln. Das Later Stone Age ist durch Kümpfe, dagegen das Early Iron Age durch Töpfe geprägt. Offene Schalen-Schüsseln bestimmen das Gefäßinventar ab dem Late Iron Age, aber auch verschiedene neue Gefäßtypen wie So-pots, Dreifußgefäße, Gefäße mit flachem Boden sowie solche mit langen konischem Rand treten jetzt in Erscheinung. Die zunehmende Bedeutung der Verzierungstechniken Matte und Roulette in den Fundplätzen spiegelt sich in ihrer Variationsbreite wider. Einzelne Matten- und Roulettetypen nehmen die Stellung von Leitformen ein. Im Later Stone Age sind nur Randparallele/Diagonale Geflechte und kombinierte Roulettes (cord wrapped stick roulette) vorhanden. Ab dem Early Iron Age wird das Formenspektrum erweitert. Zwirnbindige Geflechte und gezwirnte Schnurroulettes (twisted string roulette) bilden die charakteristischen Arten in der Frühphase des Early Iron Age, aber ab der Spätphase des Early Iron Age gewinnen die kombinierten Roulettes (cord-wrapped stick with spacing roulette) wieder an Bedeutung. Danach treten nur noch Roulettearten neu hinzu. Im Late Iron Age ist es das Schnitzroulette (carved roulette) und gegen Ende des Late Iron Age, aber vor allem ab der historischen Periode das gezwirnte Bandroulette (twisted strip roulette). Anders als bei den Roulettetechniken ist das Vorkommen von Matten an bestimmte Herstellungstechniken von Gefäßen gebunden, vorausgesetzt die Matten wurden nicht nach der Herstellung in die Oberfläche des Gefäßes eingeklopft. Ihr flächendeckender oder auf das Gefäßunterteil beschränkter Auftrag auf der Keramik der untersuchten Fundplätzen deutet auf die Anwendung von Treibtechnik zur Herstellung der Gefäße hin. Die begrenzte Handhabung der Matten und ihre primär technische Bedeutung (Oberflächenbehandlung) spielten vermutlich eine Rolle bei ihrer Verdrängung durch die Roulettetechnik. Insgesamt zeigt die chronologische Entwicklung der Keramik, daß die Tonebenen ohne längere Unterbrechung kontinuierlich besiedelt waren. Der Übergang von einer Periode zur nächsten ist zwar durch Veränderungen im Keramikmaterial gekennzeichnet, es werden aber immer auch verschiedene Merkmale aus der vorangegangenen Periode übernommen. Am markantesten stellt sich der Übergang vom Later Stone Age zum Early Iron Age dar. Hier finden Entwicklungen in der Keramik statt, die heute noch ihren Niederschlag (Roulettetechnik) finden. Die politischen Veränderungen im Gebiet der firki zu Beginn der sogenannten historischen Periode (Integration in das Kanem-Bornu-Reich) fallen keramiktypologisch betrachtet weniger ins Gewicht, d. h. die bestehende Keramiktradition wurde nicht vollständig durch eine andere ersetzt. Das Keramikmaterial aus den firki-Tonebenen Nordost-Nigerias zeigt, wie zu erwarten, die größten Übereinstimmungen zu dem anderer Fundplätze aus den Tonebenen der heute angrenzenden Staaten Kamerun und Tschad. Mit den Fundinventaren aus der südlich angrenzenden Mandara-Region in Kamerun und Nigeria haben unsere Keramikinventare die Entwicklung zu vorwiegend Rouletteverzierter Keramik (genauer gesagt Schnurroulette) in der Eisenzeit gemeinsam. In der nördlichen Mandara-Region scheint die Keramikentwicklung allerdings statischer verlaufen zu sein, da hier die markanten Veränderungen aus der firki während der Eisenzeit fehlen. Dennoch läßt das Keramikmaterial auf Beziehungen zwischen beiden Regionen schließen, die nach der Fundlage im Handel von Steinen und vermutlich auch Eisenerzen und Metallobjekten bestanden. Ebenso ist die politische Entwicklung in den Tonebenen (Integration in das Kanem-Bornu Reich) eng mit der in der nördlichen Mandara-Region (Bildung des Wandala-Reiches) verknüpft, was sich auch im Keramikmaterial widerspiegelt. Dagegen offenbaren die Fundstellen des östlichen Tschadbeckens in der Republik Tschad gänzlich andere Keramiktraditionen. Typische Keramikelemente aus der firki treten dort erst später oder gar nicht auf. Die Integration der firki Nordost-Nigerias in das Kanem-Bornu-Reich stellt sich als eine Verbreitung bestimmter Keramikelemente (twisted strip roulette, Sgraffito) westlich des Tschadsees (Yobe Valley) weiter nach Süden dar, wobei diese Keramikmerkmale von der autochthonen Bevölkerung westlich des Tschadsees schon vor der Ankunft der Kanuri verwendet wurden. Dies bedeutet, daß die Kanuri die Keramikmerkmale entweder von der einheimischen Bevölkerung übernommen haben oder schon vorher ein kultureller Austausch zwischen dem Yobe Valley und Kanem bestand. Die firki-Region war im Laufe ihrer Besiedlung verschiedenen Einflüssen anderer Regionen ausgesetzt. So müssen die ersten Siedler von außerhalb in das Gebiet eingewandert sein, da es längere Zeit für eine Besiedlung unzugänglich war. Weder die westlich angrenzenden Sandflächen noch die südlich angrenzenden Ebenen der Mandara-Region oder der östliche Teil des Tschadbeckens kommen derzeit dafür in Frage. Die Wirtschaftsweise der ersten Siedler deutet in nördliche Richtung, denn sie brachten domestizierte Rinder, Schafe, Ziegen und die Kenntnis vom Anbau domestizierter Perlhirse (Pennisetum glaucum) mit. Ihre Keramik steht in der Tradition des saharischen und sudanesischen Endneolithikums, was sich aus zonal begrenzten Verzierungen und der häufigen Verwendung von Ritztechnik und Spatelstich ableiten läßt. Die für das Later Stone Age in der firki typische Rouletteund Mattentechnik wurde in der Sahara/Sahel entwickelt. Ob die ersten Siedler nun aus östlicher oder westlicher Richtung kamen, läßt sich nicht definitiv sagen. Allerdings ist eine westliche Richtung durch die dort nachgewiesene Verwendung von Matten in Köperbindung und der eines kombinierten Roulette (cord-wrapped stick with spacing roulette) zu favorisieren. Der Übergang zum Early Iron Age in der firki ist mit neuen Einflüssen aus der südwestlichen Sahara und dem angrenzenden Sahel verbunden. Dies geht aus der Verwendung von twisted string roulette und zwirnbindiger Geflechte hervor. Auch wirtschaftlich hat mit Beginn des Early Iron Age ein Wandel stattgefunden, denn zu diesem Zeitpunkt setzt ein großflächiger Anbau von Perlhirse (Pennisetum glaucum) ein. Erst jetzt kann man von einer vollentwickelten seßhaften Lebensweise in der firki sprechen. Archäobotanische und archäozoologische Untersuchungen bezeugen einen Umschwung zu arideren klimatischen Bedingungen am Übergang vom Later Stone Age zum Early Iron Age, der die wirtschaftlichen Veränderungen nach sich gezogen haben könnte. Die grundlegenden Veränderungen in der Keramik unterstützen diese Hypothese, denn sie spiegeln vielleicht dieselbe Entwicklung nur auf anderer Ebene wider. Der Einfluß von Keramiktechniken aus dem Nordwesten läßt Bevölkerungsverschiebungen aus dem trockenen Norden in die von Wasservorkommen begünstigten firki-Tonebenen vermuten. Ein Einfluß aus anderer Richtung zeigt sich für das Late Iron Age. So hat sich wahrscheinlich die Technik des carved roulette im Savannenraum von Nigeria, Kamerun und der Zentralafrikanischen Republik entwickelt und weiter ausgebreitet. Für die historische Periode und den mit ihr in Zusammenhang stehenden politischen Veränderungen wurde schon auf Einflüsse aus dem westlichen Tschadbecken (Yobe Valley) Nordost-Nigerias hingewiesen. Dennoch muß die Bevölkerung in den Tonebenen nicht erst mit der Ausbreitung der Kanuri am Ende des 16. Jh. AD mit der Verwendung von twisted strip roulette in Berührung gekommen sein, wie Funde aus dem Late Iron Age zeigen. Diese Technik ist typisch für die Eisenzeit in Mali, sie wurde aber auch im 1. Jt. AD in der nördlichen Mandara-Region vereinzelt verwendet. Die Verbreitung der Roulette- und Mattentechniken ist für die Rekonstruktion von Beziehungen zu anderen Regionen ausschlaggebend. Am Keramikmaterial von Kursakata, Mege und Ndufu läßt sich sehr gut beobachten, daß verschiedene Roulette- und Mattentechniken hier zeitlich versetzt voneinander im Later Stone Age und Early Iron Age in Gebrauch kommen, die weiter nördlich schon im Later Stone Age bekannt waren und gemeinsam verwendet wurden. Die Bedeutung von twisted string roulette als Indikator für das Early Iron Age teilen sich die Fundplätze aus der firki mit anderen Fundplätzen aus dem Savannenraum. In der firki stehen Schnurroulettes und zwirnbindige Geflechte als Synonym für Eisen und seßhafte Lebensweise. Mit der hier vorliegenden Arbeit ist zum ersten Mal eine grundlegende Keramikchronologie für die firki-Tonebenen Nordost-Nigerias erstellt worden. Die verschiedenen Verzierungstechniken und auch die bislang wenig berücksichtigten Gefäßformen wurden näher bestimmt. Weiterhin ermöglichten es die Analysen, das Fundmaterial anderer Plätze besser zu beurteilen bzw. eine fundiertere Grundlage für Vergleiche zu bilden, d. h. es wurde ein detaillierter und kritischer Vergleich mit allen wichtigen Fundplätzen aus dem südlichen Tschadbecken vorgenommen. Darüber hinaus wurden die für die Keramikchronologie wichtigen Roulette- und Mattentechniken dokumentiert und anhand ihrer technischen Merkmale definiert. Eine zusammenfassende Darstellung zur Verbreitung der Rouletteund Mattentechniken in Afrika erlaubte es, ihre Vorkommen in Nordost-Nigeria in einen größeren vorgeschichtlichen Zusammenhang zu sehen. Somit bietet die hier vorliegende Arbeit genügend Grundlagen, auf die nachfolgende Forschungen aufbauen können. Für das östliche Tschadbecken und die nördliche Mandara Region steht bislang eine solche Keramikchronologie noch aus.
Das zeitdiskrete Rohrmodell besitzt für die Modellierung der menschlichen Sprachproduktion eine wichtige theoretische und praktische Bedeutung, da es ein mathematisch handhabbares Modell darstellt und zugleich eine vereinfachte akustische Beschreibung des Sprechtraktes beinhaltet. Dies ist einerseits begründet durch die modellhafte Beschreibung der Ausbreitung von ebenen Wellen durch den Sprechtrakt und andererseits in der Darstellung des Rohrmodells als zeitdiskretes lineares System. Erst durch die Verfügbarkeit von adäquaten Schätzalgorithmen, welche die Modellparameter aus dem Sprachsignal bestimmen, ist das Rohrmodell für Anwendungen in der Sprachverarbeitung interessant. Diese liegen allerdings nur für die einfachsten unverzweigten Rohrmodelle vor, welche den Sprechtrakt nur stark vereinfacht modellieren. Für erweiterte Rohrmodelle existieren nur in eingeschränkter Weise adäquate Schätzalgorithmen, mit denen die Modellparameter aus dem Sprachsignal geschätzt werden können. Daher wird mit dieser Arbeit versucht diesen Mißstand aufzulösen, wofür Schätzalgorithmen auch für erweiterte Rohrmodelle entwickelt und vorgestellt werden. Die Erweiterungen des Rohrmodells beziehen sich auf Rohrverzweigungen, die auch mehrfach auftreten können, und Rohrabschlüsse, die frequenzabhängig oder zeitvariabel sein können. Zusätzlich werden Sprechtraktmodelle behandelt, die zwei Systemausgänge aufweisen. Dies wird für Analysen von getrennt aufgenommenen Mund- und Nasensignalen von nasalierten Lauten diskutiert, um die Lippen- und Nasenabstrahlung einzeln zu berücksichtigen. Ebenso werden verzweigte Modelle mit zwei Systemausgängen für eine Beschreibung des Nasaltraktes unter Berücksichtigung der beiden Nasengänge behandelt. Die Erweiterungen des Rohrmodells durch Verzweigungen und angepaßte Rohrabschlüsse ermöglichen eine genauere Beschreibung des Sprechtraktes infolge der Verzweigungen durch den Nasaltrakt und infolge der Abschlüsse an den Lippen, Nasenlöchern und der Glottis. Die Parameterbestimmung wird durch Minimierung eines Fehlers durchgeführt, welcher ein spektrales Abstandsmaß zwischen dem Rohrmodell und dem analysierten Sprachsignal darstellt. Für die Definition des Fehlers wird die inverse Filterung herangezogen, welche eine Leistungsminimierung des Ausgangssignals des inversen Systems beinhaltet. Dabei hat sich gezeigt, daß die Fehlerdefinition der inversen Filterung modifiziert werden muß, um auch erfolgreich auf erweiterte Rohrmodelle angewendet werden zu können. Die Modifikation kann für erweiterte Rohrmodelle einheitlich für den zeitinvarianten und zeitvariablen Fall vorgestellt werden. Über den allgemeinen Ansatz der Schätzung hinaus werden auch effiziente Schätzverfahren für ausgewählte Rohrstrukturen und allgemeine Pol-Nullstellen-Systeme vorgestellt. Die diskutierten Schätzverfahren ermöglichen eine gute Approximation der Sprachspektren durch die Modellbetragsgänge. Darüber hinaus konnte auch gezeigt werden, daß durch entsprechende Rohrmodellstrukturen und eine geeignete Vorverarbeitung des Sprachsignals realistische Querschnittsflächen des Sprechtraktes geschätzt werden können. Daher eignen sich die erweiterten Sprechtraktmodelle auch für die Sprachproduktion. In Synthesebeispielen wurden Lautübergänge auf der Basis von geschätzten Vokaltraktflächen realisiert und in Resynthesebeispielen mittels unverzweigter Rohrmodelle wurde insbesondere die Anregung der Modelle diskutiert. Daß durch die Verwendung von Rohrmodellen auch Lauttransformationen möglich sind, zeigt die vorgestellte künstliche Nasalierung von Sprachsignalen unnasalierter Laute, welche mittels verzweigter Rohrmodelle und Analysen von getrennt aufgenommenen Mund- und Nasensignalen erreicht werden konnte.
Durch die beiden Ionisationstechniken Matrix-Assisted Laser Desorption/Ionization (MALDI) und Electrospray-Ionization (ESI) sind Biopolymere für die Massenspektrometrie zugänglich geworden und die Zahl der biochemischen Applikationen ist sprunghaft angestiegen. Dagegen sind die zugrundeliegenden Prozesse der Ionenbildung nur zum Teil bekannt. Bei MALDI wird die Laserstrahlung durch die Matrix absorbiert, wodurch es zur explosiven Auflösung der festen Phase unter Bildung von geladenen Molekülen kommt. Der genaue Mechanismus vom Festkörper zum gasförmigen Ion ist nur teilweise aufgeklärt und Gegenstand vieler Diskussionen. Eine wichtige Funktion der Matrix ist die räumliche Separierung und Isolierung der Analyte beim Einbau in die Matrixkristalle. Während der Einschluß von Molekülen in Wirtskristalle schon früh als wesentliches Merkmal von MALDI erkannt wurde, ist bisher noch nicht systematisch untersucht worden, in welcher Form die Analyte im Kristall vorliegen. Genau diese Information ermöglicht jedoch Aussagen über die Relevanz verschiedener Mechanismen der Ionenbildung bei MALDI. Die Bestimmung des Ausgangszustandes des Analyten im Matrixkristall und die Abschätzung möglicher Reaktionen bei der nachfolgenden Freisetzung der Analytionen ist das zentrale Thema der vorliegenden Arbeit. In dieser wurde insbesondere der Ladungszustand der Analyte sowie der Einschluß von Lösungsmittel untersucht. Des weiteren wurden Experimente zur Zahl und Koordination möglicher Gegenionen, zur Neutralisation dieser Ionenpaare und zur Adduktbildung bei MALDI durchgeführt. Die Ergebnisse erlauben Aussagen über primäre und sekundäre Ionisationsreaktionen, die zu einem stimmigen Bild der Ionenbildung bei MALDI zusammengefaßt wurden. Grundlage des vorgestellten Modells sind bereits veröffentlichte Modelle, deren wesentliche Aspekte teilweise schon in den ersten Jahren nach der Einführung von MALDI, zu einem erheblichen Teil aber erst in jüngster Zeit erkannt wurden. Einen erneuten Anstoß für die Diskussion um den Mechanismus von MALDI gab die Hypothese, daß die Ionisation eng mit der Bildung von Clustern verbunden ist und dabei sowohl eine Freisetzung präformierter Ionen als auch nachfolgende Reaktionen unter Transfer von Protonen und Elektronen erfolgen. Der Ausgangspunkt für all diese Prozesse ist der Analyt im Matrixkristall. Die in dieser Arbeit vorgestellten Experimente zeigen, daß einige wesentliche Postulate des "Cluster-Modells" richtig sind. Insbesondere konnte der Beweis geführt werden, daß Analyte geladen im Matrixkristall existieren und daß die gelöste Form des Analyten weitgehend im Matrixkristall konserviert wird. Als einfache Testsysteme wurden Matrixlösungen mit verschiedenen pH-Indikatoren versetzt und die Farbe der Kristalle dokumentiert. Dabei zeigte sich, daß in Abhängigkeit vom pH-Wert der Lösung sowohl Moleküle mit einer positiven oder negativen Nettoladung als auch neutrale Zwitterionen gleichermaßen effizient in Matrixkristalle eingebaut werden. Die Ladung aller sauren und basischen funktionellen Gruppen des Analyten im Kristall ist damit durch den pH-Wert der Matrixlösung bestimmt. Wenn eine Nettoladung vorhanden ist, muß zudem diese Ladung durch Gegenionen kompensiert sein, so daß Ionenpaare entstehen. Aber auch bei Zwitterionen können Gegenionen vorhanden sein. Darüber hinaus gelang durch 1H-NMR-Spektroskopie der Nachweis, daß Lösungsmittel im Kristall eingeschlossen ist und selbst nach Trocknen der Kristalle bei erhöhter Temperatur oder im Vakuum dort verbleibt. Dies führt zu dem anschaulichen Bild, daß Analyte in Abhängigkeit vom pH-Wert als "Multi-Ionenpaare" und partiell solvatisiert im Matrixkristall konserviert werden. Ausgehend von diesen präformierten, solvatisierten Ionenpaaren wird durch den plötzlichen Energieeintrag des Laserpulses die explosive Bildung von Clustern ausgelöst. Für die Bildung von geladenem Clustern gibt es zwei plausible Erklärungsansätze. Durch die Existenz der geladenen Analyte im Kristall ist eine besonders einfache Ionisation unter Freisetzung "präformierter" Ionen durch die Trennung eines Ionenpaares denkbar. Eine zweite Möglichkeit wäre die Photoionisation eines Matrixmoleküls mit nachfolgendem Protonentransfer. Da aber stets negative Ladungen vorhanden sind (entweder im Analyten selbst oder als Gegenion), wird bevorzugt ein Anion neutralisiert. In beiden Fällen entsteht ein Cluster, der durch ein fehlendes oder neutralisiertes Gegenion geladen ist. Die Freisetzung des Analytions erfolgt durch Verdampfen von Neutralmolekülen (Matrix, Lösungsmittel). Ionenpaare werden durch Protonentransfer neutralisiert, so daß kleine Neutralmoleküle abdampfen und mit Ausnahme von Metallkationen keine ionischen Addukte detektiert werden. Der Protonierungsgrad des Analyten beim Einbau hat einen erheblichen Einfluß auf die detektierten Ionen. Sind bereits in Lösung und damit im Kristall positiv geladene Gruppen vorhanden, werden besonders leicht protonierte Molekülionen gebildet. Dagegen entstehen aus deprotonierten Vorläuferionen (in der Regel negativ geladen) verstärkt kationisierte Molekülionen. Dabei ist nicht die Nettoladung entscheidend, sondern die Existenz und Anzahl positiver und negativer Gruppen im Analyten. Die Kationisierung erfolgt bereits im Kristall, da die Ionen eine hohe, MALDI-typische Anfangsgeschwindigkeit zeigen. Die Koordination der Kationen an der negativen Ladung verhindert die Neutralisation durch Protonierung, die wesentlich für die Freisetzung von protonierter Molekülionen ist. Diese Neutralisation von Ionenpaaren ist auch die Ursache dafür, daß Anionenaddukte normalerweise nicht nachgewiesen werden. Durch Zugabe einer sehr starken Säure wird jedoch diese Zwischenstufe stabilisiert und erscheint in Form von Anionenaddukten im Spektrum. Dabei zeigte sich, daß die Anzahl der detektierten Addukte mit der Zahl der basischen Stellen im Analytmolekül korreliert, welches den Einbau von (mehrfach) geladenen Analytionen zusammen mit ihren Gegenionen bestätigt. Neben der Koordination der Anionen an positiv geladenen Stellen des Analyten ist die Energiebilanz des Protonentransfers dafür entscheidend, ob die Anionenaddukte den MALDI-Prozeß überstehen, so daß Anionen mit einer vergleichsweise geringen Gasphasenbasizität zur Adduktbildung neigen. Des weiteren kann die Konkurrenz verschiedener Anionen bei der Bildung der Ionenpaare eine Verschiebung der Adduktverteilung bewirken. Aber auch eine höhere Energiezufuhr (z.B. durch höhere Laserenergie) bewirkt eine verstärkte Neutralisation der Ionenpaare, wobei ein erheblicher Anteil metastabiler Fragmentierungen auftritt. Die Koordination von Gegenionen und die "metastabile Neutralisation" führt bei Verbindungen, die zur Ionenpaarbildung neigen, zur Peakverbreiterung und zu einer begrenzten Auflösung. Darüber hinaus sind bei MALDI weitere Sekundärreaktionen beteiligt. Dazu zählt die Übertragung von Wasserstoffatomen, die wahrscheinlich auch die Ursache für prompte Fragmentierungen ist (in-source decay, ISD). Ob eine Ladungsreduktion mehrfach geladener Vorläuferionen durch Elektronen auch bei Biopolymeren eine wesentliche Rolle spielt, bleibt dagegen weiterhin offen. Durch die in Abhängigkeit von der Nettoladung zunehmende Coulomb- Anziehung der koordinierten Gegenionen werden vermutlich erst gar keine hochgeladenen Ionen in die Gasphase freigesetzt. Die vorgestellten Ergebnisse ergeben ein plausibles, qualitatives Bild der Ionenbildung bei MALDI. Es wurde gezeigt, daß die gelöste Form des Analyten inklusive Ladungen, Gegenionen und Solvathülle bei der Kristallisation weitgehend erhalten bleibt, und daß diese Ausgangssituation entscheidend für die Art der letztendlich gebildeten Gasphasenionen ist. Zudem ist nicht die Protonierung neutraler Analyte, sondern eine Neutralisation von Ionen(paaren) durch Protonentransfer ein zentraler Bestandteil von MALDI.
Über lange Zeit wurden in der EPR-Spektroskopie hauptsächlich cw-Experimente bei einer Mikrowellenfrequenz von 9 GHz durchgeführt. In den letzten 10 bis 15 Jahren aber haben zwei verschiedene Entwicklungen immer stärkere Verbreitung gefunden. Dies sind zum einen die Verwendung von immer höheren Magnetfeldern und damit Mikrowellenfrequenzen, und zum anderen die Anwendung von Puls-Experimenten. Hochfeld-EPR bietet zwei wesentliche Vorteile gegenüber den klassisch verwendeten Magnetfeldstärken. Dies ist einerseits die erhöhte spektrale Auflösung bei Systemen mit anisotropen g-Tensoren, andererseits die höhere absolute Empfindlichkeit in Verbindung mit einem geringeren Probenvolumen. Puls-Experimente andererseits bieten die Möglichkeit, Informationen zu gewinnen, die mit cw-EPR Spektroskopie nicht oder nur sehr schwer zu erhalten sind. Die Kombination dieser beiden Weiterentwicklungen der EPR-Spektroskopie eröffnet die Möglichkeit, mittels mehrdimensionaler Spektroskopie detaillierte orientierungsabhängige Informationen zu erhalten. Im Rahmen dieser Arbeit wurde ein Puls EPR-Spektrometer aufgebaut, welches bei einer Mikrowellenfrequenz von 180 GHz und einem statischen Magnetfeld von 6,4 T arbeitet. 180 GHz ist derzeit weltweit die höchste Mikrowellenfrequenz, bei der routinemäßig ein zylindrischer Hohlraumresonator verwendet wird und bei der Puls EPR-Experimente durchgeführt werden. Da bei solchen Mikrowellenfrequenzen einige benötigte Bauteile nicht mehr in konventioneller Bauweise erhältlich sind, wurden quasioptische Elemente verwendet, um einen Zirkulator aufzubauen. Der Transport der Mikrowellenstrahlung von der Quelle zur Probe und von dort zurück zur Detektion geschieht mittels überdimensionierter Hohlleiter, um die Verluste zu minimieren. Ein zylindrischer Hohlraumresonator wird in einer fundamentalen Mode betrieben, um am Probenort die für Puls-Experimente notwendige Mikrowellenleistung zu erzeugen. Mit der erreichten Mikrowellenleistung und der Ankopplung des Resonators werden Pulslängen von ca. 60 bis 80 ns für Systeme mit S=1/2 erzielt. Die Eigenschaften des aufgebauten Spektrometers wie die Empfindlichkeit oder die Totzeit im Pulsbetrieb werden ausführlich dargestellt und diskutiert. Ebenso werden die Eigenschaften der implementierten Spektrometersteuerung, insbesondere im Hinblick auf das Zeitverhalten bei Puls-Experimenten, dargestellt und diskutiert. Im letzten Teil der Arbeit wird ein ausführliches Anwendungsbeispiel für Hochefeld-EPR diskutiert. Das Ras-Protein spielt eine wichtige Rolle in der intrazellulären Signalweiterleitung und reguliert solche Prozesse wie Zellwachstum, Differentiation und Apoptose. In ca. 30 % aller menschlicher Tumore werden Mutationen dieses Proteins gefunden, was die wichtige Rolle dieses Proteins demonstriert. Trotz dieser wichtigen Funktion ist der genaue Mechanismus des Aktivierungszykluses noch nicht im Detail aufgeklärt worden. Mittels cw-EPR Spektroskopie wurden die GDP-gebundenen inaktiven Proteinkomplexe verschiedener Mutanten untersucht. Durch Messungen in H217O-angereichertem Wasser konnte gezeigt werden, dass bei Raumtemperatur beim Wildtyp ein Wasserligand weniger am aktiven Zentrum der Proteinkomplexe vorliegt als bei einer onkogenen Mutante. Dieses Ergebnis widerspricht den bisher durch verschiedene Röntgenstrukturuntersuchungen gewonnen Erkenntnissen. Es wird ausführlich darüber diskutiert, dass diese unterschiedlichen Ergebnisse vermutlich auf Kristallbildungseffekte zurückzuführen sind.
Durch Substitution der vier Cysteine des a-Amylase-Inhibitors Tendamistat wurden Disulfidmutanten erzeugt. Zur Herstellung wurde im Rahmen dieser Arbeit die statistische Mutagenese angewandt. Die beiden Mutanten 11H27I45R73T und 11H27N45S73D wurden mit einem kombinierten Verfahren aus Olignukleotidsynthese und PCR erzeugt. Dieses hat als Grundlage die Genkassette, die in pT136 und pAX5a enthalten ist. Durch die gleichzeitige Veränderung beider Cysteine einer Disulfidbrücke sind Probleme mit der Einschränkung in der Variantenvielfalt nicht vorhanden, sowie mehrfache Mutationszyklen nicht notwendig. Die 4-fach-Mutanten wurden in Streptomyces lividans kloniert und exprimiert. Dabei konnte gezeigt werden, daß stabiles Tendamistat erhalten wird. Damit wurde Disulfidbrücken-freies Tendamistat erhalten, ohne zusätzliche Mutationen einführen zu müssen.
In dieser klinischen Studie wurden 10 normalgewichtige und 10 übergewichtige Patienten mit Diabetes mellitus 2 und einer unbehandelten diabetischen Polyneuropathie über vier Wochen mit a-Liponsäure 1200 mg/die per os behandelt. Vor und nach der Therapie wurde ein intravenöser Glucosebelastungstest bei jedem Patienten durchgeführt und die ermittelten Glucose-, Insulin-, Pyruvat- und Lactatspiegel mit einer Kontrollgruppe (10 normalgewichtige und 10 übergewichtige normoglykämische Kontrollpersonen) verglichen. Die SI und SG Werte wurden mit Hilfe der Minimalmodeling Technik ermittelt. In dieser Studie wurden folgende Ergebnisse erzielt: 1. Die SI- und SG-Werte waren bei der normalgewichtigen Kontrollgruppe höher als bei den übergewichtigen Kontrollpersonen. 2. Die SI und SG waren bei beiden diabetischen Gruppen verglichen mit den Kontrollgruppen vermindert. 3. Die SI-Verminderung in beiden diabetischen Gruppen deutet auf eine primäre Insulinresistenz hin, die für die Entwicklung der Erkrankung entscheidend ist. 4. Bei den Kontrollgruppen waren die Nüchternpyruvatspiegel bei den Über-gewichtigen höher als bei den Normalgewichtigen, wobei die Steigerung der Lactat- und Pyruvatspiegel und damit die errechnete AUC für Pyruvat und Lactat unter dem Glucosebelastungstest keine signifikanten Unterschiede in beiden Gruppen zeigte. 5. Die Nüchternlactatspiegel waren sowohl bei normal- als auch bei übergewichtigen Patienten mit Diabetes mellitus 2, verglichen mit der jeweiligen Kontrollgruppe, deutlich erhöht. Die Nüchternpyruvatspiegel waren bei übergewichtigen Diabetikern jedoch deutlich höher als bei normalgewichtigen Diabetikern. 6. Die deutlich erhöhten Lactat- und Pyruvatspiegel im Nüchternzustand bei diabetischen Patienten weisen auf eine beeinträchtigte basale Glucoseoxidation hin. 7. Unter intravenöser Glucosebelastung stiegen die Pyruvatspiegel stärker als die Lactatspiegel an und waren vor allem bei übergewichtigen Diabetikern deutlich erhöht. Dieser starke Anstieg belegt die verminderte Glucoseoxidation bei Diabetikern. 8. Die vierwöchige a-Liponsäuretherapie verbessert signifikant die SG sowohl bei normalgewichtigen- (** P<0.01) als auch bei übergewichtigen Diabetikern (* P<0.05). Der Therapieeffekt von a-Liponsäure auf die SI war bei normalgewichtigen Patienten deutlich höher als bei übergewichtigen Patienten. Der SG- und SI-Effekt auf die Glucose-Wiederaufbaurate war nach der Therapie verbessert. 9. Bei normalgewichtigen Patienten führte eine vierwöchige a-Liponsäuretherapie zu einer verbesserten Glucoseverstoffwechselung. Der weniger ausgeprägte Therapieeffekt von a-Liponsäure bei übergewichtigen Diabetikern mag wohl auf der Schwere der Stoffwechselentgleisung in dieser Patientengruppe beruhen. 10. a-Liponsäure führte zu einer deutlichen Abnahme der AUC für Pyruvat und Lactat in beiden Gruppen. Dieses Ergebnis deutet darauf hin, dass a-Liponsäure wahrscheinlich über eine Stimulation auf dem Niveau des Pyruvat-Dehydrogenasekomplexes wirkt. a.Liponsäure scheint also sowohl im Nüchternzustand als auch unter Glucosebelastung die Glucoseoxidation bzw. den Pyruvatmetabolismus zu verbessern. Bei Patienten mit Diabetes mellitus 2 ist die Glucoseabbaurate durch eine verminderte aerobe und anaerobe Glucoseoxidation gehemmt. Grund dafür ist wahrscheinlich eine PDH Aktivitätsabnahme. Die ständige Hyperglycämie führt zu einer Zunahme der Pyruvat- und Lactatkonzentration und einer Abnahme der SI und SG. Die orale Einnahme von a-Liponsäure beschleunigt anscheinend den intrazellulären Glucosemetabolismus durch Stimulation der PDH und erhöht das intrazelluläre Redox- potential. Es kommt dadurch wahrscheinlich zu einer Verbesserung der Energiegewinnung aus Phosphaten und mobilisiert den Glucosetransporter, wodurch sich der Glucosetransport in die Muskelgewebe verbessert. Damit führt a-Liponsäure zu einer verbesserten Glucoseutilisation bei Patienten mit Diabetes mellitus 2.
Die Osseointegration in der dentalen Implantologie wurde anhand einer Literaturübersicht dargestellt und ausgewertet. Die Literaturübersicht beinhaltet Verlaufsstudien, in vitro und in vivo Studien, die ultrastrukturelle, biomechanische und biochemische Untersuchungen und deren Resultate aufzeigen. Im 1. Kapitel wurden die Kriterien zur Beurteilung des Implantaterfolges dargestellt. Es lässt sich feststellen, dass nicht nur ein Implantatverlust als Misserfolg zu bewerten ist, sondern auch klinische und röntgenologische Erfolgskriterien eine Rolle spielen. Die Mobilität, der Knochenabbau, Entzündungsreaktionen, Schädigungen von anatomischen Strukturen und die Funktionstüchtigkeit des Implantates werden mitbewertet. Im 2. Kapitel wurden die Voraussetzungen für die Erzielung der Osseointegration aufgezeigt. Zu diesen gehören die Physiologie der Knochenheilung, die Implantatwerkstoffe, das operative Vorgehen und die Einheilungsphase. Der Vorgang der Knochenheilung, speziell der primären Frakturheilung, wird der Implantateinheilung gleichgesetzt. Dies bedeutet, dass ein ausreichender belastungsfreier Zeitraum für die Implantateinheilung einzuhalten ist. Bei den Implantatwerkstoffen wurden die Metalle und die Keramiken verglichen. Der Implantatwerkstoff der Wahl ist aufgrund seiner mechanischen und biokompatiblen Eigenschaften das Titan. Andere Materialien, wie z.B. Tantal und Hydroxylapatit, haben sich als problematisch erwiesen. Beim operativen Vorgehen haben sich die Aspekte der atraumatischen, aseptischen und standardisierten Operationsbedingungen als vorteilhaft erwiesen. Der Einfluss der Knochenqualität und des Implantatdesigns auf die erreichbare Primärstabilität wurde dargestellt. Bei der Einheilphase wurde eine Übersicht über die bis dato gültigen Einheilzeiten gegeben. Die Vorgänge während der Implantateinheilung wurden unter Bezug auf die ultrastrukturellen Aspekte dargestellt. Der Einfluss von osteogenetischen Faktoren wurde speziell aufgezeigt. Die Implantateinheilung ist als komplexer Vorgang zu verstehen, bei dem die Wechselwirkung der verschiedenen Faktoren eine wichtige Rolle spielt. Die Morphologie des Interface wurde anhand von Studien diskutiert. Unterschiede in der Morphologie sind in Abhängigkeit von den Implantatwerkstoffen, der Remodelingphase und den verschiedenen Versuchstieren zu finden. Im 3. Kapitel wurden die Voraussetzungen für den Erhalt der Osseointegration besprochen. Zu diesen gehören die Knochenbelastung, die Konstruktionsprinzipien dentaler Implantate, die prothetischen Konzepte und Implantat-Systembeispiele. Bei der Knochenbelastung wurden die Aspekte der okklusalen Überbelastung, der axialen bzw. nicht-axialen Krafteinleitung, Zahn-Implantat- und rein implantat-getragene Rekonstruktionen und materialabhängige Faktoren der Suprakonstruktion berücksichtigt. Hierbei stellte sich heraus, dass Überbelastungen vermieden werden sollten. Die Art der Krafteinleitung sowie die Verbindung von Implantaten mit der natürlichen Bezahnung haben keinen negativen Einfluss auf die Osseointegration. Rekonstruktionen auf Kuststoffbasis werden als problematisch dargestellt. Bei den Konstruktionsprinzipien wurden die Bereiche des enossalen Teils, die Implantatdimension, die Implantatform, der Durchtritt durch die Weichgewebe und die Position der Implantatoberkante dargestellt. Die Unterschiede in den Konstruktionsprinzipien der dentalen Implantate sind heutzutage gering und sind in der Strukturierung der Oberflächen, der Positionierung der Implantatoberkante und im Durchtritt durch die Weichgewebe zu finden. Die Bedeutung der Weichgewebsmanschette beim Osseointegrationsvorgang wurde hervorgehoben. Die Vorteile von konischen Schraubenimplantaten im Vergleich zu Zylinderimplantaten werden aufgezeigt. Ein wurde ein Überblick über die etablierten Okklusionskonzepte und prothetischen Konzepte gegeben. Eine Abhängigkeit von der Ausgangssituation im natürlichen Restgebiss wurde festgestellt, so dass das Konzept sich nach dieser richten muss. Bei den Systembeispielen wurden sechs Implantattypen dargestellt: das Brånemark-System, das Astra-System, das Ankylos-System, das Frialit 2, das ITI- und das 3i-System. Im 4. Kapitel wurden weitere Einflüsse auf die Osseointegration diskutiert. Dazu gehören die Knochenqualität, die Regenerationsfähigkeit des Knochens, neue OP-Verfahren, "neue" Oberflächen und deren Wirkung auf die zelluläre Umgebung, die fraktionierte Lasteinleitung und die Früh- und Sofortbelastung. Die Beurteilung der Knochensituation, d.h. das Erkennen von Veränderungen, die Evaluation der Knochendichte und die Regenerationsfähigkeit des Knochens wurden als prächirurgische Aspekte besprochen. Neue Op-Verfahren wie die Knochen -kondensation und -verdrängung wurden als Möglichkeit vorgestellt, die eine Implantatversorgung auch in schwierigen anatomischen Verhältnissen erlaubt. Der Einfluss der Implantatoberfläche auf den Knochen-Implantatkontakt, die Verankerungsfestigkeit und die Zellaktivität wurde dargestellt. Bei den Implantatoberflächen ist erkennbar, dass eine Vergrößerung der Gesamtoberfläche durch Mikro und -Makrostruktur angestrebt wird. Eine optimale Primärstabilität durch einen besseren Verzahnungseffekt wird dadurch möglich. Die Prinzipien der fraktionierten Lasteinleitung und des progressive bone loadings, sowie die Früh- und Sofortbelastung wurden vorgestellt. Eine Verkürzung der Einheilphase und somit eine Frühbelastung ist unter optimierten Bedingungen möglich. Ein sich anschließendes Knochentraining verbessert die vorgefundene Knochensituation und somit die Prognose der Implantattherapie. Zusammenfassend lässt sich feststellen, dass eine Osseointegration unter Einhaltung von standardisierten Operationsbedingungen mit jedem der hier vorgestellten Implantattypen erzielbar ist. Beim Erhalt der Osseointegration spielen die Unterschiede bei den Implantattypen und die Belastung über die prothetische Versorgung eine wichtige Rolle.
Die Dissertationsarbeit mit dem Titel "Aufhebung der peripheren Immuntoleranz durch Kopplung eines Melanomantigens mit immunogenen Fremdproteinen" befasst sich mit der Weiterentwicklung einer effektiven Melanomvakzine im tierexperimentellen Modell im Hinblick auf die spätere klinische Anwendung im Patienten. Als Antigen wurde das in Melanomzellen und in Melanozyten natürlicherweise exprimierte Protein TRP2 verwendet. Dieses Antigen kann bei Mäusen und Menschen von zellulären Komponenten des Immunsystems erkannt werden. Durch die Fusion des wenig immunogenen Selbstantigens mTRP2 mit dem immunogenen Fusionspartner EGFP gelang es bei C57BL/6 Mäusen, die körpereigene Toleranz gegen Selbstantigene zu umgehen und so eine antigenspezifische Immunantwort zu induzieren. In den mit der cDNA von EGFPmTRP2aa30-519 immunisierten Mäusen konnte eine vitiligoartige Felldepigmentierung nachgewiesen werden, die nach Immunisierung mit der cDNA von mTRP2 nicht beobachtet wurde. In diesen Tieren ließen sich auch im Elispot TRP2-spezifische T-Zellen nachweisen. Tiere, die mit Ad-EGFPmTRP2aa30-519 immunisiert wurden waren gegen das Wachstum von transplantierten Melanomzellen geschützt. Eine Immunantwort und ein Tumorschutz konnte jedoch nur induziert werden, wenn eine direkte Fusion zwischen dem Selbstantigen TRP2 und dem immunogenen Fusionspartner EGFP besteht. In Versuchen mit knockout Mäusen und Depletionsexperimenten konnte gezeigt werden, das CD4+ T-Zellen eine entscheidende Rolle in der Primingphase CD8+T-Zellen von die Induktion von antigenspezifischen CD8+T-Zellen spielen. In weiteren Experimenten nach Immunisierung mit dem Fusionskonstrukten EGFPmTRP2aa30-188, EGFPmTRP2aa30-179 und EGFPmTRP2aa180-188 konnte gezeigt werden, dass das Peptidepitop mTRP2 aa180-188 für die Induktion einer Felldepigmentierung und für eine effektive Abwehr von transplantierten Melanomzellen vorhanden sein muss. Um den Einfluss von kompetitiven MHC-Klasse I bindenden Peptidepitopen auf die Induktion einer Immunantwort zu untersuchen wurden Mäuse mit dem Fusionskonstrukt ß-Galaktosidase-mTRP2aa180-188 immunisiert. In diesen Mäusen konnte eine vtiligoartige Felldepigmentierung der beschossenen Bauchhaut und im Elispot-Test gleichzeitig TRP2 und ß-gal spezifische T-Zellen nachgewiesen werden. Im Gegensatz zu Arbeiten anderer Arbeitsgruppen scheint in diesem System keine kompetitive Hemmung zwischen dem ß-gal und dem TRP2 Peptid zu bestehen. Um den Einfluss der Kopplung auf die intrazelluläre Lokalisation zu charakterisieren wurden Fusionskonstrukte bestehend aus EGFP und mTRP2 mit unterschiedlichen Lokalisationssequenzen generiert, DCEK-Zellen stabil transfiziert und die intrazelluläre Lokalisation mit konfokaler Mikroskopie bestimmt. Nach Immunsisierung von Mäusen mit diesen Fusionskonstrukten konnte gezeigt werde, das die intrazelluläre Lokalisation keinen Einfluss auf die Entstehung einer Immunantwort hat. Für die spätere Anwendung der Kopplung in klinischen Studien wurde ein Fusionskonstrukt bestehend aus mTRP2 und dem gut charakterisiertem Antigen des humanen Cytomegalovirus pp65 generiert. Nach Gene-Gun Immunisierung von C57BL/6 Mäusen mit pp65mTRP2 zeigte sich ähnlich wie bei EGFPmTRP2 eine vitiligoartige Felldepigmentierung. Im Elispot-Test ließen sich TRP2 spezifische T-Zellen nachweisen. Das Ergebnis bestätigt die Annahme, dass auch pp65 zur Verstärkung einer antigenspezifischen Immunantwort gegen ein wenig immunogenes Selbstantigen in der Lage ist.
MHC Klasse I Moleküle liegen im Endoplasmatischen Reticulum (ER) als Dimer bestehend aus einer schweren Kette mit Transmembrandomäne und einem 12 kDa-Protein, dem ß2-Mikroglobulin vor. Nach der Beladung des MHC-Klasse I-Moleküls mit einem antigenen Peptid, welche vorwiegend im Cytosol durch proteasomalen Abbau generiert und durch den Transportkomplex TAP ins ER transloziert werden, findet der Transport des MHC-Peptid-Komplexes zur Zelloberfläche statt. Dort wird das Antigen cytotoxischen T-Zellen präsentiert. An der Assemblierung und Reifung von MHC-Klasse I-Molekülen sind verschiedene Chaperone beteiligt. Eine wichtige Rolle beim Peptidbeladungsprozess von MHC-Klasse I-Molekülen spielt Tapasin. Dabei handelt es sich um ein 48 kDa, MHC-codiertes Typ I Transmembran-Glycoprotein aus der Immunglobulinsuperfamilie. Es verbrückt den TAP-Komplex mit MHC-Klasse I-Molekülen, hält unbeladene MHC-Klasse I-Moleküle im ER zurück und führt eine Qualitätskontrolle des gebundenen Peptids durch. Bei dieser Peptideditierung werden Peptide wieder selektiv aus der MHC-Bindungstasche entfernt, wenn sie mit einer niedrigen Affinität gebunden sind. Dadurch wird sichergestellt, dass keine leeren oder suboptimal beladenen MHC-Peptid-Komplexe an die Zelloberfläche gelangen. In der vorliegenden Arbeit wurde ein System etabliert, mit dem der Einfluss von Tapasin auf die Peptidbeladung von MHC-Klasse I-Molekülen in vitro untersucht werden kann. Dazu wurde ein Verfahren zur heterologen Expression und Reinigung von funktionalem, löslichem Tapasin aus E. coli-Zellen aufgestellt. Weiterhin wurden ß2m und die schwere Kette von HLA-B*2705 heterolog in E. coli-Zellen exprimiert, isoliert und zusammen mit einem Reporterpeptid zum funktionalen HLA-B*2705 renaturiert. Bei Untersuchungen der Wechselwirkung zwischen Tapasin und HLA-B*2705-Molekülen konnte mittels der Oberflächen-Plasmonen-Resonanz-Spektroskopie eine direkte Interaktion zwischen Tapasin und unbeladenem HLA-B*2705 gezeigt werden. Detailliertere Untersuchungen zur Rolle von Tapasin bei der Peptidbeladung wurden mittels einer Gelfiltration gekoppelt mit der Fluoreszenzdetektion des Reporterpeptids durchgeführt. Dabei konnte festgestellt werden, dass unbeladene MHC-Klasse I-Moleküle in Anwesenheit von Tapasin stabilisiert werden und in einer Konformation gehalten werden, die eine Assoziation mit Peptid fördert. Weiterhin wurde gezeigt, dass durch Tapasin die Assoziationsrate für die Peptidbindung erhöht ist. Somit kann in Anwesenheit von Tapasin eine größere Anzahl an Peptiden auf eine stabile und hochaffine Bindung an MHC-Klasse I-Moleküle überprüft werden. In Experimenten mit bereits beladenen MHC-Klasse I-Molekülen konnte gezeigt werden, dass der neugebildetete Komplex auch nach erfolgter Peptidassoziation durch Tapasin stabilisiert wird. Dies ist vermutlich auf eine Erniedrigung der Dissoziationsrate für das Peptid zurückzuführen. Mit dem in dieser Arbeit etablierten Untersuchungssystem ist die Grundlage zu detaillierten Studien der Rolle von Tapasin bei der Peptidbeladung von MHC-Klasse I-Molekülen geschaffen.
Lipophile, sedimentgebundene Substanzen sind für endobenthische Tiere in hohem Maße bioverfügbar und können von diesen aufgenommen und angereichert werden. Für benthivore Fische besteht damit das Risiko, diese Chemikalien mit der Nahrung aufzunehmen. Die Aufkonzentrierung sedimentgebundener Chemikalien über zwei oder mehr trophische Ebenen (Biomagnifikation) kann somit durch die Bestimmung der Biokonzentration von Chemikalien in Fischen nach der OECD-Richtlinie 305 (OECD 1996) nicht adäquat erfasst werden. Zur standardisierten Bestimmung der Bioakkumulation und Biomagnifikation wurde eine einfache, zwei trophische Stufen umfassende Labornahrungskette etabliert. Diese bestand aus dem endobenthischen Oligochaeten Tubifex tubifex (MÜLLER) als Beute und dem Dreistachligen Stichling (Gasterosteus aculeatus LINNÉ) als Prädator. Die Experimente wurden mit 14C-markiertem Hexachlorbenzol und Terbutryn in dotiertem künstlichem Sediment und rekonstituiertem Wasser durchgeführt. Um den Einfluss einzelner Expositionspfade an der Gesamtanreicherung der Modellchemikalien zu quantifizieren, wurden die Fische gegenüber dotiertem Wasser bzw. dotiertem Sediment (Biokonzentrationsszenario), vorexponierten Würmern (Biomagnifikationsszenario) und Kombinationen dieser Aufnahmepfade (Bioakkumulationsszenario) exponiert. Sedimentgebundenes HCB wurde im Bioakkumulationsszenario sowohl in den Tubificiden (BAFWurm/Sediment (FG/FG) = 7,8) als auch in den Fischen (AFFisch/Wasser (FG/FG) = 52500; AFFisch/Sediment (FG/FG) = 47; AFFisch/Wurm (FG/FG) = 3,2) deutlich angereichert. Da die Gewebekonzentration von HCB im Räuber, auch auf Basis lipidnormierter Konzentrationen, die Konzentration in seiner Beute überstieg (AFFisch/Wurm (lipidnormiert) = 1,3), kann von einer Aufkonzentrierung der Chemikalie entlang der Labornahrungskette ausgegangen werden (Biomagnifikation). Es konnte gezeigt werden, dass die Exposition gegenüber der Kombination sämtlicher Aufnahmepfade zu deutlich höherer Anreicherung in den Fischen führte als im Falle einzelner Expositionspfade. Ein Vergleich der Ergebnisse der einzelnen Expositionsszenarien erlaubt den Schluss, dass HCB von den Fischen im Bioakkumulationsszenario zu ungefähr gleichen Teilen über das Wasser (45%) und über die Nahrung (41%) aufgenommen wurde, während die Anwesenheit kontaminierten Sediments nur mit 14% zur Gesamtanreicherung beitrug. 14C-Terbutryn wurde im Bioakkumulationsszenario - auf Basis der Gesamtradioaktivität - sowohl in den Tubificiden (AF Wurm/Sediment (FG/FG) = 4,4) als auch in den Fischen (AFFisch/Wasser (FG/FG) = 323; AFFisch/Sediment (FG/FG) = 10; AFFisch/Wurm (FG/FG) = 1,4) angereichert. Allerdings wurde Terbutryn in den Stichlingen zum überwiegenden Teil zu einem polareren Metaboliten transformiert (84%). Daher müssen zur Abschätzung der Anreicherung von Terbutryn die auf den Gehalt an Ursubstanz korrigierten Gewebekonzentrationen und Anreicherungsfaktoren betrachtet werden. Hierbei wird deutlich, dass Terbutryn nicht entlang der Labornahrungskette aufkonzentriert wurde (AFFisch/Wurm = 0,09). Ein Vergleich der Ergebnisse der einzelnen Expositionsszenarien zeigt, dass der Hauptaufnahmepfad von 14C-Terbutryn in Stichlingen das umgebende Wasser ist, während die Anwesenheit kontaminierten Sediments und die Aufnahme über die Nahrung eine untergeordnete Rolle spielen. Da die Messung der Bioakkumulation und Biomagnifikation von sedimentassoziierten Substanzen sehr aufwendig ist, werden zur Abschätzung ihres Risikopotentials vermehrt mathematische Modelle entwickelt und eingesetzt, die eine Chemikalienanreicherung in Nahrungsketten vorhersagen sollen. Im Rahmen der vorliegenden Arbeit wurden die Vorhersagen dreier Modelle mit den experimentell ermittelten Daten verglichen. Hierdurch sollte sowohl die Eignung des entwickelten Testsystems als auch der verwendeten Modelle als nützliche Instrumente des environmental risk assessment überprüft werden. Die Vorhersagen der drei Modelle bei Applikation auf die Daten der Labornahrungskette stimmen gut mit den experimentell bestimmten Konzentrationen von HCB und Terbutryn in den Tubificiden und Fischen überein. Für HCB sagen alle drei Modelle eine Biomagnifikation in der Labornahrungskette vorher. Die Modelle unterschätzen die gemessenen Konzentrationen in den Fischen mit einem Faktor von 1,1 - 1,7 nur geringfügig. Die Konzentration in den Tubificiden wird vom Gobas/Morrison-Modell sehr präzise vorhergesagt (Unterschätzung um Faktor 1,1), während sie im Campfens/Mackay-Modell (Faktor 2,1) und Gobas-Modell (Faktor 6,3) deutlicher unterschätzt wird. Speziell die dem Campfens/Mackay- und Gobas-Modell zugrunde liegenden Annahmen zur Anreicherung in benthischen Organismen erwiesen sich für HCB und Tubificiden als unzureichend zu sein, da die Modelle hierbei nur die Aufnahme aus dem Porenwasser berücksichtigen. Für Terbutryn sind die Modellvorhersagen sehr viel ungenauer als für HCB, da vor allem die starke Metabolisierung von Terbutryn in den Stichlingen unterschätzt wird. Dies resultiert in einer Überschätzung der Terbutryn-Konzentration in den Fischen (Faktor 5,8 - 6,4). Allerdings bleiben zwei Punkte festzuhalten: 1) Die Modelle sagen keine Biomagnifikation von Terbutryn in der Labornahrungskette vorher. 2) Die Modellvorhersagen bestärken die Annahme, dass die Anreicherung von Terbutryn in den Fischen dominiert ist von der Aufnahme aus dem umgebenden Wasser über die respiratorische Oberfläche. Die analysierten Modelle können bei entsprechender Weiterentwicklung als nützliche Instrumente für eine erste Abschätzung des Risikos der Bioakkumulation sedimentgebundener, hoch lipophiler Substanzen in aquatischen Nahrungsketten im Rahmen der Risikoabschätzung (environmental risk assessment) dienen. Zum gegenwärtigen Entwicklungsstand ist die Labornahrungskette jedoch den Modellen vorzuziehen, da sie die konservativeren Daten liefert. Für eine abschließende Beurteilung der vorgestellten Methoden bedarf es allerdings einer Verbreiterung der Datenbasis.
Bemerkenswerte Fortschritte in der rekombinanten Antikörpertechnologie und die Entwicklung unterschiedlichster Antikörperformate zur Expression in Bakterien, niederen und höheren Eukaryonten haben Antikörperderivaten vielfältige Anwendungsbereiche eröffnet. Hierzu gehört beispielsweise ihr Einsatz als experimentelle Wirkstoffe in der Tumortherapie, wo einige dieser Ansätze bereits in klinischen Studien evaluiert werden. Daneben könnten rekombinante Antikörperderivate aber auch eine zunehmend wichtige Rolle in der funktionellen Genomik spielen, beispielsweise bei der Aufklärung der Funktion medizinisch relevanter Genprodukte. So stellt der gezielte Einsatz intrazellulär exprimierter single-chain Fv Antikörperfragmente (scFvs) grundsätzlich einen viel versprechenden Ansatz zur selektiven Interferenz mit der Funktion intrazellulärer Proteine dar. Solche scFv Fragmente sind jedoch nach Expression im Zytosol aufgrund des dort vorherrschenden reduzierenden Milieus häufig inaktiv, was auf die nicht erfolgte Ausbildung intramolekularer Disulfidbrücken zurückzuführen ist, die normalerweise in den variablen Domänen von Antikörpern vorliegen. Nur wenige, bisher meist sehr aufwendig durch individuelle Analyse einzelner Moleküle identifizierte scFvs weisen eine ausreichend hohe intramolekulare Stabilität auf, um den Verlust der Disulfidbindungen kompensieren zu können und unter diesen Bedingungen aktiv zu sein. Dies steht bislang einer breiten Anwendung zytoplasmatischer scFvs entgegen. Ziel dieser Arbeit war es, ausgehend von hochdiversen scFv Antikörper-Bibliotheken ("Libraries") direkt solche selten auftretenden scFv Antikörperfragmente zu isolieren, die trotz des reduzierenden Milieus im Zytosol von Säugerzellen aktiv sind und hochspezifisch an die intrazellulären Domänen von ErbB-Rezeptoren wie dem Epidermalen Wachstumsfaktor-Rezeptor (EGFR) oder dem nahe verwandten ErbB2 Molekül binden. Diese ErbB-Rezeptoren sind in einer Reihe humaner Tumore überexprimiert. Als wichtige signalleitende Moleküle tragen sie zur malignen Transformation von Zellen bei und spielen eine wichtige Rolle in der Tumorentstehung und -progression. Sie stellen daher viel versprechende Zielstrukturen für die Entwicklung neuartiger Wirkstoffe dar. Auf der Grundlage des Yeast Two-Hybrid Systems wurde ein in vivo Assay etabliert, der das Screening von scFv Libraries nach ErbB-spezifischen scFvs unter intrazellulären Bedingungen in Hefezellen erlaubt. Während es nicht möglich war, in einer im Rahmen der vorliegenden Arbeit generierten anti-ErbB2 scFv-Library und einer mit 8 x 10 hoch 5 unabhängigen Klonen wenig diversen anti-EGFR scFv-Library intrazellullär aktive ErbBspezifische scFv Antikörper nachzuweisen, konnte eine zweite anti-EGFR scFv-Library aufgrund ihrer großen Komplexität von 2 x 10 hoch 8 nicht komplett in Hefezellen gescreent werden. Die Library wurde daher zunächst durch wenige Runden Phagen Biopanning präselektioniert, um so die Diversität der Library auf ein Maß zu reduzieren, das eine weitere Selektion in vivo durch Yeast Two-Hybrid Screening zuließ. Mit Hilfe dieser Kombination aus in vitro Präselektion und in vivo Assay gelang es, verschiedene intrazellulär aktive EGFR-spezifische scFv Fragmente aus einer anti-EGFR scFv-Library zu isolieren. Durch GST "pull-down" Experimente und Koimmunpräzipitationsexperimente konnten deren Spezifität und intrazelluläre Aktivität in Säugerzellen in vitro und in vivo verifiziert werden. Wie durch Konfokale Laserscanning Mikroskopie gezeigt wurde, kolokalisieren die isolierten scFv Antikörper mit EGFR an der Zellmembran EGFR-überexprimierender humaner Tumorzellen. Ein direkter Effekt der Expression der EGFR-spezifischen scFvs auf die Autophosphorylierung des Rezeptors und auf die Proliferation von EGFRexprimierenden Mausfibroblasten wurde jedoch nicht beobachtet. Die Ergebnisse der vorliegenden Arbeit zeigen, dass mit Hilfe des hier entwickelten Konzepts intrazellulär aktive EGFR-spezifische scFv Fragmente aus einer hochdiversen scFv-Library isoliert werden konnten. Prinzipiell sollte diese Strategie auch auf die Gewinnung intrazellulär aktiver scFv Antikörperfragmente anwendbar sein, die spezifisch an andere zytoplasmatische Zielmoleküle binden. Daneben könnten die Spezifität und intrazelluläre Aktivität der bereits isolierten EGFR-spezifischen scFv Fragmente genutzt werden, um z.B. durch Fusion mit Lokalisierungssignalen, Enzymen oder bestimmten Protein-Protein-Interaktionsdomänen die Signalleitung des EGFR gezielt zu beeinflussen. Entsprechende Ansätze werden gegenwärtig in der Arbeitsgruppe weiter verfolgt.
Diese Arbeit untersucht die Produktion von Teilchen durch Vakuumpolarisation in Anwesenheit klassischer Felder. Eine unquantisierte Beschreibung des bosonischen Sektors einer Quantenfeldtheorie wird möglich, wenn dieser stark besetzt ist. Sind die Besetzungszahlen größer als eins, können Quantenprozesse als Korrekturen angesehen werden. Für die Fermionen gibt es wegen des Paulischen Prinzips kein solches Konzept. Situationen mit diesen starkbesetzten Feldern finden sich im Fall der Quantenchromodynamik (QCD) zum Beispiel in ultrarelativistischen Schwerionenkollisionen. Diese werden zur Zeit am Relativistic Heavy Ion Collider (RHIC) am Brookhaven National Laboratory durchgeführt und in Zukunft am Large Hadron Collider (LHC) am CERN untersucht werden. Diese hochbesetzten sind auch starke Felder. Damit können in Abwesenheit weiterer Skalen Prozesse mit unterschiedlich häufigen Kopplungen an das Hintergrundfeld nicht parametrisch unterschieden werden. Die dominanten Quanteneffekte werden durch Terme der klassischen Wirkung. die zweiter Ordnung in den Quantenfeldern sind, repräsentiert. Alle diesbezüglichen Informationen sind in den Propagatoren der entsprechenden Quanten enthalten. Wegen der starken Felder müssen hier die vollen Propagatoren im Hintergrundfeld benutzt werden. Bei schwacher Kopplung - in führender Ordnung in den Quanteneffekten - enthalten sie alle Details über die Streuung der Quantenteilchen am Feld und deren Produktion durch Vakuumpolarisation. Ohne weitere radiative Korrekturen, gibt es in der Quantenelektrodynamik die Produktion von Elektron-Positron-Paaren. Analog dazu werden in der QCD Quark-Antiquark-Paare produziert. Dort kommt aber wegen der Nichtlinearität des Feldtensors noch die Produktion von Paaren gluonischer Quantenfluktuationen hinzu. Die Quarks und Antiquarks sowie die gluonischen Quantenfluktuationen sind parametrisch nicht zu unterscheiden. Für Schwerionenkollisionen lassen sich Größen wie die anfängliche Energiedichte und die Zerfallszeit des hochdichten Regimes abschätzen. Es stellt sich nun die Frage, ob man bei Einschränkung auf diese Situationen eine der beiden Quantenspezies als unwichtig vernachlässigen kann. Im Bereich hoher Teilchenimpulse, läßt sich die Produktion störungstheoretisch beschreiben. Hier untersuche ich zunächst in der niedrigsten Ordnung der klassischen Wirkung die Produktionsprozesse der beiden Arten von Quanten bei Anwesenheit beliebiger Felder. Für die Aufteilung des Gluonenfeldes in seinen Erwartungswert und seine Fluktuationen wird die Hintergrundfeldmethode der QCD verwendet. Für den Spezialfall rein zeitabhängiger Felder werden die Produktionsraten für Parametersätze, wie sie für RHIC und LHC erwartet sind, angegeben. Es stellt sich heraus, daß auf perturbativem Niveau sowohl Situationen, in denen die Fermionen dominieren, als auch solche, in denen die gluonischen Quantenfluktuationen überwiegen' vorkommen. Im Fall der Gluonen könnte der stark besetzte niederengetische Bereich durch das klassische Feld und der hochenergetische schwächer besetzte durch eine perturbative Beschreibung hinreichend genähert sein. Da es für die Fermionen jedoch kein klassisches Feld gibt, bliebe ihr niederenergetischer Bereich vollkommen unbehandelt. Hier ist auf jeden Fall eine nichtperturbative Beschreibung notwendig. Diese kann auf dem vollen Fermionpropagator im Hintergrundfeld aufgebaut werden. Der bereits oben verwendete Spezialfall eines rein zeitabhängigen Feldes kann als Näherung eines boostinvarianten Szenarios in der zentralen Region der Schwerionenkollision gesehen werden. In Anwesenheit derartiger Felder wird hier der volle retardierte Propagator hergeleitet. Für den exakten Propagator und alle Näherungen wird das Impulsspektrum der produzierten Fermionen berechnet. Dabei stellt sich die sogenannte Abelsche Näherung als bester Kandidat neben der exakten Beschreibung heraus. Sie entspricht, im Gegensatz zur störungstheoretischen Näherung, bei der die Fermionen immer mir ihrem asymptotischen kinematischen Impuls propagiert werden, einer Propagation mit dem mittleren kanonischen Impuls, was die Verbesserung der Näherung erklärt. Mit den, durch die induzierten Strömen modifizierten Yang-Mills-Gleichungen, stellt die Arbeit das komplette Funktionensystem dar, daß benötigt wird, um eine selbstkonsistente Berechnung des klassischen Feldes mit perturbativ beschriebenen gluonischen Quantenfluktuationen und exakt berechneten Quarks und Antiquarks durchzuführen.
Die Regulation des Zellzyklus wird durch Phosphorylierung und Dephosphorylierung gesteuert. Schlüsselenzyme sind dabei die Cdk/Cyclin-Komplexe. Für den Eintritt und das Durchlaufen der Mitose von besonderer Bedeutung ist die Polo-like Kinase 1 (Plk1). Zur Aufklärung Mitose-spezifischer Signalwege wurden in dieser Arbeit neue Interaktionspartner der Plk1 gesucht. Die Bedeutung dieser Interaktionen für Zellzyklus und Mitose sollten näher charakterisiert werden. In dieser Arbeit konnte gezeigt werden, daß Plk1 direkt mit humanem Cyclin B1, der regulatorischen Untereinheit des M-phase-promoting-factors (MPF), interagiert. Dabei konnte festgestellt werden, daß Plk1 in der Lage ist, Cyclin B1 innerhalb dessen cytoplasmic retention signals (CRS) am Ser-133 zu phosphorylieren. Ferner konnte gezeigt werden, daß die Phosphorylierung der CRS in einer synergistischen Weise durch Plk1 und MAPK (Erk2) stattfindet. Vorphosphorylierung der CRS durch MAPK an Ser-126 und Ser-128 führt nicht nur zu einer 3-4 fach stärkeren Phosphorylierung durch Plk1, sondern auch zur Entstehung neuer Phosphorylierungs-Stellen für Plk1. Die hier aufgeführten Daten zeigen, daß durch synergistische Phosphorylierung der CRS, an der Plk1 beteiligt ist, der rapide nukleäre Import des Cyclin B1/Cdk1-Komplexes in der Prophase gesteuert wird. Dieser rapide Import in den Kern ist Voraussetzung für die Auflösung der Kernmembran in der Prometaphase. Damit konnte gezeigt werden, daß Plk1 dazu beiträgt, den MPF in den Kern (zu seinen Substraten) zu bringen, um früh-mitotische Ereignisse zu induzieren. Mitotische Kinasen (wie MPF, aber auch MAPK) phosphorylieren ihre Substrate oft an Ser/Thr-Pro-Motiven. Sind diese Motive phosphoryliert (pSer/Thr-Pro), so können sie von Pin1, einer Peptidyl-Prolyl-cis/trans-Isomerase isomerisiert werden. In dieser Arbeit wurde gezeigt, daß Plk1 mit Pin1 interagiert. Dabei bindet Plk1 an die Protein-Interaktionsdomäne (WW-Domäne) von Pin1, ist aber gleichzeitig in der Lage, Pin1 innerhalb seiner katalytischen Domäne (PPIase Domäne) zu phosphorylieren. Es konnte gezeigt werden, daß das Ser-65 in Pin1 eine Phosphorylierungs-Stelle für Plk1 darstellt. Da bekannt war, daß Vortäuschung einer Phosphorylierung an Ser-16 oder Ser-67 die Pin1-Aktivität hemmt, wurde ein ähnlicher Effekt für Ser-65 erwartet. Jedoch führte die Vortäuschung der Phosphorylierung an Ser-65 nicht zu einer Reduktion der PPIase-Aktivität von Pin1. In dieser Arbeit konnte erstmals gezeigt werden, daß Pin1 über das Proteasom abgebaut wird. Die Vortäuschung der Ser-65-Phosphorylierung führt zur Stabilisierung des Pin1-Proteins. Damit ist Plk1 das erste bekannte Enzym, welches Pin1 durch Phosphorylierung stabilisiert.