Refine
Year of publication
- 2002 (171) (remove)
Document Type
- Doctoral Thesis (171) (remove)
Language
- German (171) (remove)
Has Fulltext
- yes (171)
Is part of the Bibliography
- no (171)
Keywords
- Gaschromatographie (3)
- Genexpression (3)
- Authentizität (2)
- Gephyrin (2)
- Halbleiteroberfläche (2)
- Ionenkanal (2)
- Kontamination (2)
- Abmahnung (1)
- Abweichendes Verhalten (1)
- Allosterischer Effektor (1)
Institute
- Medizin (41)
- Biochemie und Chemie (37)
- Biowissenschaften (27)
- Pharmazie (20)
- Physik (15)
- Geowissenschaften (8)
- Informatik (4)
- Geschichtswissenschaften (3)
- Psychologie (3)
- Geographie (2)
In der vorliegenden Arbeit wurde ein klinisches Alarmsystem für septische Schock-Patienten aufgebaut. Zweckmäßigerweise wurden hierfür metrische körpereigene Variablen verwendet, da Analysen belegt haben, dass die metrischen Daten besser zur Alarmgenerierung geeignet sind als die symbolischen Daten. Für das Training des adaptiven Neuro-Fuzzy-Systems wurden die Daten der letzten Tage des Intensivaufenthalts verwendet, da in diesem Zeitraum, im Gegensatz zu den ersten Tagen, eine gute Klassifikationsperformanz erreicht wurde. Die daraus resultierenden Alarmhistorien liefern zuverlässige Hinweise für den Intensivmediziner auf besonders kritische Patienten. Durch diese Arbeit wird es möglich werden, den medizinischen SOFA-Score, der aus 10 Variablen zusammengesetzt ist, durch die einfachere Kombination "Systolischer Blutdruck / Diastolischer Blutdruck / Thrombozyten" zu ersetzen mit einer mindestens genauso guten Performanz. Durch die Hinzunahme weiterer Variablen ist es möglich, die Performanz des SOFA-Scores zu überbieten, wobei der SOFA-Score bereits die beste Klassifikationsperformanz unter den getesteten Scores erreichte. Die erzeugten Regeln konnten die Klassifikationsentscheidung sinnvoll untermauern. Im Gegensatz zur automatischen Regelgenerierung war es Ärzten nicht möglich ahnlich sinnvolle formale Regeln zu formulieren.
Gegenstand dieser Arbeit war die Analyse der Komplexität von Kosten- und Erlösrechnungssystemen und ihrer Auswirkung auf die Auswahl geeigneter Instrumente für die EDV-gestützte Realisierung dieser Systeme, wobei insbesondere auf die bisherigen Ansätze der Datenbank- und Wissensuntersrutzung der Kosten- und Erlösrechnung eingegangen werden sollte. Das zweite Kapitel befaßt sich mit einer Analyse der Komplexität der in Deutschland am weitesten verbreiteten Kosten- und Erlösrechnungssysteme. Die Untersuchung der grundlegenden Gestaltungsmerkmale von Kosten- und Erlösrechnungssystemen auf ihre Komplexitätsrelevanz zeigte, daß einige Merkmale die Komplexität sehr stark beeinflussen, andere dagegen kaum, darunter auch in der betriebswirtschaftlichen Diskussion so wesentliche wie der verwendete Kostenbegriff. Den größten Einfluß auf die Komplexität von Kosten- und Erlösrechnungssystemen besitzen die Kosten- und Erlösstrukturierung sowie die Verarbeitungsarten, -methoden und -inhalte. Ein Vergleich der Grenzplankostenrechnung nach Kn.GER und FLAUT, stellvertretend Im überwiegend zweckmonistische Kostenrechnungssysteme, und der Einzelkostenrechnung nach RIEBEL als zweckpluralistischem Kosten- und Erlösrechnungssystem bezüglich der komplexitätsrelevanten Merkmale ergab eindeutige Unterschiede zwischen diesen Systemen. Während die Grenzplankostenrechnung polynomiale Platz- und Funktionskomplexitäten niedriger Grade (überwiegend quadratisch und nur im Rahmen der innerbetrieblichen Leistungsverrechnung kubisch) aufweist, treten in der Einzelkostenrechnung an mehreren entscheidenden Stellen exponentielle Komplexitäten auf. Die Analyse der Komplexität dieser beiden Kosten- und Erlösrechnungssystemen zeigt einen eindeutigen Zusammenhang zwischen vielseitiger Auswertbarkeit und der Komplexität eines Systems auf, der bei einer Beurteilung von Kosten- und Erlösrechnungssystemen berücksichtigt werden muß. Für die Gestaltung von Kosten- und Erlösrechnungssystemen bedeutet dies eine grundsätzliche Wahlmöglichkeit zwischen Systemen begrenzter Auswertbarkeit und niedriger Komplexität sowie Systemen mit größerer Auswertungsvielfalt, aber deutlich höherer Komplexität. Die Komplexität von Kosten- und Erlösrechnungssystemen ist jedoch nicht als eine Folge der Auswahl eines Rechnungssystems zu betrachten, sondern resultiert letztlich aus der Komplexität einer Unternehmung und ihrer Umwelt, die unterschiedlich detailliert abgebildet werden können. Da diese Komplexitäten in Zukunft eher noch zunehmen werden, ist grundSätzlich mit einem Trend zu universelleren und komplexeren Systemen zu rechnen. Die Erweiterung der Grenzplankostenrechnung hin zu größerer Komplexität sowie die Entwicklung neuerer Ansätze wie der Prozeßkostenrechnung bestätigen beide diesen Trend. Für die weitere Untersuchung wird vorausgesetzt, daß die Grenzplankostenrechnung und die Einzelkostenrechnung die entgegengesetzten Enden eines Komplexitätsspektrums von Kosten- und Erlösrechnungssystemen bilden und daher auch das Spektrum der Anforderungen an die Instrumente zu ihrer EDV-Implementierung begrenzen. Unter einer Anzahl von neueren Entwicklungen in der EDV wurden daher zwei Konzepte ausgewählt, die zur Behandlung verschiedener Aspekte der Komplexität geeignet sind: Datenbanksysteme zur Behandlung der Platzkomplexität und Wissenssysteme zur Behandlung der Funktionskomplexität. Im folgenden werden die Erfahrungen, die bei der Realisierung von Datenbank- und Wissenssystemen für die Kosten- und Erlösrechnung gemacht wurden, unter dem Gesichtspunkt der Komplexität von Kosten- und Erlösrechnungssystemen bewertet. Bei der Betrachtung von Datenbanksystemen ist zu berücksichtigen, daß sich im Laufe der Zeit zwei unterschiedliche Anwendungstypen herauskristallisiert haben: konventionelle Datenbankanwendungen, die den herkömmlichen Paradigmen von Datenbanksystemen entsprechen, und neuere Datenbankanwendungen, die z.T. wesentlich höhere Anforderungen stellen und so die Entwicklung neuer Datenbanksysteme erforderlich machten. Beide Systeme der Kosten- und Erlösrechnung eignen sich grundSätzlich als Datenbankanwendungen, d.h. sie rechtfertigen den Einsatz von Datenbanksystemen zur Verwaltung ihrer Datenmengen. Während die Grenzplankostenrechnung aber den konventionellen Datenbankanwendungen zuzurechnen ist, weist die Einzelkostenrechnung bereits wesentliche Merkmale neuerer Datenbankanwendungen auf. Im Gegensatz zu Datenbanksystemen sind die Anforderungen an Wissenssysteme und ihre Eigenschaften sehr unpräzise, z.T. sogar widersprüchlich formuliert. Auf der Basis der gängigen Eigenschaftskataloge erscheint die Kosten- und Erlösrechnung nicht als typische Wissenssystemanwendung. Trotzdem wurden bereits mehrere Wissenssysteme für Kosten- und Erlösrechnungsprobleme (Abweichungsanalyse, Betriebsergebnisanalyse, Bestimmung von Preisuntergrenzen, konstruktionsbegleitende Kalkulation und Teilprobleme der Prozeßkostenrechnung) realisiert, von denen jedes einige der Eignungskriterien für Wissenssystemanwendungen erfüllt. Die behandelten Beispiele für Wissenssysteme im Rahmen der Kosten- und Erlösrechnung basieren überwiegend auf der Grenzplankostenrechnung. Es ist daher anzunehmen, daß die Einzelkostenrechnung auf Grund ihrer höheren Komplexität weitere Anwendungsprobleme für Wissenssysteme enthält. Insgesamt sind jedoch die Unterschiede zwischen der Grenzplankostenrechnung und der Einzelkostenrechnung im Hinblick auf den Einsatz von Wissenssystemen wesentlich weniger ausgeprägt als dies für den Einsatz von Datenbanksystemen der Fall war. Nachdem beide Systeme der Kosten- und Erlösrechnung sowohl als Datenbankanwendungen geeignet sind als auch Anwendungsprobleme für Wissenssysteme aufweisen, ist auch die Verbindung von Wissenssystemen und Datenbanksystemen in Betracht zu ziehen. Daher wurde im Anschluß die jeweiligen Vor- und Nachteile von Datenbank- und Wissenssysteme gegenübergestellt. Die Vorteile von Datenbanksystemen liegen auf den maschinennäheren Ebenen, auf denen die Vorkehrungen für Datenschutz, Datensicherung, reibungslosen Mehrbenutzerbetrieb sowie die effiziente Ausführung der Operationen geschaffen werden. Die Vorteile von Wissenssystemen liegen in der größeren Mächtigkeit der Problemlösungskomponente, der Wissenserweiterungskomponente und der Erklärungskomponente. Ein neueres Beispiel für eine Zusammenarbeit von Datenbank- und Wissenssystemen ist die Auswertung eines speziell für derartige Zwecke angelegten Data Warehouse durch das Data Mining sowie andere Analysesysteme. Ein Data Warehouse stimmt in wesentlichen Merkmalen mit der Grundrechnung der Einzelkostenrechnung überein und zeigt, daß eine Grundrechnung auf der Basis heutiger EDV -Systeme realisierbar ist. Zur Auswertung einer Datenbank dieser Größe sind spezielle Analysesysteme notwendig. Für standardisierte Auswertungen eines Data Warehouse wurden OLAP-Systeme entwickelt, deren Operationen Verallgemeinerungen mehrdimensionaler Deckungsbeitragsrechnungen sind. Bei nicht standardisierbaren Auswertungen empfiehlt sich dagegen der Einsatz von Wissenssystemen, für den das Data Mining ein Beispiel liefert. Diese Kombination von Datenbanksystem, konventionellen und Kl-Auswertungen erscheint für eine Verwendung in der Kosten- und Erlösrechnung bestens geeignet. Das vierte Kapitel befaßt sich mit Ansätzen zur Strukturierung von Daten- und Wissensbasen, die bei Datenbanksystemen als Datenmodelle, bei Wissenssystemen als Wissensrepräsentationstechniken bezeichnet werden. Dabei wurde der Unterteilung des dritten Kapitels gefolgt und zwischen konventionellen und neueren Datenmodellen sowie Wissensrepräsentationstechniken unterschieden. Die Betrachtung des Relationenmodells als Vertreters der konventionellen Datenmodelle ergab, daß es für die Grenzplankostenrechnung völlig ausreicht. Die Erfahrungen mit der Realisierung einer Grundrechnung auf der Basis des Relationenmodells haben dagegen gezeigt, daß seine syntaktischen und semantischen Mängel zu weitgehenden Vereinfachungen beim Schemaentwurf zwingen, die wiederum die Operationen der Auswertungsrechnungen unnötig komplizieren. Aus der Vielzahl semantischer und objektorientierter Datenmodelle, die für neuere Datenbankanwendungen entwickelt wurden, hat sich trotz Unterschieden in Details eine Anzahl von Konzepten herauskristallisiert, die den meisten dieser DatenmodelIe gemeinsam sind. Mit Hilfe dieser Konzepte sind die Probleme, die bei der Verwendung des Relationenmodelis auftraten, vermeidbar. Im Grunde sind daher fast alle semantischen und objektorientierten Entwurfsmodelle zur ModelIierung einer Grundrechnung geeignet. Wichtig ist jedoch,daß die Grundrechnung auch mit einem Datenbanksystem realisiert wird, dem eines dieser Datenmodelle zugrunde liegt, da bei einer Transformation auf ein relationales Datenmodell wesentliche Entwurfsüberlegungen - und damit der größte Teil des Vorteils,den semantische und objektorientierte Entwurfsmodelle bieten -, verloren gehen. Zur Realisierung einer Grundrechnung erscheinen objektrelationale Datenbanksysteme am besten geeignet, da sie einerseits objektorientierte Konzepte mit mächtigen und komfortablen Anfragesprachen verbinden und andererseits aufwärtskompatibel zu den weitverbreiteten relationalen Datenbanksystemen sind. Da sich die objektorientierten Datenmodelle als für die Modellierung einer Grundrechnung geeignet erwiesen haben, wurden unter dem Gesichtspunkt der Verbindung von Datenbank- und Wissenssystemen nur objektorientierte Wissensrepräsentationstechniken in Betracht gezogen. Zwischen semantischen und objektorientierten Datenmodellen einerseits und objektorientierten Wissensrepräsentationstechniken, vor allem semantischen Netzen und Frames, andererseits bestehen weitgehende Übereinstimmungen. Daher können z.B. framebasierte Wissenssysteme direkt auf objektorientierten Datenbanksystemen realisiert werden. Inzwischen werden aber auch objektorientierte Programmiersprachen wie C++ oder Smalltalk zur Implementierung von Wissenssystemen verwendet, von denen die objektorientierte Sprache C++ am geeignetsten erscheint, da die meisten objektorientierten und objektrelationalen Datenbanksysteme eine C++-Schnittstelle aufweisen. Abschließend ist daher festzustellen, daß das Paradigma der Objektorientierung, das in Entwurfssprachen, Datenmodellen, Wissensrepräsentationstechniken und Programmiersprachen wesentliche Einflüsse ausgeübt hat, für die Realisierung der datenbankgestützten Grundrechnung eines zweckpluralistischen Kosten- und Erlösrechnungssystems wie der Einzelkostenrechnung sowie darauf aufbauender Auswertungsrechnungen, die z.T. als Wissenssysteme realisiert werden, wesentliche Vorteile besitzt. Über die adäquatere ModelIierung der Strukturen hinaus entsteht durch den Einsatz objektorientierter Techniken zum Entwurf und zur Implementierung aller System teile ein möglichst homogenes System, das nicht zusätzlich zu der inhärenten Komplexität noch weitere Probleme durch ungeeignete Darstellungskonzepte oder schlechte Abstimmung schafft.
Die Kombination aus proteolytischer Spaltung, massenspektrometrischer Analyse und Datenbanksuche ist eine etablierte Methode zur Identifizierung von Proteinen. Ist die Identität eines Proteins geklärt, dann stellt sich im Anschluß daran häufig die Frage nach den posttranslationalen Modifikationen des Proteins. Auch hierfür ist die Massenspektrometrie eine prädestinierte und häufig angewandte Methode. Eine der wichtigsten posttranslationalen Modifikationen eukaryotischer Proteine ist die Phosphorylierung an Ser-, Thr- und Tyr-Resten. In der vorliegenden Arbeit ist die Weiterentwicklung und Anwendung zweier massenspektrornetrischer Methoden zur Analyse der Proteinphosphorylierung beschrieben: i) der Neutralverlust-Scan zur selektiven Detektion von Ser/Thr-phosphorylierten Peptiden, und ii) die Metallaffinitätschromatographie zur selektiven Anreicherung von Phosphopeptiden. Bei der Optimierung der Analytik der Proteinphosphorylierung mittels Neutralverlust-Scan hatte sich am Beispiel der katalytischen Untereinheit der Proteinkinase A gezeigt, dass die Verwendung einer Protease mit geringer Spaltungsspezifität (Elastase) wesentliche Vorteile gegenüber einer Protease mit hoher Spaltungsspezifität (Trypsin) besitzt. Die kleineren Elastase-generierten Phosphopeptide zeigen im Vergleich zu den Trypsin-generierten Phosphopeptiden eine effektivere Phosphorsäure-Abspaltung und lassen sich im Neutralverlust-Scan mit deutlich besserer Empfindlichkeit detektieren. in weiterer Vorteil der Elastase ist in ihrer Eigenschaft partiell überlappende Peptide zu generieren begründet. Die Metallaffinitätschrornatographie wurde eingesetzt, um die Elastase-generierten Phosphopeptide selektiv anzureichern. Es konnte gezeigt werden, dass die Metallaffinitätschromatographie eine geeignete Methode ist, um die Komplexität des Elastase-generierten Peptidgemischs drastisch zu reduzieren, so dass eine automatische Fragmentionen-Analyse aller angereicherten Peptide mittels nanoESl möglich ist. Die Leistungsfähigkeit der Kombination aus Elastase-Verdau, Metallaffinitätschromatographie und Q-TOF- Tandem-MS wurde am Beispiel des Transkriptionsinitiationsfaktors IA unter Beweis gestellt, wo mit Hilfe dieser Analysen-Strategie drei bislang unbekannte in-vivo-Phosphorylierungsstellen nachgewiesen werden konnten. Neben der Proteinphosphorylierung wurden in dieser Arbeit auch eine Reihe anderer kovalenter Modifikationen untersucht. Bei der Analyse der katalytischen Untereinheit der Proteinkinase A konnten neben einer bislang unbekannten fünften Phosphorylierungsstelle an Ser259 auch die Modifikation von Cys343 durch Glutathion und die N-terminale Modifikation durch Gluconsäure nachgewiesen werden. Mittels Q-TOF-Tandem-MS wurde die in-vivo-Myristoylierung des humanen Proteins GAPR 1 nachgewiesen. Mittels der sog Top-Down-Analyse wurde am Beispiel des Proteins Dynamin A gezeigt, wie mittels dieser Strategie eine vollständige Charakterisierung aller kovalenten Modifikationen eines Proteins erreicht werden kann. Im Falle von Dynamin A konnte die Acetylierung des N-terminalen Methionins nachgewiesen werden. Andere kovalente Modifikationen konnten ausgeschlossen werden. Im letzten Kapitel der vorliegenden Arbeit wird am Beispiel von Dynamin A gezeigt, wie sich die Kombination aus partieller proteolytischer Spaltung, Tandem-MS und Datenbanksuche effektiv zur Charakterisierung der Domänenstruktur von Proteinen einsetzen lässt.
Der weltweiten Ausbreitung des humanen Immundefizienzvirus versucht man neben der Entwicklung eines präventiven HIV-Impfstoffes auch durch die Verbesserung der chemotherapeutischen Behandlung HIV-Infizierter entgegen zu wirken. Die hochwirksame antiretrovirale Kombinationsstherapie (HAART) hat neben der Anzahl der opportunistischen Infektionen und AIDS-bedingten Todesfälle auch die Viruslast in vielen HIV-Infizierten über einen langen Zeitraum unterhalb der Detektionsgrenze senken können. Es sind daher neben den klassischen Verlaufsmarkern wie der Viruslast und der Anzahl der CD4 T-Zellen neue Surrogatmarker zur Beurteilung der Effizienz der antiretroviralen Therapie notwendig. Der Einfluss der Viruslast auf den CD8 T-Zellaktivierungsstatus während der antiretroviralen Therapie zeigte sich durch den Vergleich von HAART-Respondern und den durch eine hohe Viruslast infolge eines Therapie-Versagens gekennzeichneten HAART-Non-Respondern. Die Beobachtung einer signifikant erhöhten Anzahl an basal, d.h. ohne vorangegangene in vitro Stimulation, aktivierten CD8 CD69 T-Zellen bei HAART-Non-Respondern (p = 0,0049) konnte die Rolle des T-Zell-Aktivierungsstatus als Marker der verbleibenden Viruslast unter HAART nachweisen. Um das Potential der von CD8 T-Zellen sezernierten HIVsupprimierenden ß-Chemokinen und IL-16 als HAART-begleitende Surrogatmarker zu untersuchen, wurde die Expression von MIP-1a, MIP-1ß und RANTES sowie des Lymphokins IL-16 im Serum und im Zellkulturüberstand aktivierter CD8 T-Zellen untersucht. Für HAART-Non-Responder konnte im Zellkulturüberstand von in vitro stimulierten CD8 TZellen eine signifikante Erhöhung der IL-16-Expression (p = 0,0077) und eine erhöhte Expression von MIP-1a im Vergleich zu HAART-Respondern gezeigt werden. Darüber hinaus wurde eine signifikant erhöhte MIP-1ß-Serumkonzentration bei HAART-Non- Respondern (p = 0,0175) nachgewiesen, die mit einer erhöhten Anzahl aktivierter CD8 CD69 T-Zellen assoziiert war. Im Rahmen dieser Untersuchungen konnte somit gezeigt werden, dass neben MIP-1a, vor allem das ß-Chemokin MIP-1ß und das Lymphokin IL-16 vielversprechende Surrogatmarker zur Beurteilung der Effizienz der antiretroviralen Therapie darstellen, die als sensitive therapiebegleitende Marker die rechtzeitige therapeutische Intervention vor einem signifikanten Anstieg der Viruslast ermöglichen könnten. Da trotz der intensiven Entwicklung und Verbesserung antiretroviral wirkender Therapeutika die vollständige Elimination des HI-Virus bislang nicht möglich ist, wurde in den vergangenen Jahren konzentriert an der Entwicklung neuer Impfstoffstrategien gearbeitet. Eine durch einen Impfstoff induzierte protektive Immunantwort gegen HIV sollte vor allem gegen Strukturproteine, sowie gegen die regulatorischen Proteine Tat und Rev gerichtet sein. Mit einem MLV-abgeleiteten Transfervektor für die SHIV-Gene tat, rev und env wurde in dieser Arbeit das immunogene Potential zur Induktion einer humoralen und zellulären Immunantwort im Rhesusaffen-Tiermodell untersucht. Durch die Etablierung einer stabilen Verpackungszellinie für den Transfervektor pMgDenv/tat/rev/Dlngfr konnte der effiziente Gentransfer in CD4 T-Zellen mittels [MLV(SHIV)]-Pseudotypvektoren gezeigt werden. Durch Optimierung der Transduktionsbedingungen konnte ein Transduktionstiter von 1-2 x 107 i.E./ml in primäre Rhesus-Lymphozyten erreicht werden. Um das immunogene Potential dieser HIV-Antigen-exprimierenden Zellen in vivo zu untersuchen, wurden in einer Immunisierungsstudie 0,7 - 3,4 x 107 Transfergen-positive PBMC in 3 aufeinander folgenden Transplantationen in einen Rhesusaffen reinfundiert. Die transplantierten Zellen waren nach der 3. Applikation bis zu 7 Tage nach Transplantation in vivo mittels PCR detektierbar. Eine HIV-gp120-spezifische Antikörperantwort konnte fünf Wochen nach der ersten bzw. zwei Wochen nach der letzten Immunisierung nachgewiesen werden. In einem ELIspot-Assay konnte erfolgreich die Induktion einer HIV-1-Env- und Rev-spezifischen CTL-Antwort in den nach 7,5 bzw. 10 Wochen nach der letzten Immunisierung entnommenen PBMCs nachgewiesen werden. Interessanterweise zeigten Sequenzanalysen, dass die induzierte CTL-Aktivität gegen die für einen effizienten Schutz bedeutenden Determinanten des HIV-1- Hüllproteins, gegen die variable Domäne des gp120 als auch gegen die CD4- Bindungsregion gerichtet war. In dieser Immunisierungsstudie war es somit erstmals möglich, durch die Transplantation autologer HIV-Antigen-exprimierender CD4 T-Zellen eine spezifische humorale wie auch zelluläre Immunantwort in vivo zu induzieren.
In dieser Arbeit wurden zwei unterschiedliche Ansätze zur Korrektur/Eliminierung von Punktmutationen in Nukleinsäuren untersucht. Im ersten Ansatz wurden chimäre RNA/DNA-Hybride zur Korrektur von einer Punktmutation im p22phox-Gen ausgetestet, während im zweiten Ansatz ein „Hammerhead“-Ribozym zur Eliminierung von mutierter N-ras-RNA untersucht wurde.
Die Induzierte Polarisation (IP) ist ein geoelektrisches Verfahren und wurde ursprünglich zur Exploration von Erzvorkommen entwickelt. Neben metallischen Leitern, tragen auch Tonminerale, der Porenraum und die chemische Zusammensetzung der Porenlösung zur Polarisierbarkeit eines Unter-grundes bei. Die spektrale Induzierte Polarisation (SIP) untersucht die Polarisierbarkeit in einem Frequenzbereich von 1 mHz bis 1 kHz und nutzt diese aufgezeichneten Spektren zur Unterscheidung von Materialien. Früher mit einem enormen messtechnischen Aufwand verbunden, führte der gerätetechnische Fort-schritt in den letzten beiden Jahrzehnten dazu, dass die SIP vermehrt in der Umweltgeophysik zum Einsatz kommt. Zu den Fragestellungen gehören die Detektion von Altlasten und der Grundwasser-schutz. In der Archäologie ist die Induzierte Polarisation bislang ein kaum verwendetes Verfahren. Im Rahmen des Graduiertenkollegs „Archäologische Analytik“ der J. W. Goethe- Universität wurde die Entwicklung einer Multielektroden-Apparatur SIP-256 begonnen. Ziel der vorliegenden Arbeit war die Fortführung dieser Entwicklung. Da sich die wissenschaftliche Fragestellung während dieser Promotion auf die Erkundung archäologischer Objekte beschränkt, galt es zunächst automatisierte Messabläufe zu realisieren, die es erlauben, die komplexe elektrische Leitfähigkeit kleinräumiger 2D- bzw. 3D-Strukturen zu erfassen. Die Verwendung der SIP-256 führte zu einer erheblichen Ver-kürzung der Messzeit und war entscheidend für die Realisierung dieser Arbeit. Den zweiten Schwerpunkt der Arbeit bildet die Suche nach Anwendungsgebieten für die SIP innerhalb der archäologischen Prospektion. Basierend auf den Ursachen von Polarisationseffekten werden im Rahmen dieser Arbeit drei Anwendungsgebiete vorgestellt. Das erste Anwendungsgebiet nutzt die Vorteile der SIP bei der Prospektion von Erzen. Auf einem mittelalterlicher Verhüttungsplatz bei Seesen am Harz konnten im Vergleich zu einer konventionellen Widerstandsmessung mehr Schlackegruben lokalisiert werden. Während einer deutsch-bulgarischen Grabungskampagne in Pliska (Bulgarien) 1999 gelang es, durch eine flächenhafte Anwendung der IP einen Siedlungshorizont über Lehmablagerungen nachzuweisen. Die Überreste eines Gebäudes erzeugten einen messbaren Polarisationseffekt. Die frühmittelalterlichen Siedlungsreste befinden sich mit 2 bis 3 m in relativ großer Tiefe und konnten bei einer anschließenden Ausgrabung freigelegt werden. Eine Kernfrage war, ob Holzobjekte mit Hilfe der SIP zu detektieren sind. Mit Hilfe von Labormessungen an der TU Clausthal konnte geklärt werden, dass Holz ein polarisierbares Material ist. Zu den untersuchten Proben gehören Hölzer aus einem bronzezeitlichen Bohlenweg, die von Ausgrabungen im Federseemoor (Kreis Biberach) stammen. Durch die Untersuchungen im Labor motiviert, folgte eine Feldmessung über dem Bohlenweg. Es gelang, erstmals ein Holzobjekt mit spektraler Induzierter Polarisation zu detektieren. Holz spielt durch die dendrochronologische Datierung von Fundstellen eine wichtige Rolle, konnte aber bislang noch mit keiner geophysikalischen Methode zufriedenstellend prospektiert werden. Abschließend kann gesagt werden, dass sich die spektrale Induzierte Polarisation als wertvolle Methode in der archäologischen Prospektion etablierte. Strukturen, welche mit einer konventionellen Widerstandsmessung nicht zu erkennen waren, konnten durch die SIP eindeutig identifiziert werden. Natürlich müssen die vorliegenden Ergebnisse noch durch weitere Messungen bestätigt werden, jedoch zeichnet sich ab, dass sich mit der fortschreitenden gerätetechnischen Entwicklung, welche zu schnelleren Messabläufen führt, wichtige Zusatzinformationen durch die spektrale Induzierte Polarisation gewinnen lassen.
In dieser Arbeit werden grundlegende Untersuchungen zum Verständnis der dynamischen Wechselwirkungsmechanismen atomarer Projektile mit Festkörperoberflächen vorgestellt, die zur Emission von Sekundärionen führen. Der zentrale Ansatzpunkt ist dabei die Vermessung der Dynamik über die geschwindigkeits- und winkeldifferentielle Verteilung der emittierten Sekundärionen. Dazu wurde ein neuartiges Spektrometer entwickelt, in dem jedes in einem homogenen elektrischen Feld abgelenkte Sekundärion durch seine Flugzeit (TOF) und den Auftreffort auf einen 2-dimensionalen (XY) ortsempfindlichen Detektor charakterisiert wird. Das Prinzip basiert auf dem in Gastargetexperimenten erfolgreich eingesetzten Frankfurter Meßsystem COLTRIMS (COLd Target Recoil Ion Momentum Spectroscopy). Dieses System wurde weiterentwickelt und erstmalig in Frankfurt in einem Festkörperexperiment zur geschwindigkeits- und winkeldifferentiellen Spektrometrie von Sekundärionen angewendet. Ein zusätzliches Merkmal gegenüber herkömmlichen Spektrometern ist die Möglichkeit der einfachen Variation des Einfallswinkels 0p vom Projektil zum Target. Die korrekte Transformation der gemessenen Daten in eine 3-dimensionale Anfangsgeschwindigkeitsverteilung bedingt eine möglichst präzise Eichung des Spektrometers. Dazu wurde die in diesem Zusammenhang neuartige Methode des Strahlprofilmonitors entwickelt und eingesetzt. Durch die Wechselwirkung des Projektils mit einem nicht lokalisierten Gastarget erzeugt es auf seinem Weg durch das Spektrometer eine Spur aus Ionen. Die Gasionen befinden sich im Verhältnis zu den von dem Festkörper emittierten Sekundärionen nahezu in Ruhe. Daher kann über die Analyse der Projektilspur auf die zur Eichung notwendigen, aber im Experiment nicht direkt zugänglichen Parameter, wie Flugzeit (T0) und Auftreffort (x0/y0) für Teilchen mit der Geschwindigkeit v0z = v0x = v0y = 0, geschlossen werden. Die systematische Variation von Projektil- (He0/N0/Ar0, Ep = 0.2 - 2.2 MeV, 0p = 37°-78° relativ zur Oberflächennormalen) und Targeteigenschaften (Au/C/LiF/Al) erlaubt ein gezieltes Studium der dynamischen Wechselwirkung zwischen Projektilen und Festkörperoberflächen. Das untersuchte H+-Sekundärion entstammt einer Festkörperoberfläche bedeckenden quasistabilen Kontaminationsschicht, die im wesentlichen aus den Adsorbaten H2, H2O, CxHy besteht. Die gemessenen H+-Geschwindigkeitsverteilungen besitzen ein Maximum etwa bei v0 ungefähr gleich 25-35 km/s mit Ausläufern (abhängig von 0p) bis hin zu 240 km/s. Bei sinkender Projektilgeschwindigkeit zeigt die Verteilung der emittierten H+-Sekundärionen bei hohen Emissionsgeschwindigkeiten (v0 > 60 km/s) eine stark ausgeprägte Asymmetrie in der von dem einfallenden Projektil und der Oberflächennormalen definierten Ebene. Ionen werden mit einer hohen Geschwindigkeit (bis zu 140 km/s bei 0p = 45°) unter einem Winkel von ca. 90° zum Projektil, unabhängig von 0p, emittiert. Diese Asymmetrie wird durch eine binäre Kollision des Projektils mit dem Wasserstoff verursacht. Die Variation der Projektilgeschwindigkeit ist korreliert mit der deponierten Energie des Projektils im Festkörper. Daher kann in der Dynamik der Sekundärionen deutlich der Beitrag des nuklearen Anteils an der totalen Energiedeposition aufgezeigt und getrennt werden. Bei Emissionsgeschwindigkeiten v0 < 60 km/s zeigt sich eine starke Abhängigkeit von den Targeteigenschaften. Bei konstantem Einfallswinkel beobachten wir eine Verschiebung der Maxima von v0 max ungefähr gleich 26.5 km/s bei Au-, über 27.9 km/s bei Al- bis hin zu 32.5 km/s bei LiF-Targets. Es zeigt sich keine meßbare Abhängigkeit vom Einfallswinkel des Projektils bei Auund C-Targets, dagegen eine deutliche Verschiebung der Maxima hin zu größeren Geschwindigkeiten bei dem Al- (v0 max ungefähr gleich 27.5 km/s - 30 km/s) und dem LiF-Target (v0 max ungefähr gleich 32.5 km/s - 35.5 km/s) mit einer Vergrößerung von 0p. Ionen mit v0 < 30 km/s werden zum Großteil rückwärts in Richtung des einfallenden Projektils emittiert. Au und C sind gute, LiF und das mit einer Al2O3-Schicht überzogene Al dagegen schlechte elektrische Oberflächenleiter. Die Verschiebung der Verteilungen bei einem schlechten elektrischen Leiter ist ein Hinweis auf den zeitabhängigen Zerfall des Projektilspurpotentials im Festkörper. Die Zunahme der Emissionsgeschwindigkeit v0 bei Vergrößerung von 0p ist in der Vergrößerung der effektiven Targetdicke begründet und ein Hinweis auf eine targetdickenabhängige Neutralisationszeit des geladenen Spurkerns durch Elektronen des Substrats. Korrelationen im Sekundärionenemissionsprozeß bezüglich Impuls- und Energieerhaltung zwischen einem emittierten H+-Sekundärion und einem möglichen zweiten Sekundärion wurden nicht beobachtet. Über die Eichung hinaus eröffnen sich zusätzlich noch einige vielversprechende Anwendungsmöglichkeiten des Strahlprofilmonitors. Zum einen ermöglicht er a) in der Gasmassenspektrometrie eine exakte Korrektur der Ionenflugzeit unabhängig vom Ort der Ionisation und zum anderen bildet er b) eine innovative Methode zur Kartographie lokaler elektrischer Felder und c) ferner einen alternativen Zugang zur Vermessung von Projektilstreuwinkeln. Die Verwendung eines ortsempfindlichen Detektors in der „kinematischen“ Materialanalyse verbindet simultan gute Tiefenprofilauflösung mit dem Nachweis eines großen Raumwinkels zugunsten einer besseren Statistik. Die Kenntnis der Emissionscharakteristik bewährt sich zudem in der Massenanalyse in der Unterscheidung von Ionen fast identischer Massen.
Im Rahmen dieser Arbeit wurde untersucht, inwieweit eine Bewegungsschärzung aus monokularen Bildsequenzen von Straßenverkehrsszenen und eine darauf aufbauende Hinderniserkennung mit Hilfe von statistischen oder neuronalen Methoden realisiert werden kann. Bei dem zugrunde liegenden mathematischen Modell wird angenommen, daß die Umgebung, in der sich ein Fahrzeug bewegt, im wesentlichen eben ist, was für Verkehrsequenzen in guter Näherung erfüllt ist. Im ersten Teil dieser Arbeit wurde ein statistisches Verfahren zur Bewegungsschätzung vorgestellt und diskutiert. Der erste Schritt dieses Verfahrens stellt die Generierung eines sogenannten Markantheitsbildes dar, in welchem Objektkanten und Objektecken visuell hervorgehoben werden. Für die daraus resultierende Liste von markanten Bildbereichen werden anschließend unter Verwendung einer sogenannten Verschiebungsvektorschätzung, Korrespondenzen im zeitlich folgenden Bild ermittelt. Ausgehend von dem resultierenden Verschiebungsvektorfeld, werden in dem nächsten Schritt des Verfahrens die Bewegungsgrößen ermittelt, also die Rotationsmatrix und der Translationsvektor des Fahrzeugs, beziehungsweise der Kamera. Um abschließend eine Hinderniserkennung realisieren zu können, erfolgt unter Verwendung der Bewegungsgrößen eine Bewegungskompensation der Bilddaten. Bei einer solchen Bewegungskompensation wird unter Verwendung der ermittelten Bewegungsgrößen und dem Modell der bewegten Ebene eine Rücktransformation jedes Bildpixels durchgeführt, so daß bei der Bildung eines Differenzbildes zwischen dem bewegungskompensierten Bild und dem tatsächlich aufgenommenen Bild, dreidimensionale Strukturen, die ja das Ebenenmodell verletzen, deutlich hervortreten und somit auf potentielle Hindernisse hinweisen. Es hat sich gezeigt, daß Fehlmessungen in den Verschiebungsvektoren, welche beispielsweise durch periodische Strukturen auf der Ebene auftreten können, die Bewegungsschätzung und die Hinderniserkennung empfindlich stören. Diese statistischen Ausreißer bewirken, daß trotz der Verwendung von robusten Schätzmethoden, eine stabile Hinderniserkennung nur durch die Einbeziehung von Vorwissen über die Art der Bewegung des Fahrzeugs realisiert werden kann. Weiterhin führen die Komplexität des Verfahrens und die damit verbundenen hohen Anforderungen an die Rechenleistung der eingesetzten Hardware dazu, daß die für die praktische Anwendbarkeit so wichtige Echtzeitfähigkeit des Verfahrens bisher nur für Eingangsbilder mit geringer Auflösung ermöglicht werden konnte. Speziell für die Bildverarbeitung hat sich das neue Paradigma der Zellularen Neuronalen Netzwerke als außerordentlich leistungsfähig erwiesen. Neben der extrem hohen Verarbeitungsgeschwindigkeit von CNN-basierten schaltungstechnischen Realisierungen zeichnen sie sich durch eine hohe Robustheit bei vertauschten oder fehlerhaften Eingangsdaten aus. Für nahezu jedes aktuelle Problem der Bildverarbeitung wurde bisher ein geeignetes CNN bestimmt. Auch für komplexe Aufgabenstellungen aus der Bildverarbeitung, wie beispielsweise die Texturklassifikation, die Spurverfolgung oder die Gewinnung von Tiefeninformation konnten bereits CNN-Programme implementiert und schaltungstechnisch verwirklicht werden. So konnte auch im zweiten Teil dieser Arbeit gezeigt werden, daß die einzelnen Schritte der Hinderniserkennung aus monokularen Bildsequenzen ebenfalls unter Verwendung eines CNN realisierbar sind. Es wurde demonstriert, daß für die Generierung eines Markantheitsbildes bereits ein Standard-CNN mit linearer Kopplungsfunktion und der Nachbarschaft r=1 verwendet werden kann. Das rechenaufwändige statistische Verfahren der Markantheitsbildberechnung kann somit durch einen einzigen CNN-Verarbeitungsschritt durchgeführt werden. Weiterhin wurde im Rahmen dieser Arbeit gezeigt, daß auch der folgende, rechenintensive Schritt des statistischen Verfahrens der Hinderniserkennung, nämlich die Verschiebungsvektorschätzung, mittels CNN verwirklicht werden kann. Hierzu sind CNN mit polynomialen Kopplungsfunktionen und der Nachbarschaft r=1 notwendig. Bei den durchgeführten Untersuchungen hat sich herausgestellt, daß die CNN-basierten Verarbeitungsschritte den statistischen Methoden in den Punkten Robustheit und Verarbeitungsgeschwindigkeit deutlich überlegen sind. Abschließend wurde in dieser Arbeit gezeigt, daß mit Hilfe von CNN sogar eine direkte Hinderniserkennung aus monokularen Bildsequenzen - ohne den Umweg über die Bestimmung der Verschiebungsvektoren und der Bewegungsgrößen - realisiert werden kann. In dem vorgestellten Verfahren wird nach zwei Vorverarbeitungsschritten, die Hinderniserkennung in einem einzigen Schritt unter Verwendung eines CNN mit polynomialen Zellkopplungsgewichten vom Grade D=3 und der Nachbarschaft r=2 durchgeführt. Das vorgeschlagene Verfahren führt zu einer wesentlichen Vereinfachung der Hinderniserkennung in monokularen Bildsequenzen, da die Bewegegungsschätzung aus dem statistischen Verfahren nicht länger notwendig ist. Die Umgehung der expliziten Bewegungsschätzung hat weiterhin den Vorteil, daß der Rechenaufwand stark reduziert wurde und durch den Wegfall der Verschiebungsvektorschätzung und dem damit verketteten Problem der Ausreißer, ist das vorgestellte CNN-basierte Verfahren außerdem sehr robust. Die ersten Resultate, die unter Verwendung von synthetischen und natürlichen Bildsequenzen erhalten wurden, sind überaus vielversprechend und zeigen, daß CNN ausgezeichnet zur Verarbeitung von Videosequenzen geeignet sind.
Lipophile, sedimentgebundene Substanzen sind für endobenthische Tiere in hohem Maße bioverfügbar und können von diesen aufgenommen und angereichert werden. Für benthivore Fische besteht damit das Risiko, diese Chemikalien mit der Nahrung aufzunehmen. Die Aufkonzentrierung sedimentgebundener Chemikalien über zwei oder mehr trophische Ebenen (Biomagnifikation) kann somit durch die Bestimmung der Biokonzentration von Chemikalien in Fischen nach der OECD-Richtlinie 305 (OECD 1996) nicht adäquat erfasst werden. Zur standardisierten Bestimmung der Bioakkumulation und Biomagnifikation wurde eine einfache, zwei trophische Stufen umfassende Labornahrungskette etabliert. Diese bestand aus dem endobenthischen Oligochaeten Tubifex tubifex (MÜLLER) als Beute und dem Dreistachligen Stichling (Gasterosteus aculeatus LINNÉ) als Prädator. Die Experimente wurden mit 14C-markiertem Hexachlorbenzol und Terbutryn in dotiertem künstlichem Sediment und rekonstituiertem Wasser durchgeführt. Um den Einfluss einzelner Expositionspfade an der Gesamtanreicherung der Modellchemikalien zu quantifizieren, wurden die Fische gegenüber dotiertem Wasser bzw. dotiertem Sediment (Biokonzentrationsszenario), vorexponierten Würmern (Biomagnifikationsszenario) und Kombinationen dieser Aufnahmepfade (Bioakkumulationsszenario) exponiert. Sedimentgebundenes HCB wurde im Bioakkumulationsszenario sowohl in den Tubificiden (BAFWurm/Sediment (FG/FG) = 7,8) als auch in den Fischen (AFFisch/Wasser (FG/FG) = 52500; AFFisch/Sediment (FG/FG) = 47; AFFisch/Wurm (FG/FG) = 3,2) deutlich angereichert. Da die Gewebekonzentration von HCB im Räuber, auch auf Basis lipidnormierter Konzentrationen, die Konzentration in seiner Beute überstieg (AFFisch/Wurm (lipidnormiert) = 1,3), kann von einer Aufkonzentrierung der Chemikalie entlang der Labornahrungskette ausgegangen werden (Biomagnifikation). Es konnte gezeigt werden, dass die Exposition gegenüber der Kombination sämtlicher Aufnahmepfade zu deutlich höherer Anreicherung in den Fischen führte als im Falle einzelner Expositionspfade. Ein Vergleich der Ergebnisse der einzelnen Expositionsszenarien erlaubt den Schluss, dass HCB von den Fischen im Bioakkumulationsszenario zu ungefähr gleichen Teilen über das Wasser (45%) und über die Nahrung (41%) aufgenommen wurde, während die Anwesenheit kontaminierten Sediments nur mit 14% zur Gesamtanreicherung beitrug. 14C-Terbutryn wurde im Bioakkumulationsszenario - auf Basis der Gesamtradioaktivität - sowohl in den Tubificiden (AF Wurm/Sediment (FG/FG) = 4,4) als auch in den Fischen (AFFisch/Wasser (FG/FG) = 323; AFFisch/Sediment (FG/FG) = 10; AFFisch/Wurm (FG/FG) = 1,4) angereichert. Allerdings wurde Terbutryn in den Stichlingen zum überwiegenden Teil zu einem polareren Metaboliten transformiert (84%). Daher müssen zur Abschätzung der Anreicherung von Terbutryn die auf den Gehalt an Ursubstanz korrigierten Gewebekonzentrationen und Anreicherungsfaktoren betrachtet werden. Hierbei wird deutlich, dass Terbutryn nicht entlang der Labornahrungskette aufkonzentriert wurde (AFFisch/Wurm = 0,09). Ein Vergleich der Ergebnisse der einzelnen Expositionsszenarien zeigt, dass der Hauptaufnahmepfad von 14C-Terbutryn in Stichlingen das umgebende Wasser ist, während die Anwesenheit kontaminierten Sediments und die Aufnahme über die Nahrung eine untergeordnete Rolle spielen. Da die Messung der Bioakkumulation und Biomagnifikation von sedimentassoziierten Substanzen sehr aufwendig ist, werden zur Abschätzung ihres Risikopotentials vermehrt mathematische Modelle entwickelt und eingesetzt, die eine Chemikalienanreicherung in Nahrungsketten vorhersagen sollen. Im Rahmen der vorliegenden Arbeit wurden die Vorhersagen dreier Modelle mit den experimentell ermittelten Daten verglichen. Hierdurch sollte sowohl die Eignung des entwickelten Testsystems als auch der verwendeten Modelle als nützliche Instrumente des environmental risk assessment überprüft werden. Die Vorhersagen der drei Modelle bei Applikation auf die Daten der Labornahrungskette stimmen gut mit den experimentell bestimmten Konzentrationen von HCB und Terbutryn in den Tubificiden und Fischen überein. Für HCB sagen alle drei Modelle eine Biomagnifikation in der Labornahrungskette vorher. Die Modelle unterschätzen die gemessenen Konzentrationen in den Fischen mit einem Faktor von 1,1 - 1,7 nur geringfügig. Die Konzentration in den Tubificiden wird vom Gobas/Morrison-Modell sehr präzise vorhergesagt (Unterschätzung um Faktor 1,1), während sie im Campfens/Mackay-Modell (Faktor 2,1) und Gobas-Modell (Faktor 6,3) deutlicher unterschätzt wird. Speziell die dem Campfens/Mackay- und Gobas-Modell zugrunde liegenden Annahmen zur Anreicherung in benthischen Organismen erwiesen sich für HCB und Tubificiden als unzureichend zu sein, da die Modelle hierbei nur die Aufnahme aus dem Porenwasser berücksichtigen. Für Terbutryn sind die Modellvorhersagen sehr viel ungenauer als für HCB, da vor allem die starke Metabolisierung von Terbutryn in den Stichlingen unterschätzt wird. Dies resultiert in einer Überschätzung der Terbutryn-Konzentration in den Fischen (Faktor 5,8 - 6,4). Allerdings bleiben zwei Punkte festzuhalten: 1) Die Modelle sagen keine Biomagnifikation von Terbutryn in der Labornahrungskette vorher. 2) Die Modellvorhersagen bestärken die Annahme, dass die Anreicherung von Terbutryn in den Fischen dominiert ist von der Aufnahme aus dem umgebenden Wasser über die respiratorische Oberfläche. Die analysierten Modelle können bei entsprechender Weiterentwicklung als nützliche Instrumente für eine erste Abschätzung des Risikos der Bioakkumulation sedimentgebundener, hoch lipophiler Substanzen in aquatischen Nahrungsketten im Rahmen der Risikoabschätzung (environmental risk assessment) dienen. Zum gegenwärtigen Entwicklungsstand ist die Labornahrungskette jedoch den Modellen vorzuziehen, da sie die konservativeren Daten liefert. Für eine abschließende Beurteilung der vorgestellten Methoden bedarf es allerdings einer Verbreiterung der Datenbasis.
Hitze-Stress-Transkriptionsfaktoren (Hsfs) stellen die zentralen regulatorischen Komponenten einer Signal-Transduktionskette dar, welche die Aktivierung von Hitze-Stress-induzierbaren Genen bewirken. Die Sequenzierung des Genoms von Arabidopsis thaliana (Arabidopsis) führte zu der Entdeckung von 21 Genen, die für putative Hsfs codieren. Aufgrund struktureller Charakteristika und phylogenetischer Analysen wurden die 21 Hsfs in die Klassen A, B und C aufgeteilt. Der Hauptteil der vorliegenden Arbeit beschäftigt sich mit der funktionellen Charakterisierung der Hsf Familie aus Arabidopsis. Um generelle Konzepte zur Funktion von pflanzlichen Hsfs als Aktivatoren zu unterstützen, wurden als Ausgangspunkt ausgewählte Hsfs aus Lycopersicon peruvianum (Tomate) zu detaillierten Analysen herangezogen. Hsfs besitzen, ähnlich anderen Transkriptions -aktivierenden Proteinen, eine modulare Struktur. In der vorliegenden Arbeit wurden funktionelle Module der 21 Arabidopsis Hsfs untersucht, die für den Oligomerisierungs-Zustand, die intrazelluläre Lokalisation sowie das Transkriptions-aktivierende Potential von Bedeutung sind. Essentiell für die Funktion von Klasse A Hsfs als Transkriptions-Aktivatoren sind kurze Peptidmotive, die durch aromatische und große hydrophobe Aminosäure-Seitenketten geprägt sind, die in einer sauren Umgebung eingebettet sind (AHA Motive: aromatic, large hydrophobic and acid amino acid residues). Es wurde mit GST pull-down Assays gezeigt, dass AHA Motive mit ausgewählten Transkriptions-Komplexen interagieren. Das generelle Konzept für AHA Motive als kohäsive Elemente zur Interaktion mit der Transkriptions- Maschinerie wurde durch Mutationsanalysen verifiziert, besonders detailliert am Beispiel von LpHsfA2 und LpHsfA1 aus Tomate in Reporter-Assays in Tabak-Protoplasten und Hefe als auch GST pull-down Experimenten gezeigt. Im Kontrast zu den Klasse A Hsfs besitzen Klasse B und C Hsfs keine AHA Motive. Diese zeigten auch keine eigene Aktivator-Funktion aber Experimente deuten darauf hin, daß sie Coregulatoren für Klasse A Hsfs darstellen. Es wurde gezeigt, dass diese pflanzliche Besonderheit bei Tomate als auch Arabidopsis existiert. Alle 21 Arabidopsis Hsfs wurden als Transkripte nachgewiesen, ihre Expression verhält sich sehr dynamisch in bezug auf Hitze-Stress als auch Entwicklungssignale. Die präsentierte funktionelle Charakterisierung der Hsf Familie von Arabidopsis gibt erste Einsichten in das komplexe Netzwerk der Hsfs und demonstriert bereits, dass im Vergleich zu anderen Organismen, wie z.B. Drosophila und Hefe mit einem Hsf und Säugern mit drei Hsfs, das komplexe pflanzliche Hsf System eine fein regulierte und effiziente Voraussetzung für Pflanzen darstellt, um schnell und vor allem erfolgreich auf Umwelteinflüsse zu reagieren, denen sie nicht entfliehen können.
Das Adenokarzinom des Pankreas ist das fünfthäufigste Malignom der westlichen Länder mit einer sehr schlechten Prognose. Zum Zeitpunkt der Diagnosestellung ist das Pankreaskarzinom wegen der frühen lokalen Infiltration und Metastasierung meist nicht mehr kurativ behandelbar. 80 % aller Pankreaskarzinome werden in einem fortgeschrittenen Krankheitsstadium diagnostiziert. Die Therapie des fortgeschrittenen Pankreaskarzinoms gestaltet sich problematisch. Bislang führten systemische chemotherapeutische Ansätze nicht zur erhofften Verlängerung der Lebenszeit. In der vorliegenden Phase II Studie wurden in der Abteilung für Allgemein- und Gefäßchirurgie der Universitätsklinik Frankfurt am Main 17 Patienten mit lokal fortgeschrittenem oder metastasiertem Pankreaskarzinom mit einer regional/systemischen Kombinationschemotherapie behandelt. Ein Therapiezyklus bestand aus einer 3ominütigen intraarteriellen Infusion von 8,5 mg/m2 Mitomycin C und aus einer 60minütigen intraarteriellen Infusion von 500 mg/m² Gemcitabine über einen transfemoralen Truncuskatheter an den Tagen 1 und 22, gefolgt von einer systemischen lnfusion von 500 mg/rn² Gemcitabine über 30 Minuten an den Tagen 8, 15, 29 und 36. Die Komhinationschemotherapie war nebenwirkungs- und komplikationsarm. Schwere Nebenwirkungen im NCI-Stadium III/IV wurden im Verlauf von 37 Therapiezyklen mit 74 regionalen Applikationen und 148 systemischen Applikationen in 9 % der Applikationen als Beeinträchtigung der Knochenmarksfunktion (Leukopenie, Thrombopenie und Hämoglobinabfall) und in 15 % der Applikationen als Leberfunktionsstörungen (Erhöhung von Transaminasen, alkalischer Phosphatase und Bilirubin) beobachtet. Die Nebenwirkungen nach regionalen Therapien waren mit den Nebenwirkungen nach venösen Therapien vergleichbar. Kein Patient verstarb an den Folgen einer Nebenwirkung. Ein Patient erlitt nach einer regionalen Chemotherapie einen kompletten Verschluß der Arteria iliaca externa sinistra. Der Therapieerfolg wurde anhand von Computertomographien (CT) und Tumormarker CA 19-9 Bestimmungen nach jedem Chemotherapiezyklus beobachtet und gemäß den WHO-Kriterien beurteilt. Nach CT-Kriterien zeigten vier Patienten eine Regression. Eine komplette Remission wurde bei einer Patientin, eine partielle Remission bei drei Patienten beobachtet. Eine radiologische Remissionsrate von 24 % konnte errechnet werden. Bei fünf Patienten ließ sich unter Therapie keine Größenzunahme des Tumors erkennen (Stable disease). Das Tumorwachstum war bei neun Patienten progredient. Bei sieben Patienten konnte unter Therapie ein Tumormarkerrückgang von mehr als 50 % evaluiert werden (Remissionsrate 41%). Insgesamt zeigten sich zwei komplette Remissionen mit Sinken des Tumormarkers CA 19-9 in den Referenzbereich, d.h. unter 37 µg/ml, und fünf partielle Remissionen. Bei fünf Patienten war der Verlauf des Tumormarkers CA 19-9 unter Therapie stabil (Stable disease). Der Tumormarker CA 19-9 stieg progredient bei fünf Patienten. Das mediane Überleben nach der Kombinationschemotherapie betrug 9,1 Monate (95 % CI: 6-12 Monate). Das mediane Überleben war für Patienten ohne Fernmetastasen (n = 7) mit 15 Monaten (95 % CI: 3-23 Monate) signifikant (p = 0,037) länger als für Patienten mit Fernmetastasen (n = 10) mit 6,3 Monaten (95 % CI: 4,6-12 Monate). Die mediane progressionsfreie Zeit während der Kombinationschemotherapie betrug 4,6 Monate (95 % CI: 2,1-8,7 Monate). Das radiologische Ansprechen (24 %) und die mediane Überlebenszeit (9,1 Monate) dieser regional/systemischen Kombinationschemotherapie waren im Vergleich zu systemischen Standardchemotherapien mit Gemcitabine, die radiologische Remissionsraten von 6,3 % bis 12 % und mediane Überlebenszeiten von 4,8 bis 6,6 Monaten zeigten, erhöht. Die Studie wird aufgrund ihres hohen klinischen Nutzens weiter fortgesetzt. Eine randomisierte Phase III Studie, die die vorliegende regional/systemische Kombinationschemotherapie (Mitomycin C 8,5 mg/m2 Gemcitabine 500 mg/m2) mit dem systemischen Standardverfahren (Gemcitabine 1000 mg/m2) vergleicht, wird angestrebt.
Für diese Arbeit wurden anhand zweier relativ kleiner Kollektive von 35 DAT-Patienten und 12 gesunden Non-DAT-Kontrollpersonen (Rechtshänder) 18F-FDG-PET-Bilddatensätze des Gehirns angefertigt und standardisiert mit dem halbautomatischen Regionalisierungsverfahren RegWindow hinsichtlich der Stoffwechselraten in interessierenden Hirnregionen nach HERHOLZ et al. (1990) in der Überarbeitung nach HALBER et al. (1995) für das PC-Programm RegWindow analysiert und ausgewertet. Für die Non-DAT-Kontrollgruppe läßt sich ein signifikanter Zusammenhang zwischen den mit RegWindow und Metabolischer Index ermittelten Metabolic Ratios bestätigen. Die Metabolic Ratios stimmen bezüglich den Literaturangaben der beiden Referenzstudien nach HALBER (1995) und HERHOLZ et al. (1990) sehr gut überein. Mit der Non-DAT-Kontrollgruppe ist auf einem Signifikanzniveau von P=0,95 eine direkte Proportionalität zwischen dem Alter und dem daraus resultierend erniedrigten Metabolic Ratios abzuleiten. Jeweils zehn Lebensjahre führen zu einer Minderung des Metabolic Ratios um 2 Prozent. Für das in dieser Arbeit untersuchte DAT-Gesamtkollektiv wird eine lineare Abhängigkeit des Metabolic Ratios vom MMST-Score des psychometrischen Tests mit hoher Signifikanz nachgewiesen. Die Abhängigkeit liefert eine eindeutige 1:1 Korrelation: Eine Minderung des Score-Wertes um eins hat im Mittel eine Minderung des Metabolischen Ratios um 1 Prozent zur Folge und umgekehrt. Aus den Ergebnissen dieser Arbeit läßt sich ein Cut-off-Wert von 1,075 zur Trennung des Non-DAT- vom DAT-Kollektiv berechnen. Dieser ermöglicht eine vollständige Trennung beider Kollektive bei einer Sensitivität und Spezifität von 100 Prozent. Die Ergebnisse der Stoffwechselratenanalyse bestätigen eine signifikante Stoffwechselratenminderung in drei von den vier nach HALBER (1995) und HERHOLZ et al. (1990) typischerweise betroffenen (affected) Hirnregionen. In der Reihenfolge vom höchsten zum niedrigeren Einfluß der DAT auf die Stoffwechselminderungen ergibt sich die Rangfolge Gyrus angularis, gefolgt von Gyrus temporalis inferior, Gyrus supramarginalis und Gyrus temporalis medius. Als typischerweise nicht betroffene (non-affected) Regionen konnten die Gyri praecentralis und postcentralis sowie Cuneus bestätigt werden. Als eindeutig non-affected kann zusätzlich der Thalamus klassifiziert werden. Für einige nicht klassifizierte Hirnregionen werden ebenfalls signifikante Stoffwechselratenminderungen nachgewiesen, deren Aufnahme als typischerweise betroffene Hirnareale in den Algorithmus für RegWindow zur Berechnung des Metabolic Ratios vorgeschlagen wird. Diese lauten: Lobulus parietalis inferior, Praecuneus, Hippocampus, Lobulus parietalis superior und Gyrus frontalis superior. Internationale Arbeitsgruppen (siehe Kapitel 4.4.1) konnten für diese Hirnregionen im PET Stoffwechselratenminderungen bestätigen sowie in anderen bildgebenden Diagnoseverfahren Atrophien und Perfusionsdefizite ebenfalls nachweisen. Für die Gyri angularis, temporalis inferior und medius, supramarginalis und den Lobulus parietalis inferior konnte ein unilateraler Befall mit Stoffwechselratenminderung im Anfangsstadium der DAT nachgewiesen werden.
Weltweit stellen primäre und sekundäre metastatische Leberneoplasien die häufigste Todesursache onkologischer Patienten dar. Die Kontrolle eines Leberbefalls ist ein für das Überleben und die Lebensqualität dieser Patienten wichtiger Aspekt. Die chirurgische Leberresektion stellt z.Z. die einzige potentiell kurative Behandlung dar. In vielen Fällen jedoch ist eine Resektion nicht möglich. Bei diesen Patienten mit nicht resektablen Lebertumoren muß das Ziel eine maximal mögliche Kontrolle dieser Läsionen bei guter Lebensqualität sein. Hier kommen dann hauptsächlich chemotherapeutische sowie verschiedene lokoregionäre Therapiestrategien zur Anwendung. Diese Arbeit widmet sich der Untersuchung eines neu entwickelten Verfahrens im Rahmen einer prospektiven, offenen, multizentrischen Phase-II-Studie. Die hier zu untersuchende direkte selektive intratumorale Chemotherapie bietet die Möglichkeit höhere lokale Chemotherapeutikakonzentrationen bei geringerer systemischer Toxizität zu erreichen. Hierbei wird ein Cisplatin-haltiges lokal applizierbares Gel (Matrix Parmaceutical Inc., Fremont, CA) unter CT-Steuerung direkt in die Lebertumore injiziert. Adrenalin als vasokonstriktorisches Adjuvans erhöht desweiteren die langanhaltende Konzentrationssteigerung vor Ort gegenüber der systemischen Applikation. Im Rahmen dieser Studie wurden 17 Patienten mit nicht resektablen Lebermalignomen behandelt, hiervon 9 Patienten mit primärem HCC und 8 mit kolorektalen Lebermetastasen. Es handelte sich, besonders bei den Patienten mit kolorektalen Lebermetastasen, um unter Therapie progredientes oder rezidivierendes Tumorleiden. Die Behandlung bestand aus mehrfachen Gelapplikationen in etwa wöchentlichem Abstand. Zur Therapiekontrolle wurden vor und zu bestimmten Zeitpunkten nach den Behandlungen kontrastverstärkte Spiral-CT-Untersuchungen zur volumetrischen Messung von Tumor und Nekrose durchgeführt. Die Behandlung mit dem injizierbaren IntraDose® Gel wurde von den Patienten insgesamt gut toleriert und ist auch ambulant möglich. Zeichen einer Cisplatin-induzierten Toxizität traten nicht auf. In zwei Fällen zeigte sich jedoch eine weitere Verschlechterung der Leberfunktion, wenn diese initial bereits eingeschränkt war. Die Ergebnisse unserer Untersuchung unterschieden sich für die beiden Patientengruppen. Die Entwicklungen von Tumor- und Nekrosevolumen und die sich hieraus ergebenden Ansprechraten für die Patienten mit HCC deutlich vielversprechender. 75% der Patienten mit HCC zeigten ein Ansprechen auf die Therapie, hiervon wiesen 25% eine komplette, 50% eine partielle Remission auf; jeweils 12,5% zeigten einen Status idem bzw. eine Progression der behandelten Tumoren. Bei den Patienten mit kolorektalen Lebermetastasen ließ sich eine Ansprechrate von 28,6% (partielle Remission) erzielen, 71,4% der Patienten jedoch zeigten einen Tumorprogreß. Die ermittelten Überlebensdaten weisen auf einen möglichen Vorteil gegenüber nicht oder nur symptomatisch behandelten Patienten hin. Dieser Vorteil ist bei den Patienten mit den kolorektalen Metastasen stärker ausgeprägt als bei den Patienten mit HCC. Mit dem direkt intratumoral zu applizierenden IntraDose® Gel bietet sich eine minimal invasive, ambulant durchführbare Behandlungsoption für maligne nicht resektable Lebertumoren. Eine Wirksamkeit zur Behandlung maligner Lebertumoren bei guter Verträglichkeit konnte durch die vorgestellte Studie nachgewiesen werden. Hierbei waren die Ergebnisse bei den behandelten hepatozellulären Karzinomen besser als bei den kolorektalen Lebermetastasen. Die Ergebnisse, sollten in weiteren Studien mit größeren Patientenkollektiven überprüft werden, erst dann können mögliche Indikationen für die vorgestellte Therapie gefunden werden. Entsprechende Studien sind in Planung.
Okamoto (Crypto 1992) hat die RSA-Repräsentation als Basis eines gegen aktive Angreifer sicheren Identifikationsschemas eingeführt. Eine RSA- Repräsentation von X E Z * N ist ein Paar (x; r) E Z e x Z * N mit X = g x r e (mod N) für vorgegebenes g E ZN , RSA-Modul N und primen RSA- Exponenten e. Das zugehörige Repräsentationsproblem, also das Auffinden eines Wertes X samt zweier verschiedener Darstellungen, ist äquivalent zum RSA-Problem, der Berechnung einer e-ten Wurzel von g modulo N . Von Brassard, Chaum und Crépeau (Journal Computing System Science, 1988) sowie Damgard (Journal of Cryptology, 1995) stammt eine analoge Konstruktion der Form X = g x r 2 t (mod N) mit x E Z 2 t für den Spezialfall der Blum-Zahlen als Modul N und gegebenes t größer gleich 1, wo die Möglichkeit, zwei verschiedene Repräsentationen zu berechnen, gleichbedeutend zur Zerlegung des Moduls in die Primfaktoren ist. Im ersten Abschnitt der vorliegenden Arbeit verallgemeinern wir dieses Konzept systematisch auf beliebige (RSA-)Module durch die Einführung eines Anpassungsparameters r:= r (N ), so dass X = g x r 2 r t (mod N) mit x E Z 2 t. Basierend auf dieser als Faktorisierungsrepräsentation bezeichneten Darstellung leiten wir Identifikations-, Signatur- und Blinde-Unterschriften-Verfahren her. Im zweiten Teil verwenden wir sowohl RSA- als auch Faktorisierungsrepräsentation als Grundlage sogenannter non-malleable Commitment-Schemata zur Hinterlegung (Verbriefung) einer geheimen Nachricht. Bei dem von Dolev, Dwork und Naor (SIAM Journal on Computing, 2000) eingeführten Begriff der Non-Malleability soll ein Angreifer außer Stande sein, die Hinterlegung einer Nachricht m so abzuändern, dass er diese später dann mit einem in Relation zu m stehenden Wert, man denke zum Beispiel an m 1, aufdecken kann. Von Dolev, Dwork und Naor stammt ein allgemeiner Ansatz zur Konstruktion von non-malleable Commitment-Schemata aufbauend auf einem sogenannten Knowledge-Extraktor. Für die RSA-Darstellung verfügt das von Okamoto entworfene Protokoll als Proof-Of-Knowledge über einen solchen Extraktor, bei dem im Fall der Faktorisierungsrepräsentation von uns entwickelten Verfahren fehlt allerdings der Extraktor. Aus diesem Grund stellen wir mit Hilfe des Chinesischen Restsatzes ein neues, auf Commitments zugeschnittenes Protokoll mit Knowledge-Extraktor vor, das in Verbindung mit der Faktorisierungsrepräsentation ein effizientes Hinterlegungsschema ergibt. Zum Abschluß wird bei einem Commitment- Verfahren mit abgeschwächter Non-Malleability-Eigenschaft von Di Crescenzo, Katz, Ostrovsky und Smith (Eurocrypt 2001) die RSA- durch die Faktorisierungsrepräsentation ersetzt und das Schema vereinfacht.
Die Tatsache der Entwicklung des Staates in der Frühen Neuzeit in einem langsamen Übergang vom mittelalterlichen Personenverbandsstaat zum institutionellen Flächenstaat, ist von mehreren Wissenschaftlern zum Gegenstand ihrer Forschungen gewählt und es sind von ihnen allgemeine Essentials herausgearbeitet worden. ...
Der Nucleus suprachiasmaticus (SCN) ist der übergeordnete circadiane Schrittmacher (die “Tageszeitenuhr“) der Säugetiere. Er generiert den circadianen Rhythmus und synchronisiert diesen mit den diurnalen Signalen (Zeitgebern) aus der physikalischen Umwelt. Die Generierung der circadianen Rhythmik findet innerhalb einzelner SCN-Neurone (“clock cells“), die einen Multi-Oszillatoren-Veband bilden, statt. Die asynchronen Individualrhythmen der “clock cells“ werden zu einem gemeinsamen Haupt-Rhythmus, den circadianen Rhythmus, synchronisiert. Die entscheidende Rolle bei der Synchronisation der Individual-Rhythmen wird dem inhibitorischen – in fast allen SCN-Neuronen vorkommenden – Neurotransmitter Gamma- Amino-Buttersäure (GABA) zugeschrieben. Der gemeinsame Haupt-Rhythmus wird weiterhin durch exogene Zeitgeber auf die 24-stündige Periodik der Umweltsignale getriggert. Der dafür wichtigste Zeitgeber ist das Licht. Die Licht-Informationen werden retinal perzipiert und chemisch durch den Neurotransmitter Glutamat an den SCN übermittelt. Der Schlaf – als prominente Komponente circadianer Rhythmen – scheint ebenso vom GABAergen System des SCN gesteuert zu werden. In der vorliegenden Arbeit wurde das GABAerge System von Goldhamstern einschließlich seines glutamatergen Eingangssystems und der GABAergen Efferenzen analysiert. Diurnale Fluktuationen der untersuchten Komponenten des GABAergen Netzwerkes wurden auf ihre Beteiligung an Synchronisationsvorgängen im SCN beleuchtet. Die semiquantitative Analyse mit Hilfe von HPLC, Immuncytochemie und Immunoblot- Verfahren erbrachte eindeutige diurnale Fluktuationen aller untersuchten Komponenten des GABAergen Systems im Goldhamster-SCN. Während der Dunkelphase wurde das GABAerge-System aktiviert: die GABA-Synthese (GAD56/67), der Gesamt-GABA-Gehalt und die GABA-Wiederaufnahme (Entsorgung) aus dem synaptischen Spalt durch GABA-Transporter (GAT-1) zeigten eine nächtliche Reaktivitätssteigerung. Dies wurde durch die Erhöhung der nächtlichen GABA-Freisetzung aus SCN-Gewebekulturen (slice-Kulturen) ergänzt. In einer weiteren Untersuchung wurde die Zusammensetzung des GABAA-Rezeptors, der an den Synchronisationsvorgängen im SCN beteiligt ist, näher charakterisiert. Im SCN von Goldhamstern wurden die GABAA-Rezeptor- Untereinheiten alpha 2, alpha 3, beta 1 und beta 2/3 (schwach vertreten) nachgewiesen. Weiterhin konnte gezeigt werden, dass das GABAerge System an der Schlafregulation beteiligt ist. Die Komponenten des GABAergen Systems (Gesamt-GABA, GAD56/67, GAT-1) im SCN von Goldhamstern wiesen während des Schlafs im Vergleich zum wachen Tier identischer photoperiodischer Phasenlage erhöhte Reaktivität auf. Die Komponenten des glutamatergen Systems, welchem die Lichtinformationsübermittlung an das GABAerge System im SCN obliegt, zeigten ebenfalls eine diurnale Fluktuation. Die Maxima der Immunreaktivität für die AMPA-Rezeptor-Untereinheiten (GluR1, GluR2/3) am Tage deuten auf eine optimale Beteiligung dieser Komponenten an der Lichtvermittlung und auf einen Triggereffekt von Glutamat hin. Der Gesamt-Glutamat-Gehalt im SCN wies zwar erhöhte Werte während der Nacht auf, jedoch konnte keine Aussage über die Menge des funktionellen Neurotransmitters gemacht werden, da nur ein Bruchteil der Gesamt-Glutamat- Menge als Neurotransmitter wirkt. Die AMPA-Rezeptor-Untereinheiten zeigten eine – im Vergleich zu wachen Tieren derselben photischen Phasenlage – erhöhte Reaktivität bei schlafenden Goldhamstern. Die Hochregulation der GABAergen Systems während der Nacht unterstützt die Hypothese, dass GABA-Pulse – verabreicht zu einem bestimmten Tageszeit – Rhythmen individueller SCN-Neurone (“clock cells“) synchronisieren können. Die Synchronisation der GABAAusschüttung zu bestimmten Tageszeiten aus allen SCN-Neuronen wird durch das glutamaterge System getrieben. Alle untersuchten Komponenten zeigten dabei konsensuelle Reaktivitätsmuster, die als erhebliche Kontrastverstärkung der Hell- und Dunkelphase gewertet werden müssen. Die Unterschiede in der Reaktivität des GABAergen und glutamatergen Systems zwischen schlafenden und phasengleich untersuchten wachen Tieren stellen deren große Bedeutung für die Schlafregulation heraus.
Ausgangspunkt dieser Doktorarbeit ist die dominant erbliche hypertrophische Kardiomyopathie, eine Herzkrankheit, die mit Funktionseinschränkungen des Myokards und einem relativ hohen Risiko für einen plötzliche Herztod assoziiert ist. Als Ursachen wurden ca. 160 Mutationen in bisher zehn verschiedenen Genen nachgewiesen, die - mit einer möglichen Ausnahme - für Proteine des kardialen Sarkomers kodieren. Am häufigsten betroffen sind das ventrikelspezifische -Myosin (schwere Kette) sowie das kardiale Myosin-Bindungsprotein C. Ein in Bad Nauheim initiiertes Projekt hat zum Ziel, die Wirkungen einer Mikrodeletion im - Myosingen (Deletion des Codons 927, E927) auf die Struktur und Arbeitsweise des Herzens in transgenen Mäusen zu untersuchen. Es ist bei diesem Projekt beabsichtigt, die Expression des mutierten Myosin-Transgens so zu steuern, dass es nicht unkontrolliert dauernd (konstitutiv), sondern zeitlich kontrolliert (induzierbar) im Herzen exprimiert wird. Als Induktionssystem der Wahl ist dabei das bakterielle Tetrazyklinrepressor-System vorgesehen. Dieses besteht aus dem Repressor tetR, einer DNA- Repressor-Bindungssequenz tetO und einem von außen zugeführten Induktor (Tetrazyklin, tet, oder Doxyzyklin, DOX, einem tet-Derivat). Da dieses Regulationssystem vor dem aufwändigen Einsatz an transgenen Mäusen zunächst in vitro an Zellkulturen zu testen war, wurden für die transiente Transfektion von Zellen in Kultur zwei Plasmide (mit jeweils zwei verschiedenen Promotoren, also insgesamt vier Plasmide) hergestellt. Ein Plasmid enthielt den Repressor und das zweite die tetO-Sequenz mit einem nachgeschalteten Reportergen (lacZ für -Galactosidase). Die beiden Promotoren waren der ubiquitäre virale CMV-Promotor (hCMV-Promotor) einerseits und der herz- und mäusespezifische -Myosin-Promotor (-MHC Promotor) andererseits. Getestet wurde die Regulierbarkeit des Reportergens in transient transfizierten COS1-Zellen, L6 Myoblasten sowie an neonatalen Kardiozyten von Ratten. Für die Kotransfektion von jeweils einem Paar der Plasmide (mit dem tetR-Gen, bzw. dem tetO/lacZ-Gen) wurde ein modifiziertes und in dieser Arbeit optimiertes ballistisches System (Gene Gun von BioRad) benutzt. Die Versuchsanordnung bestand aus Anzüchtung der Zellen, Transfektion, Induktion und Nachweis des Reporterenzyms. Mit dem hCMV-Promotor wurde in allen drei getesteten Zelltypen eine von DOX abhängige Expression der -Galaktosidase nachgewiesen. Mit dem -MHC Promotor, der wegen seiner Herzspezifität nur an kardialen Rattenmyozyten getestet werden konnte, waren in der Standardversuchsanordnung (nach DOX Induktion) nur sehr geringe Mengen an - Galaktosidase nachweisbar. Um die Regulierbarkeit des lacZ-Gens eindeutig zu demonstrieren, wurden als Stimulatoren des -MHC Promotors die Hormone Trijodthyronin, Insulin und Dexamethason einzeln und in Kombination verwendet. Die höchste Stimulierung (ca. 5-fach) wurde mit einer Kombination aller drei Hormone erreicht. In dieser Anordnung wurde damit gezeigt, dass das binäre tetR/tetO-System in vitro nach Induktion auch mit dem -MHC Promotor funktioniert. Mit diesem Resultat war - im Prinzip - der Weg für Experimente mit transgenen Mäusen vorgegeben. In Transgen-Linien mit Einzeltransgenen (entweder mit dem tetR-Gen oder dem lacZ-Gen, beide unter Kontrolle des -MHC Promotors, letzteres zusätzlich mit der tetO- Sequenz für den Repressor) wurde die herzspezifische Expression der -Galaktosidase eindeutig nachgewiesen, nicht jedoch die des tet-Repressors. Die Gründe dafür können gegenwärtig nur vermutet werden. Die Zahl der Genkopien könnte unzureichend gewesen sein. Da es sich um ein bakterielles Gen handelt, könnte auch eine ungünstige Codon-Verwendung einer effizienten Expression entgegenstehen. Zur Klärung dieser Umstände sind weitere Versuche (die nicht mehr Gegenstand dieser Doktorarbeit sind) inzwischen initiiert worden. Das hier in Zellkultur getestete Regelsystem wird als tetON-System charakterisiert, bei dem das Transgen, dessen Expression kontrolliert werden soll (jetzt das Gen für -Galktosidase, später ein mutiertes ventrikelspezifisches Myosingen), erst nach Zugabe des Induktors (Doxyzyklin, bei Mäusen im Trinkwasser) aktiviert wird. Damit unterscheidet sich dieses System von vielfach benutzten tetOFF-Systemen. Diese bestehen aus einem hybriden Protein, das aus zwei verschiedenen Struktur/Funktionsdomänen besteht: der tet-Bindungsdomäne des bakteriellen tet-Repressors und einem viralen ubiquitären Transkriptionsaktivator (das Hybridprotein hat die Bezeichnung tTA). Die zu regulierenden Zielgene enthalten die tetO- Sequenz. Bindung von tet an tTA führt zur Dissoziation des tTA/tetO-Komplexes und damit zur Deaktivierung des Zielgens. Entzug von tet erlaubt die Bindung von tTA an den Promotor des Zielgens und ermöglicht damit dessen Transkription. Dieses System, dessen Funktionalität an Modellversuchen nachgewiesen wurde, hat gleichwohl Nachteile. Diese sind erstens auf eine gewisse Toxizität des Transkriptionsaktivators tTA und zweitens auf negative Wirkungen in Verbindung mit der Dauerzufuhr von Tetrazyklin (zur Unterdrückung der Expression des Zielgens) zurückzuführen. Da ein in der Literatur auch beschriebenes tTA-basiertes tetON- System als nicht ausreichend berichtet wird, erscheint der Aufwand für die Herstellung eines einfachen (nicht-viralen) und ggf. genetisch modifizierten tetON-Systems für die Anwendung an Mäusen sinnvoll und notwendig.
Der Einfluss konventioneller und modifizierter hyperglykämischer Reperfusion mit und ohne Alprostadil auf die Ischämie- und Reperfusionsschäden des Skelettmuskels wurde an 24 Schweinen untersucht. Nach der Narkose wurden sechs Versuchstiere als in vivo Kontrollgruppe instrumentiert und für 7,5 Stunden ohne Ischämie beobachtet (Gruppe1, n = 6). Bei den anderen Versuchstieren wurde eine künstliche Ischämie der Hinterläufe durch Abklemmen der infrarenalen Aorta für sechs Stunden hervorgerufen. Im Anschluß daran folgte in Gruppe 2 (n = 8) eine konventionelle Reperfusion mit normalem Blut unter systemischem Druck. Gruppe 3 (n = 5) und Gruppe 4 (n = 5) erhielten in den ersten 30min der Reperfusionsphase eine modifizierte hyperglykämische Reperfusion im Verhältnis von einem Teil Reperfusat zu sechs Teilen Blut. Die Zusammensetzung des Reperfusats war: 500ml 10-prozentiger Glukoselösung, 200ml Citrat–Phosphat–Dextrose (CPD), 10ml Tromethamol (THAM), 125ml Aspartat und Glutamat in einer Konzentration von jeweils 13mmol/l und 180ml Kochsalzlösung (0.9%). Die Gruppe 4 erhielt zusätzlich zur modifizierten Reperfusion 20μg Alprostadil. Beide Gruppen wurden unter kontrollierten Bedingungen (intraaortaler Druck von 40mmHg, Blutfluß von 400–500ml pro min und einer konstanten Temperatur von 37°C) reperfundiert. Die sechsstündige komplette Ischämie führte zu einem hochsignifikanten Rückgang des Muskel pH–Wertes, der Muskeltemperatur und des Bewegungsgrads im Kniegelenk des Schweinehinterlaufs. Die energiereichen Phosphate nahmen um etwa 50%, verglichen mit den Ausgangswerten, ab, und in der systemischen Zirkulation zeigte sich ein beträchtlicher Anstieg der CK, der LDH und des Kaliums. Im Anschluss an die sechsstündige ischämische Periode führte die konventionelle Reperfusion unter systemischem Druck zu schweren Reperfusionsschäden. Als Zeichen der Zellschädigung zeigte sich im Verlauf der 90-minütigen Reperfusion eine erhebliche Zunahme des Wassergehalts im Skelettmuskel, der Muskelrigidität und der systemischen CK-, LDH- und Kaliumkonzentration. Der Blutfluß in der Extremität und in der A. Iliaca, der Sauerstoff- und Glukoseverbrauch nahmen signifikant ab, und die Konzentration der Gesamtadeninnukleotide sowie der Muskel-pH lagen am Ende der Reperfusionsphase auf dem postischämisch niedrigen Niveau. Im Gegensatz zur konventionellen Reperfusion konnte aufgezeigt werden, dass eine deutliche Verbesserung des Metabolismus und der Funktion der Beine erreicht werden kann, indem die Art der Reperfusion und die Zusammensetzung des Reperfusats in den initialen 30 Minuten der Reperfusionsphase modifiziert werden (Gruppe 3 und Gruppe 4). Die modifizierte hyperglykämische Reperfusion (Gruppe 3) vermochte den Sauerstoffverbrauch den Kontrollwerten anzugleichen und verhinderte die Ausbildung von Gewebsödemen. Desweiteren konnten hierdurch der Gehalt der Adeninnukleotide im Gewebe zu 93% den Ausgangswerten angeglichen und die CK-, LDH- und Kaliumfreisetzung signifikant erniedrigt werden. Der Bewegungsgrad im Kniegelenk des Schweinehinterlaufs als Maß für die Muskelrigidität und Funktionalität war im Vergleich zur konventionellen Reperfusion deutlich erhöht. Zudem resultierte die Bereitstellung des hyperglykämischen Reperfusats in einer hochsignifikanten Zunahme des Glukoseverbrauchs im Vergleich zur Kontrollgruppe und der konventionellen Reperfusion. Der Zusatz von Alprostadil (Gruppe 4) zeigte bezüglich der Ödem-entstehung, der CK-, LDH- und Kaliumfreisetzung und dem Glukose- und Sauerstoffverbrauch vergleichbare Ergebnisse mit Gruppe 3. Ausserdem zeigte sich ein signifikanter Anstieg des des intramuskulären pH–Werts und der Blutfluß in der Arteria iliaca war, verglichen mit Gruppe 3 und sogar mit Gruppe 1 (Kontrolle), signifikant erhöht. Auch der Bewegungsgrad als Maß für die Muskelrigidität lag höher als in Gruppe 3 und war vergleichbar den Ausgangswerten. Die Ergebnisse dieser Studie verdeutlichen noch einmal die Wichtigkeit der Entwicklung von Behandlungsstrategien speziell in der initialen Reperfusionsphase, um weiteren Schaden an dem ohnehin durch Ischämie geschädigten Gewebe zu vermeiden. Zukünftige Studien sollten Hinweise darauf geben, inwiefern weitere Modifikationen der initialen Reperfusion zur Erhaltung der Skelett-muskulatur und deren Funktion beitragen können.
In der vorliegenden Arbeit wurde der Einfluß der Variation des Oxidationspotentials und der Elektronenkonfiguration ( * gegen n *) auf die zur Löschung von angeregten Triplettzuständen durch O2 führenden Prozesse untersucht. Bei ausreichender Triplettenergie werden neben dem Grundzustand des ursprünglich angeregten Sensibilisators in Konkurrenz O2(1 g ) und O2(1 g) Singulettsauerstoff sowie O2(3 g -) Grundzustandssauerstoff gebildet. Frühere Untersuchungen in diesem Arbeitskreis hatten gezeigt, daß es für * Triplettzustände zwei Desaktivierungskanäle gibt, die beide zu O2(1 g ), O2(1 g) und O2(3 g -) führen. Der eine geht von den bei der Löschung zunächst gebildeten 1,3(T1 3 ) Encounter Komplexen ohne Charge Transfer Stabilisierung aus (nCT). Diese befinden sich in einem vollständig eingestellten spinstatistischen Gleichgewicht, aus dem durch innere Konversion in niedrigere Komplexzustände die Desaktivierung erfolgt. Ein gemeinsames Energielückengesetzt f( E) und damit letztlich die Triplettenergie des Sensibilisators bestimmt die Größe der Geschwindigkeitskonstanten der zu O2(1 g ), O2(1 g) und O2(3 g -) führenden Prozesse in diesem nCT Kanal. Für Sensibilisatoren mit hohem Oxidationspotential und vernachlässigbaren Charge Transfer Wechselwirkungen ist dies der einzige Desaktivierungsprozeß. Mit zunehmender Charge Transfer Wechselwirkung, also mit abnehmendem Oxidationspotential und/oder zunehmender Triplettenergie, wird ein zweiter Desaktivierungskanal geöffnet, der über 1,3(T1 3 ) Komplexe mit Charge Transfer Stabilisierung (pCT) also über Exciplexe führt. Die Exciplexbildung ist der geschwindigkeitsbestimmende Schritt im pCT Kanal. Zur Verbreitung der Datenbasis den T1( *) Sensibilisatoren wurde in dieser Arbeit eine Reihe von mit elektronenziehenden bzw. elektronenschiebenden Gruppen substituierten Fluorenen studiert, bei denen im wesentlichen nur das Oxidationspotential variiert, während die Triplettenergien weitgehend konstant bleiben. Die mit den Fluorenen erhaltener Ergebnisse bestätigen das bisher erarbeitet Zweikanal-Desaktivierungsmodell. Insbesondere wird auch das spinstatistische Gewicht von 1:3 für die Bildung von Singulett zu Triplettsauerstoff im Exciplex Kanal gefunden, das nur mit einem relativ langsamen 1(T1 3 ) 3(T1 3 ) isc Gleichgewicht konsistent ist. Dieses Ergebnis widerspricht der früheren Annahme, wonach ein effizientes isc Gleichgewicht nur zwischen 1,3(T1 3 ) Exciplexen, nicht aber zwischen 1,3(T1 3 ) Encounter Komplexen existieren soll. In der vorliegenden Arbeit wird ein Modell für die 1(T1 3 ) 3(T1 3 ) angeregten Komplexe vorgeschlagen, das in einfacher Weise erklärt, warum das isc zwischen Encounter Komplexen von Sensibilisator und O2 schneller ist, als das zwischen den entsprechenden Exciplexen. Die weitere Analyse der Fluoren Daten zeigt, daß neben dem Oxidationspotential und der Triplettenergie des Sensibilisators auch dessen Struktur die Geschwindigkeitskonstanten beeinflussen kann, allerdings weitaus schwächer als die beiden ersten Einflußgrößen. Mit den Messungen der Geschwindigkeitskonstanten kT 1 , kT 1 und für kT 3 der zu O2(1 g ), O2(1 g) und O2(3 g -) führenden Prozesse für die unterschiedlich substituierten Benzophenonderivate wurde erstmals eine quantitative Untersuchung der Löschung von n * angeregten Triplettzuständen durch O2 durchgeführt. Obwohl für die Benzophenone eine stärkere Variation des Oxidationspotentials bei nahezu konstanter Triplettenergie erreicht werden konnte, wurde im Vergleich zu den * Triplettsensibilisatoren eine wesentlich schwächere Variation von kT 1 , kT 1 und für kT 3 beobachtet. Gleichzeitig liegen die Werte von kT 1 , kT 1 und für kT 3 der Benzophenone mit vernachlässigbarer Charge Transfer Wechselwirkung weit von der für * Triplettsensibilisatoren gefundenen Energielückenbeziehung f( E). Offenbar gilt für n * Triplettsensibilisatoren eine andere Energielückenbeziehung f( E), die viel schwächer von E abhängt. Es konnte gezeigt werden, daß die schwächere Überschußenergieabhängigkeit mit der unterschiedlichen Struktur der 1,3(T1.3 ) Komplexe zusammenhängt. Für 1,3(T1(n *) 3 ) ist eine Vierzentren Struktur, bei der die beiden Sauerstoffatome des O2 Moleküls parallel und benachbart zu den beiden Atomen der angeregten Carbonyl Gruppe liegen, sehr wahrscheinlich. Bei der Desaktivierung der Carbonyleinheit ändern sich die Bindungslängen der Vierzentrenstruktur stark, was einem Übergang zwischen versetzten Potentialkurven mit schwacher Energieabhängigkeit der Franck-Condon Faktoren entspricht. Für 1,3(T1( *) 3 ) Komplexe ist eine supra-supra Struktur anzunehmen, bei der die beiden Sauerstoffatome des O2 Moleküls mit gegenüberliegenden Kohlenstoffatomen eines angeregten aromatischen Rings wechselwirken. Bei der Desaktivierung des aromatischen Rings ändern sich die Bindungslängen nur wenig, so daß man von einem Übergang zwischen übereinander liegenden Potentialkurven mit stärkerer Energieabhängigkeit der Franck-Condon Faktoren sprechen kann. Dies ist der eigentliche Grund für die verschiedenen Energielückenbeziehungen f( E) und f( E) bei der Löschung von * und n * Triplettsensibilsatoren durch O2. Die Variation des Oxidationspotentials und damit der Stärke der Charge Transfer Wechselwirkungen in den 1,3(T1 3 ) Komplexen wird durch unterschiedliche Substitution von aromatischen Ringen mit elektronenziehenden oder elektronenschiebenden Gruppen bewirkt. Da die aromatischen Ringe bei den n * Triplettsensibilisatoren im Gegensatz zu den * Triplettsensibilisatoren nicht Bestandteil des elektronisch angeregten Zentrum sind, fallen die Charge Transfer Effekte bei den n * Triplettsensibilisatoren deutlich schwächer aus als bei den * Triplettsensibilisatoren. Damit konnte in der vorliegende Arbeit erstmals eine konsistente Begründung für das unterschiedliche Verhalten von n * und * Triplettsensibilisatoren bei der Löschung durch O2 gegeben werden.