Refine
Year of publication
- 2004 (1779) (remove)
Document Type
- Article (669)
- Doctoral Thesis (281)
- Part of a Book (153)
- Part of Periodical (143)
- Working Paper (114)
- Review (111)
- Conference Proceeding (76)
- Book (60)
- Preprint (55)
- Report (47)
Language
- German (1224)
- English (508)
- French (17)
- Portuguese (9)
- Multiple languages (6)
- Spanish (6)
- mis (4)
- Italian (2)
- Turkish (2)
Keywords
- Johann Wolfgang von Goethe (38)
- Deutsch (34)
- Frankfurt <Main> / Universität (29)
- Deutschland (27)
- Syntax (27)
- Rezension (24)
- Generative Transformationsgrammatik (23)
- Wortstellung (21)
- Anton Ulrich <Braunschweig-Wolfenbüttel (19)
- Herzog> / Octavia (19)
Institute
- Medizin (152)
- Physik (107)
- Extern (91)
- Biochemie und Chemie (69)
- Wirtschaftswissenschaften (57)
- Rechtswissenschaft (51)
- Biowissenschaften (38)
- Erziehungswissenschaften (31)
- Universitätsbibliothek (31)
- Center for Financial Studies (CFS) (30)
Die antivirale Funktion der RNA-abhängigen Adenosin-Desaminase bei der angeborenen Immunantwort
(2004)
Die angeborene Immunantwort von Säugetieren ist die erste wirkungsvolle Barriere gegen eindringende Pathogene, die sowohl Infektionen als auch die Entstehung von Neoplasien verhindern kann. Insbesondere wird durch sie die Ausbreitung und Replikation von Viren wirksam bekämpft. Bei RNA-Viren wird die angeborene Immunabwehr in infizierten Zellen von der doppelsträngigen RNA aktiviert, die während der Replikation oder Transkription dieser Viren entsteht. Es kommt zur Sezernierung von Interferon-alpha und -beta (IFN-alpha/beta), die wiederum die Expression einer Reihe von antiviralen Proteinen stimulieren. Eines dieser Proteine ist die IFN-alpha-induzierbare RNA-abhängige Adenosin Desaminase (iADAR-1). Ziel dieser Arbeit war es, die Rolle der iADAR-1 in der Immunabwehr näher zu charakterisieren. Bisher wurde die antivirale Aktivität der iADAR-1 gegen verschiedene Virusstämme, deren Genome Adenosin zu Guanosin (A->G) Hypermutationen aufweisen, nur angenommen, jedoch noch nicht direkt gezeigt [4]. In dieser Arbeit wurde am Beispiel des Glykoproteins (GP) des lymphozytären Choriomeningitis Virus (LCMV) untersucht, ob solche A->G Mutationen im viralen Genom tatsächlich durch die iADAR-1 verursacht werden und ob dadurch die Funktion der viralen Proteine und damit die Infektiösität von LCMV reduziert wird. Des Weiteren wurde die Induktion der iADAR-1 durch die Infektion mit LCMV und die Wirkung der iADAR-1 auf die Replikation von LCMV analysiert. Bekannt war nur, dass die iADAR-1 durch IFN-alpha selbst oder durch die Infektion von Makrophagen mit Adenoviren induziert wird. In dieser Arbeit wurde erstmals für Fibroblasten, neuronale Zellen und in vivo in Mäusen nachgewiesen, dass die iADAR-1 direkt durch die Infektion mit LCMV hochreguliert wird. Dies ist ein weiterer Hinweis, dass die iADAR-1 zu den antiviralen Effektormolekülen der angeborenen Immunabwehr zählt. LCMV induzierte die Expression der iADAR-1 sowohl auf mRNA- als auch auf Proteinebene. Im Gegensatz zu Vaccinia- und Adenoviren, die die Aktivität der iADAR-1 inhibieren [5, 6], konnte bei der Infektion von SH-SY5Y-Zellen mit LCMV keine reduzierte Aktivität der iADAR-1 festgestellt werden. Ferner konnte das schon in anderen Viren beobachtete A->G Hypermutationsmuster nun auch für LCMV bestätigt werden. Sowohl in vitro in L929-Zellen als auch in vivo in Mäusen wurde eine erhöhte A->G Mutationsfrequenz gefunden, die zwischen 50 und 75 % aller Mutationen in der S-RNA von LCMV ausmacht. Dies zeigte sich vor allem in der späten Phase der Infektion, also zu Beginn der Persistenz. Insgesamt wurden zu diesem Zeitpunkt in L929-Zellen 27 % und in der Maus 15 % nicht funktionelles LCMV-GP synthetisiert. Zudem wurde die Relevanz der A->G Hypermutationen für die beeinträchtigte Funktion des GPs deutlich, da sie 62 % der nicht infektiösen GP-Moleküle verursachen. Die desaminierende Wirkung der iADAR-1 auf das virale Genom von LCMV wurde in 293T-Zellen direkt gezeigt. A->G Mutationen in der S-RNA von LCMV nahmen durch die Überexpression der iADAR-1 in 293T-Zellen um 40 % zu. Ebenso wurde die Replikation bzw. das Assembly von Virionen durch die iADAR-1 reduziert, da im Vergleich zu Kontrollzellen der LCMV-Titer im Überstand von iADAR-1-überexprimierenden Zellen wesentlich niedriger war. Des Weiteren konnte bestätigt werden, dass die A->G Mutationen nicht durch die virale Polymerase induziert werden. Hierfür wurden iADAR-1 „knockout“ murine embryonale Fibroblasten (MEF) isoliert und als stabile Zelllinie etabliert. In diesen Zellen war kein A->G Hypermutationsmuster in der LCMV-RNA zu erkennen. In MEF wt war ebenfalls kein A->G Hypermutationsmuster nachweisbar. Der Grund hierfür könnte die im Vergleich zu L929-Zellen deutlich geringere basale iADAR-1-Expression der nicht völlig ausdifferenzierten MEFs sein.
Das Bankgeheimnis stellt weder ein absolutes Verbot der Weitergabe kundenbezogener Informationen noch ein Verbot der Abtretung von Forderungen gegen Kunden dar. Die aus dem Bankgeheimnis folgende Pflicht zur vertraulichen Behandlung von Informationen über Kunden wird ihrerseits durch immanente Grenzen beschränkt, soweit es die Ausübung von Gläubigerrechten der Bank in Frage steht. Eine Veräußerung und Abtretung von Forderungen und die dafür notwendige Weitergabe der Kundendaten wird daher durch das Bankgeheimnis nicht ausgeschlossen. Das Bankgeheimnis verpflichtet die Bank allerdings dazu, bei der Ausübung ihrer Gläubigerrechte die Vertraulichkeit der Informationen über die Geschäftsbeziehung so weit wie nur möglich zu wahren. Weitergehende Schranken zieht auch das Datenschutzrecht der Verwaltung und Verwertung von Forderungen durch die Bank nicht.
This Article concerns the duty of care in American corporate law. To fully understand that duty, it is necessary to distinguish between roles, functions, standards of conduct, and standards of review. A role consists of an organized and socially recognized pattern of activity in which individuals regularly engage. In organizations, roles take the form of positions, such as the position of the director. A function consists of an activity that an actor is expected to engage in by virtue of his role or position. A standard of conduct states the way in which an actor should play a role, act in his position, or conduct his functions. A standard of review states the test that a court should apply when it reviews an actor’s conduct to determine whether to impose liability, grant injunctive relief, or determine the validity of his actions. In many or most areas of law, standards of conduct and standards of review tend to be conflated. For example, the standard of conduct that governs automobile drivers is that they should drive carefully, and the standard of review in a liability claim against a driver is whether he drove carefully. Similarly, the standard of conduct that governs an agent who engages in a transaction with his principal is that the agent must deal fairly, and the standard of review in a claim by the principal against an agent, based on such a transaction, is whether the agent dealt fairly. The conflation of standards of conduct and standards of review is so common that it is easy to overlook the fact that whether the two kinds of standards are or should be identical in any given area is a matter of prudential judgment. In a corporate world in which information was perfect, the risk of liability for assuming a given corporate role was always commensurate with the incentives for assuming the role, and institutional considerations never required deference to a corporate organ, the standards of conduct and review in corporate law might be identical. In the real world, however, these conditions seldom hold, and in American corporate law the standards of review pervasively diverge from the standards of conduct. Traditionally, the two major areas of American corporate law that involved standards of conduct and review have been the duty of care and the duty of loyalty. The duty of loyalty concerns the standards of conduct and review applicable to a director or officer who takes action, or fails to act, in a matter that does involve his own self-interest. The duty of care concerns the standards of conduct and review applicable to a director or officer who takes action, or fails to act, in a matter that does not involve his own self-interest.
Anmerkungen zum Urteil des BGH vom 24. November 2003, II ZR 171/01 : Das Urteil des BGH vom 24. 11. 2003 verschärft das Recht der Kapitalerhaltung empfindlich. Der Leitsatz, Kreditgewährungen an Gesellschafter, die nicht aus Rücklagen oder Gewinnvorträgen, sondern zu Lasten des gebundenen Vermögens der GmbH erfolgen, sind auch dann grundsätzlich als verbotene Auszahlung von Gesellschaftsvermögen zu bewerten, wenn der Rückzahlungsanspruch gegen den Gesellschafter im Einzelfall vollwertig sein sollte und die zugehörigen Urteilsgründe lassen erhebliche Auswirkungen nicht nur auf das Finanzierungsgebaren kleiner Gesellschaften, um die es in dem vom BGH entschiedenen Fall ging, sondern auch auf die Möglichkeiten der Innenfinanzierung großer Konzerne befürchten.
When performance measures are used for evaluation purposes, agents have some incentives to learn how their actions affect these measures. We show that the use of imperfect performance measures can cause an agent to devote too many resources (too much effort) to acquiring information. Doing so can be costly to the principal because the agent can use information to game the performance measure to the detriment of the principal. We analyze the impact of endogenous information acquisition on the optimal incentive strength and the quality of the performance measure used.
Es wurde eine Meßstation zum Vermessen von THz-Photomischern vorgestellt und aufgebaut. Weiterhin konnte gezeigt werden, wie diese Station es ermöglicht, das Vermessen von THz-Photomischern, im Vergleich zum bisher verwendeten Meßaufbau, deutlich zu vereinfachen und zu beschleunigen. Mit dieser Station wurden zwei Proben, die sich in der Dicke der LT-GaAs-Schicht unterscheiden, vermessen. Um die gemessenen Daten analysieren zu können wurden zuvor beschrieben, wie eine Modulation des Photostroms in Photomischern erhalten und damit THz-Strahlung erzeugt werden kann. Gemessen wurde die THz-Leistung in Abhängigkeit von Frequenz , Vorspannung und Leistung der optischen Beleuchtung. Diese Messungen haben zu Ergebnissen geführt, die nur zum Teil mit den theoretisch vorhergesagten Ergebnissen übereinstimmen. So wurde festgestellt, daß nur etwa 1 bis 2 % der theoretisch erwarteten THz-Leistung detektiert wurde. Dies kann an langlebigen Ladungsträgern liegen, die im Substrat erzeugt werden. Diese Ladungsträger unterhalb der LT-GaAs-Schicht führen zu einer erhöhten Leitfähigkeit und können dadurch Reflexion und Absorption von THz-Strahlung verursachen. Diese Vermutung wird unterstützt durch die Beobachtung einer starken Reduktion des Signals in einem gepulsten THz-System, wenn eine konstante Hintergrundbeleuchtung eingeschaltet wird.[45] Weiterhin ist nicht auszuschließen, daß die für die THz-Erzeugung relevante Lebenszeit der Ladungsträger deutlich größer ist, als die mit Anrege-Abfrage-Messungen bestimmte. Analog könnte auch eine deutlich höhere Kapazität des Photomischers als die theoretisch berechnete diese Beobachtung erklären. Ob langlebige Ladungsträger im Substrat für die geringe gemessen Leistung verantwortlich sind kann überprüft werden, indem zwischen Substrat und LT-GaAs-Schicht einen Bragg-Refelektor gewachsen wird. So kann verhindert werden, daß eingestrahlte Leistung das Substrat erreicht. Dadurch können keine Ladungsträger im Substrat angeregt werden. Zusätzlich hat dies den Effekt, daß ein größerer Anteil der eingestrahlten Strahlung absorbiert werden kann, weil die einfallende Strahlung wegen der Reflexion zweimal durch die LT-GaAs-Schicht läuft. Ein solcher Mischer wurde bereits von E. R. Brown vorgeschlagen.[46] Bei den Messungen der THz-Leistung gegen Vorspannung konnte beobachtet werden, daß der Photostrom eine andere Abhängigkeit von der Vorspannung zeigt, als theoretisch vorhergesagt wurde. Erwartet wurde ein linearer Zusammenhang. Bei höheren Vorspannungen wurde aber ein stärkerer Anstieg beobachtet. Dies kann z.B. an einem zusätzlichen nichtlinearen Strom durch das Substrat oder an einer vom elektrischen Feld abhängigen Lebenszeit der Ladungsträger liegen. Für beide Erklärungsansätze wurden vereinfachte Modelle vorgestellt. Beide Modelle treffen dabei unterschiedliche Vorhersagen über die Änderung der Effizienz beim Auftreten des höheren Stromes. Deutlich werden die Unterschiede in den Vorhersagen im Frequenzverlauf. So führt ein zusätzlicher Strom durch das Substrat zu einer Verringerung der Effizienz um einen von der Frequenz unabhängigen konstanten Faktor. Der Frequenzverlauf verschiebt sich also zu geringeren Effizienzen. Eine Erhöhung der Lebenszeit hingegen führt zu einem geänderten Frequenzverlauf. So ist die Änderung der Effiienz bei niedirgen Frequenzen gering, zu höheren Frequenzen hin ändert sich die Effizienz jedoch immer stärker. Die Vorhersagen beider Modelle wurden mit dem gemessenen Daten verglichen. Bei den gegebenen Parametern war der Unterschied zwischen den beiden Modellen jedoch zu gering und die Fluktuation in den Meßdaten zu hoch, um entscheiden zu können, welches der beiden Modelle die gemessenen Daten besser beschreibt. Um erkennen zu können, welches der Modelle den Effekt beschreibt, der zu einem höheren Strom führt, müßte der Effekt in den Meßdaten erhöht werden. Dies kann geschehen, indem zusätzlich bei höheren Spannungen gemessen wird. Es müßte dabei allerdings die optische Leistung reduziert werden, um ein Zerstören der Mischer zu vermeiden. In dieser Arbeit konnte somit gezeigt werden, daß die aufgebaute Meßstation ein vereinfachtes Messen von THz-Photomischern ermöglicht. Weiterhin konnte das Verhalten von zwei vermessenen Mischern gezeigt und analysiert werden, sowie weitere Messungen vorgeschlagen werden, die eine exaktere Analyse der Photomischer ermöglichen sollten.
The volume is a collection of papers given at the conference “sub8 -- Sinn und Bedeutung”, the eighth annual conference of the Gesellschaft für Semantik, held at the Johann-Wolfgang-Goethe-Universität, Frankfurt (Germany) in September 2003. During this conference, experts presented and discussed various aspects of semantics. The very different topics included in this book provide insight into fields of ongoing Semantics research.
Die Wirkung der 3-Hydroxy-3-Methylglutaryl-CoA-Reduktasehemmer ist auf die Blockierung der Isoprenoid-Bildung in der Cholesterin-de-novo-Synthese zurückzuführen. Unter Statin-Behandlung von glatten Gefäßmuskelzellen kommt es im Zytoplasma zur Akkumulation der inaktiven GTPase Rac, die für ihre Aktivierung Geranylgeranylpyrophosphat zur Verankerung in die Plasmamembran benötigt. Nach Stimulation von Agonisten wie Angiotensin II und Thrombin hemmen Statine die Rac-abhängige NADPH-Oxidase, die eine wichtige Quelle der vaskulären Sauerstoffradikalproduktion (ROS) ist. Die Senkung der ROS-Bildung hat die Blockierung der Phosphorylierung von ERK 1/2 und p38 MAP-Kinase und der Expression redox-sensitiver Gene zur Folge. In der vorliegenden Arbeit werden Untersuchungen an kultivierten glatten Muskelzellen zusammengefasst, die zeigen sollen, dass der Statin-Entzug in der Expression pro-inflammatorischer Gene resultiert, die eine bedeutende Rolle bei der Entwicklung und Progression der Arteriosklerose spielen. Es wurde nachgewiesen, dass der Entzug von Cerivastatin in vorbehandelten glatten Gefäßmuskelzellen zur Induktion von MCP-1 und Tissue Faktor (TF) mRNA führt. Die Steigerung der Expression von MCP-1 hat schließlich eine relevante MCP-1 Freisetzung zur Folge. Im Falle von TF ist die Expression so ausgeprägt, dass es auch zu einer Erhöhung der Aktivität von TF an der Zellmembran kommt. Durch Zusatz von Geranylgeranylpyrophosphat und Mevalonsäure kann die Wirkung der HMG-CoA-Reduktasehemmer wieder aufgehoben werden. Unter dem Einfluss der Hemmstoffe PD98059, SB203580 und Diphenyleniodonium (DPI) wird die durch Abbruch der Statin-Behandlung bedingte Expression des proarteriosklerotischen Faktors unterdrückt. Diese Beobachtung lässt die Beteiligung von ERK 1/2, p38 MAP-Kinase und NADPH-Oxidase an der Signaltransduktion zu. Der Entzug von Statinen führt zu einer Steigerung der Phosphorylierung der MAP-Kinasen und zu einer Verstärkung der ROS-Bildung. Da die Produktion von Sauerstoffradikalen vermutlich als Folge der Aktivierung der Rac-abhängigen NADPH-Oxidase ist, wurde der Effekt des Entzuges auf die Rac-Translokation in der Zelle untersucht. Es zeigte sich, dass die Unterbrechung der Behandlung mit HMG-CoA-Reduktasehemmer mit einer überschiessenden Translokation der GTPase vom Zytoplasma an die Plasmamembran verbunden ist. Aus den erhobenen Befunden kann somit gefolgert werden, dass der Entzug von Statinen in einer Aktivierung von Rac und konsekutiver ROS-Bildung resultiert. Durch die Aktivierung der nachfolgenden Signaltransduktionskaskaden kommt es zu einer Induktion von MCP-1 und Tissue Faktor.
Ziel der Nachuntersuchung war es, 10 Jahres Ergebnisse nach arthroskopischer vorderer Kreuzbandplastik mittels Patellarsehne zu erhalten. Dafür wurden 74 Patienten, 55 Männer und 19 Frauen mit einem durchschnittlichen Alter von 38 Jahren im Mittel 113 Monaten nach arthroskopischer vorderer Kreuzbandplastik mit Interferenzschraubenfixation nachuntersucht. Evaluiert wurden die IKDC Evaluation, die Tegner - Aktivitätsskala und der Lysholm - Score. Die Bandstabilität wurde instrumentell mit dem Rolimeter getestet. Die statistische Auswertung erfolgte mittels c² Test. Die Tegner - Aktivitätsskala ergab ein durchschnittliches Aktivitätsniveau von 5,2. Vor der Verletzung lag der Wert bei 6,4. Der Lysholm - Score erreichte 93,6 von 100 Punkten. Hinsichtlich der Funktion wurden 74% und hinsichtlich der Stabilität 72% der Patienten in der IKDC Evaluation als normal bzw. als fast normal bewertet. Der mit dem Rolimeter bestimmte Lachman Test war in 88% normal und in 12% fast normal. Der pivot-shift Test war in 95% der Fälle negativ. 30% der Patienten zeigten in den Röntgenaufnahmen zum Nachuntersuchungszeitpunkt deutlich degenerative Veränderungen. Es ergibt sich eine signifikante Korrelation zwischen der Zeitdauer vom Unfall bis zur operativen Versorgung und dem Arthrosegrad. Die Beschwerden an der Transplantatentnahmestelle korrelieren signifikant mit den allgemeinen Symptomen. Das Ausmaß der Arthrose korreliert signifikant mit der Mensikusschädigung. Zur Vermeidung der Folgearthrose sollte daher bei gegebener Indikation eine frühzeitige Kreuzbandversorgung und im Falle der Begleitmeniskusverletzung dessen Erhalt mittels Refixation angestrebt werden.
In dieser Arbeit werden Untersuchungen über die Anwendbarkeit von vier Methoden zur selektiven Einführung von Radikalen in DNA vorgestellt. Hierzu wurde die EPR-Spektroskopie (Elektronen-paramagnetische Resonanz) benutzt. Die selektive Einführung und Erzeugung von Radikalen in DNA ist nötig, um J-Kopplungen in DNA zu untersuchen. Vor dem Fernziel der Bestimmung der Austauschkopplungskonstanten J in biradikalischer DNA und deren Korrelation mit der charge-transfer-Geschwindigkeitskonstanten kCT stellen diese Untersuchungen einen wichtigen Ausgangspunkt dar. Stabile aromatische Nitroxide. Simulationen von Raumtemperatur-CW-X-Band-EPRSpektren fünf verschiedener aromatischer Nitroxide, welche potentielle DNA-Interkalatoren sind, wurden durchgeführt. Die aromatischen Nitroxide zeigen aufgelöste Hyperfeinkopplungen, welche zu dem Schluss führen, dass die Spindichte in hohem Maße delokalisiert ist, was die Verwendung dieser Verbindungen zur Messung von J-Kopplungen in biradikalischer DNA erlaubt. Transiente Guanin-Radikale. Transiente Guanin-Radikale werden in DNA selektiv durch die Flash-Quench-Technik erzeugt, bei der optisch anregbare Ruthenium-Interkalatoren verwendet werden. Transiente Thymyl-Radikale aus UV-bestrahltem 4'-Pivaloyl-Thymidin. Es werden photoinduzierte Prozesse untersucht, welche durch Bestrahlung von Thymin-Nukleosiden, die an der 4’-Position die optisch spaltbare Pivaloyl-Gruppe tragen, erzeugt werden. Dieses Nukleosid wurde speziell dafür entworfen, um Elektronenlöcher in DNA zu injizieren. In dieser Arbeit wird gezeigt, dass diese Verbindung benutzt werden kann, um selektiv eine Thymin-Base zu reduzieren. Transiente Thymyl-Radikale erzeugt durch ein neuartig modifiziertes Thymin nach UV-Bestrahlung. Photoinduzierte Prozesse, welche durch Bestrahlung eines ähnlichen Thymidin-Nukleosids erzeugt wurden, werden hier untersucht. Dieses Thymidin- Nukleosid wurde modifiziert, indem die optisch spaltbare Pivaloyl-Gruppe an eine Seitenkette angehängt wurde, welche an der C6-Position der Thymin-Base sitzt. Die Thymin-Base wurde speziell dafür entworfen, um Elektronen in DNA zu injizieren. In dieser Arbeit wurde bestätigt, dass ein Überschuss-Elektron selektiv auf eine Thymin-Base transferiert werden kann.
Die in Englisch verfasste Dissertation, die unter der Betreuung von Herrn Prof. Dr. H. F. de Groote, Fachbereich Mathematik, entstand, ist der Mathematischen Physik zuzuordnen. Sie behandelt Stonesche Spektren von Neumannscher Algebren, observable Funktionen sowie einige Anwendungen in der Physik. Das abschließende Kapitel liefert eine Verallgemeinerung des Kochen-Specker-Theorems. Stonesche Spektren und observable Funktionen wurden von de Groote eingeführt. Das Stonesche Spektrum einer von Neumann-Algebra ist eine Verallgemeinerung des Gelfand-Spektrums, die observablen Funktionen verallgemeinern die Gelfand-Transformierten. Da de Grootes Ergebnisse zum großen Teil unveröffentlicht sind, folgt nach dem Einleitungskapitel im zweiten Kapitel eine Übersichtsdarstellung dieser Ergebnisse. Das dritte Kapitel behandelt die Stoneschen Spektren endlicher von Neumann-Algebren. Für Algebren vom Typ In wird eine vollständige Charakterisierung des Stoneschen Spektrums entwickelt. Zu Typ-II1-Algebren werden einige Resultate vorgestellt. Das vierte Kapitel liefert. einige einfache Anwendungen des Formalismus auf die Physik. Das fünfte Kapitel gibt erstmals einen funktionalanalytischen Beweis des Kochen-Specker-Theorems und liefert die Verallgemeinerung dieses Satzes, wobei die Situation für alle von Neumann-Algebren geklärt wird.
Im Rahmen der Arbeit wurde eine Methodik zur umfassenden und automatischen Identifizierung von nativen Peptiden aus Extrakten komplexer biologischer Quellen entwickelt und am Beispiel des humanen Hämofiltrats angewendet. Die Firma BioVisioN führt seit der Gründung Forschung auf dem Gebiet der Peptide und kleinen Proteine mit dem Ziel, diagnostisch und therapeutisch relevante Substanzen zu finden, durch. Die Analyse sogenannter Peptidome, der qualitativen und quantitativen Beschreibung aller nativen Peptide und kleinen Proteinen bis ca. 15 kDa, ist als Analogon zur Proteom-Analytik zu verstehen, welche sich umfassend mit Proteinen beschäftigt. Quantitativ wird ein Peptidom über die Kombination chromatographischer Trennung und Fraktionierung mit der massenspektrometrischen „Inventarisierung“ der einzelnen Peptidspezies sowie den relativen Konzentrationen in der Probe erfasst, welches an anderer Stelle ausführlich beschrieben ist. Das Ergebnis einer solchen Peptidomanalyse besteht aus einer Peptidkarte, die die Peptide der Probe repräsentativ abbildet. Die Qualität eines Peptidoms wird über die Massen der Peptide, deren Aminosäuresequenzen und Elutionsverhalten und weitere biologische Informationen beschrieben. Zu diesen Zweck wird der Begriff des Peptide-Inventory eingeführt. Ein Inventory besteht aus allen verfügbaren Informationen nativer Peptide einer Quelle. Zu Beginn der Arbeit standen mit der reproduzierbaren Erstellung von Peptidbanken und deren systematischer Kartierung über MALDI-MS bereits zwei Werkzeuge zur Verfügung, um Daten eines Inventories zu erheben. Lediglich für die Erzeugung der Sequenzdaten wurde mit dem Edman-Abbau zwar eine etablierte, aber viel zu langsame und wenig sensitive Methode eingesetzt. Hier wurde der Ersatz durch eine schnelle und leicht zu automatisierenden Methode angestrebt. Die massenspektrometrische Sequenzierung über MS/MS mit anschließender Datenbanksuche ist ein aus der Proteom-Analytik durchaus bekanntes Verfahren, musste aber für die Analyse der nativen Peptide in einigen Bereichen modifiziert werden. Obwohl die Massenspektrometrie Peptide direkt aus komplexen Mischungen heraus identifizieren kann, stellte sich schnell heraus, dass die vorliegende biologische Beispielprobe (humanes Blutfiltrat) zu komplex war, um sie direkt für die geplante Sequenzierung einzusetzen. Es wurde eine erneute Auftrennung und Feinkartierung der Peptidbank notwendig. Jede dritte Fraktion wurde rechromatographiert und anschließend wiederum kartiert. Die entstandenen 97 Peptidkarten enthalten im Linear Modus ca. 100.000 Signale und im Reflektron Modus ca. 30.000 Signale, so dass nach der Feinkartierung > 10.000 native, im menschlichen Körper zirkulierende Peptide durch diese Methode dargestellt werden können. Zur Automatisierung der Kartierungsmessungen mit MALDI-MS wurde im Laufe dieser Arbeit ein Autosampler für ein MALDI-TOF-MS-System entwickelt und implementiert (DiskJockey). Das System hat eine Kapazität von 20 MALDI-Targets und ist vollständig über die Gerätesoftware steuerbar, so dass MALDI-MS-Messungen vollständig automatisiert über mehrere Tage ablaufen können. Zur Erzeugung der Sequenzdaten wurde eine Kombination aus elektrischer Ionenfalle und Datenbanksuche angewendet. Um zu gewährleisten, dass nur die zuvor kartierten Peptide einer MS/MS-Messung unterzogen werden, wurde das Softwaretool Alcatrap entwickelt. Diese Software übernimmt aus MALDI-MS-Messungen die Werte der monoisotopischen Peaks, überführt sie in mehrfach geladene Spezies und erstellt sowohl eine Methode für das MS-Gerät, als auch eine in die Gerätesoftware importierbare Arbeitsliste. Hierbei wird jeweils die Kollisionsenergie in Abhängigkeit der m/z-Wertes dynamisch gesetzt. Um den Datentransfer vom Fragmentspektrum zur Datenbanksuchmaschine zu gewährleisten, wurde mit „D2M“ eine weitere Softwareschnittstelle entwickelt. Die Erstellung des Inventories aus humanem Hämofiltrat liefert 1.225 verschiedene native, im menschlichen Blut zirkulierende Peptide aus 146 Proteinvorläufern. Darunter befinden sich mehrere Peptide, die neben ihrer physiologischen Bedeutung auch eine potenzielle medizinische Relevanz besitzen. Weiterhin ist auch der dynamische Bereich von acht Größenordnungen, in dem Sequenzen erzeugt wurden, vergleichbar mit dem des menschlichen Blutes. Eine Charakterisierung von Peptidomen ist in diesem Umfang bisher noch nicht durchgeführt worden und stellt eine Neuerung in der Proteomforschung dar. Die Studie ist durchaus vergleichbar mit kürzlich veröffentlichten umfangreichen Proteomstudien aus menschlichem Plasma und Serum und stellt eine Ergänzung dieser für den Bereich der Peptide und kleinen Proteine dar. Limitierungen bei der Identifizierung von Peptiden mit der Ionenfalle wurden analysiert und mit der Adaptierung des Peptide-Inventory Konzepts auf hochauflösende Quadrupol-Time-of-Flight Massenspektrometer zufriedenstellend gelöst. In diesem Rahmen wurde eine Methode entwickelt, die es ermöglicht, native Peptide bis zu einem Molekulargewicht von bis zu 8.500 Da direkt aus der komplexen Mischung zu fragmentieren und über eine Datenbanksuche zu identifizieren. Außerdem konnte exemplarisch gezeigt werden, dass durch die größere Massengenauigkeit und das größere Auflösungsvermögen des QTOF die Datenbanksuche wesentlich effektiver ist und durch die Kombination von Rechromatographie und QTOF-MS/MS nahezu jedes Signal einer Peptidbank der Identifizierung zugänlich gemacht werden kann. Sowohl die integrierte Methodik der Herstellung eines Peptide-Inventories, als auch die in dieser Arbeit erzielten Ergebnisse von nativen Peptiden in humanem Blut stellen wissenschaftliche Neuerungen dar, auf denen eine weitergehende Peptidom-Analytik aufsetzen kann.
Die Ermittlung von Proteinstukturen mittels NMR-Spektroskopie ist ein komplexer Prozess, wobei die Resonanzfrequenzen und die Signalintensitäten den Atomen des Proteins zugeordnet werden. Zur Bestimmung der räumlichen Proteinstruktur sind folgende Schritte erforderlich: die Präparation der Probe und 15N/13C Isotopenanreicherung, Durchführung der NMR Experimente, Prozessierung der Spektren, Bestimmung der Signalresonanzen ('Peak-picking'), Zuordnung der chemischen Verschiebungen, Zuordnung der NOESY-Spektren und das Sammeln von konformationellen Strukturparametern, Strukturrechnung und Strukturverfeinerung. Aktuelle Methoden zur automatischen Strukturrechnung nutzen eine Reihe von Computeralgorithmen, welche Zuordnungen der NOESY-Spektren und die Strukturrechnung durch einen iterativen Prozess verbinden. Obwohl neue Arten von Strukturparametern wie dipolare Kopplungen, Orientierungsinformationen aus kreuzkorrelierten Relaxationsraten oder Strukturinformationen, die sich in Gegenwart paramagnetischer Zentren in Proteinen ergeben, wichtige Neuerungen für die Proteinstrukturrechnung darstellen, sind die Abstandsinformationen aus NOESY-Spektren weiterhin die wichtigste Basis für die NMR-Strukturbestimmung. Der hohe zeitliche Aufwand des 'peak-picking' in NOESY-Spektren ist hauptsächlich bedingt durch spektrale Überlagerung, Rauschsignale und Artefakte in NOESY-Spektren. Daher werden für das effizientere automatische 'Peak-picking' zuverlässige Filter benötigt, um die relevanten Signale auszuwählen. In der vorliegenden Arbeit wird ein neuer Algorithmus für die automatische Proteinstrukturrechnung beschrieben, der automatisches 'Peak-picking' von NOESY-Spektren beinhaltet, die mit Hilfe von Wavelets entrauscht wurden. Der kritische Punkt dieses Algorithmus ist die Erzeugung inkrementeller Peaklisten aus NOESY-Spektren, die mit verschiedenen auf Wavelets basierenden Entrauschungsprozeduren prozessiert wurden. Mit Hilfe entrauschter NOESY-Spektren erhält man Signallisten mit verschiedenen Konfidenzbereichen, die in unterschiedlichen Schritten der kombinierten NOE-Zuordnung/Strukturrechnung eingesetzt werden. Das erste Strukturmodell beruht auf stark entrauschten Spektren, die die konservativste Signalliste mit als weitgehend sicher anzunehmenden Signalen ergeben. In späteren Stadien werden Signallisten aus weniger stark entrauschten Spektren mit einer größeren Anzahl von Signalen verwendet. Die Auswirkung der verschiedenen Entrauschungsprozeduren auf Vollständigkeit und Richtigkeit der NOESY Peaklisten wurde im Detail untersucht. Durch die Kombination von Wavelet-Entrauschung mit einem neuen Algorithmus zur Integration der Signale in Verbindung mit zusätzlichen Filtern, die die Konsistenz der Peakliste prüfen ('Network-anchoring' der Spinsysteme und Symmetrisierung der Peakliste), wird eine schnelle Konvergenz der automatischen Strukturrechnung erreicht. Der neue Algorithmus wurde in ARIA integriert, einem weit verbreiteten Computerprogramm für die automatische NOE-Zuordnung und Strukturrechnung. Der Algorithmus wurde an der Monomereinheit der Polysulfid-Schwefel-Transferase (Sud) aus Wolinella succinogenes verifiziert, deren hochaufgelöste Lösungsstruktur vorher auf konventionelle Weise bestimmt wurde. Neben der Möglichkeit zur Bestimmung von Proteinlösungsstrukturen bietet sich die NMR-Spektroskopie auch als wirkungsvolles Werkzeug zur Untersuchung von Protein-Ligand- und Protein-Protein-Wechselwirkungen an. Sowohl NMR Spektren von isotopenmarkierten Proteinen, als auch die Spektren von Liganden können für das 'Screening' nach Inhibitoren benutzt werden. Im ersten Fall wird die Sensitivität der 1H- und 15N-chemischen Verschiebungen des Proteinrückgrats auf kleine geometrische oder elektrostatische Veränderungen bei der Ligandbindung als Indikator benutzt. Als 'Screening'-Verfahren, bei denen Ligandensignale beobachtet werden, stehen verschiedene Methoden zur Verfügung: Transfer-NOEs, Sättigungstransferdifferenzexperimente (STD, 'saturation transfer difference'), ePHOGSY, diffusionseditierte und NOE-basierende Methoden. Die meisten dieser Techniken können zum rationalen Design von inhibitorischen Verbindungen verwendet werden. Für die Evaluierung von Untersuchungen mit einer großen Anzahl von Inhibitoren werden effiziente Verfahren zur Mustererkennung wie etwa die PCA ('Principal Component Analysis') verwendet. Sie eignet sich zur Visualisierung von Ähnlichkeiten bzw. Unterschieden von Spektren, die mit verschiedenen Inhibitoren aufgenommen wurden. Die experimentellen Daten werden zuvor mit einer Serie von Filtern bearbeitet, die u.a. Artefakte reduzieren, die auf nur kleinen Änderungen der chemischen Verschiebungen beruhen. Der am weitesten verbreitete Filter ist das sogenannte 'bucketing', bei welchem benachbarte Punkte zu einen 'bucket' aufsummiert werden. Um typische Nachteile der 'bucketing'-Prozedur zu vermeiden, wurde in der vorliegenden Arbeit der Effekt der Wavelet-Entrauschung zur Vorbereitung der NMR-Daten für PCA am Beispiel vorhandener Serien von HSQC-Spektren von Proteinen mit verschiedenen Liganden untersucht. Die Kombination von Wavelet-Entrauschung und PCA ist am effizientesten, wenn PCA direkt auf die Wavelet-Koeffizienten angewandt wird. Durch die Abgrenzung ('thresholding') der Wavelet-Koeffizienten in einer Multiskalenanalyse wird eine komprimierte Darstellung der Daten erreicht, welche Rauschartefakte minimiert. Die Kompression ist anders als beim 'bucketing' keine 'blinde' Kompression, sondern an die Eigenschaften der Daten angepasst. Der neue Algorithmus kombiniert die Vorteile einer Datenrepresentation im Wavelet-Raum mit einer Datenvisualisierung durch PCA. In der vorliegenden Arbeit wird gezeigt, dass PCA im Wavelet- Raum ein optimiertes 'clustering' erlaubt und dabei typische Artefakte eliminiert werden. Darüberhinaus beschreibt die vorliegende Arbeit eine de novo Strukturbestimmung der periplasmatischen Polysulfid-Schwefel-Transferase (Sud) aus dem anaeroben gram-negativen Bakterium Wolinella succinogenes. Das Sud-Protein ist ein polysulfidbindendes und transferierendes Enzym, das bei niedriger Polysulfidkonzentration eine schnelle Polysulfid-Schwefel-Reduktion katalysiert. Sud ist ein 30 kDa schweres Homodimer, welches keine prosthetischen Gruppen oder schwere Metallionen enthält. Jedes Monomer enhält ein Cystein, welches kovalent bis zu zehn Polysulfid-Schwefel (Sn 2-) Ionen bindet. Es wird vermutet, dass Sud die Polysulfidkette auf ein katalytischen Molybdän-Ion transferiert, welches sich im aktiven Zentrum des membranständigen Enzyms Polysulfid-Reduktase (Psr) auf dessen dem Periplasma zugewandten Seite befindet. Dabei wird eine reduktive Spaltung der Kette katalysiert. Die Lösungsstruktur des Homodimeres Sud wurde mit Hilfe heteronuklearer, mehrdimensionaler NMR-Techniken bestimmt. Die Struktur beruht auf von NOESY-Spektren abgeleiteten Distanzbeschränkungen, Rückgratwasserstoffbindungen und Torsionswinkeln, sowie auf residuellen dipolaren Kopplungen, die für die Verfeinerung der Struktur und für die relative Orientierung der Monomereinheiten wichtig waren. In den NMR Spektren der Homodimere haben alle symmetrieverwandte Kerne äquivalente magnetische Umgebungen, weshalb ihre chemischen Verschiebungen entartet sind. Die symmetrische Entartung vereinfacht das Problem der Resonanzzuordnung, da nur die Hälfte der Kerne zugeordnet werden müssen. Die NOESY-Zuordnung und die Strukturrechnung werden dadurch erschwert, dass es nicht möglich ist, zwischen den Intra-Monomer-, Inter-Monomer- und Co-Monomer- (gemischten) NOESY-Signalen zu unterscheiden. Um das Problem der Symmetrie-Entartung der NOESY-Daten zu lösen, stehen zwei Möglichkeiten zur Verfügung: (I) asymmetrische Markierungs-Experimente, um die intra- von den intermolekularen NOESY-Signalen zu unterscheiden, (II) spezielle Methoden der Strukturrechnung, die mit mehrdeutigen Distanzbeschränkungen arbeiten können. Die in dieser Arbeit vorgestellte Struktur wurde mit Hilfe der Symmetrie-ADR- ('Ambigous Distance Restraints') Methode in Kombination mit Daten von asymetrisch isotopenmarkierten Dimeren berechnet. Die Koordinaten des Sud-Dimers zusammen mit den NMR-basierten Strukturdaten wur- den in der RCSB-Proteindatenbank unter der PDB-Nummer 1QXN abgelegt. Das Sud-Protein zeigt nur wenig Homologie zur Primärsequenz anderer Proteine mit ähnlicher Funktion und bekannter dreidimensionaler Struktur. Bekannte Proteine sind die Schwefeltransferase oder das Rhodanese-Enzym, welche beide den Transfer von einem Schwefelatom eines passenden Donors auf den nukleophilen Akzeptor (z.B von Thiosulfat auf Cyanid) katalysieren. Die dreidimensionalen Strukturen dieser Proteine zeigen eine typische a=b Topologie und haben eine ähnliche Umgebung im aktiven Zentrum bezüglich der Konformation des Proteinrückgrades. Die Schleife im aktiven Zentrum umgibt das katalytische Cystein, welches in allen Rhodanese-Enzymen vorhanden ist, und scheint im Sud-Protein flexibel zu sein (fehlende Resonanzzuordnung der Aminosäuren 89-94). Das Polysulfidende ragt aus einer positiv geladenen Bindungstasche heraus (Reste: R46, R67, K90, R94), wo Sud wahrscheinlich in Kontakt mit der Polysulfidreduktase tritt. Das strukturelle Ergebnis wurde durch Mutageneseexperimente bestätigt. In diesen Experimenten konnte gezeigt werden, dass alle Aminosäurereste im aktiven Zentrum essentiell für die Schwefeltransferase-Aktivität des Sud-Proteins sind. Die Substratbindung wurde früher durch den Vergleich von [15N,1H]-TROSY-HSQC-Spektren des Sud-Proteins in An- und Abwesenheit des Polysulfidliganden untersucht. Bei der Substratbindung scheint sich die lokale Geometrie der Polysulfidbindungsstelle und der Dimerschnittstelle zu verändern. Die konformationellen Änderungen und die langsame Dynamik, hervorgerufen durch die Ligandbindung können die weitere Polysulfid-Schwefel-Aktivität auslösen. Ein zweites Polysulfid-Schwefeltransferaseprotein (Str, 40 kDa) mit einer fünffach höheren nativen Konzentration im Vergleich zu Sud wurde im Bakterienperiplasma von Wolinella succinogenes entdeckt. Es wird angenommen, dass beide Protein einen Polysulfid-Schwefel-Komplex bilden, wobei Str wässriges Polysulfid sammelt und an Sud abgibt, welches den Schwefeltransfer zum katalytischen Molybdän-Ion auf das aktive Zentrum der dem Periplasma zugewandten Seite der Polysulfidreduktase durchführt. Änderungen chemischer Verschiebungen in [15N,1H]-TROSY-HSQC-Spektren zeigen, dass ein Polysulfid-Schwefeltransfer zwischen Str und Sud stattfindet. Eine mögliche Protein-Protein-Wechselwirkungsfläche konnte bestimmt werden. In der Abwesenheit des Polysulfidsubstrates wurden keine Wechselwirkungen zwischen Sud und Str beobachtet, was die Vermutung bestätigt, dass beide Proteine nur dann miteinander wechselwirken und den Polysulfid-Schwefeltransfer ermöglichen, wenn als treibende Kraft Polysulfid präsent ist.
We investigate transverse hadron spectra from relativistic nucleus-nucleus collisions which reflect important aspects of the dynamics - such as the generation of pressure - in the hot and dense zone formed in the early phase of the reaction. Our analysis is performed within two independent transport approaches (HSD and UrQMD) that are based on quark, diquark, string and hadronic degrees of freedom. Both transport models show their reliability for elementary pp as well as light-ion (C+C, Si+Si) reactions. However, for central Au+Au (Pb+Pb) collisions at bombarding energies above ~ 5 A.GeV the measured K+- transverse mass spectra have a larger inverse slope parameter than expected from the calculation. Thus the pressure generated by hadronic interactions in the transport models above ~ 5 A.GeV is lower than observed in the experimental data. This finding shows that the additional pressure - as expected from lattice QCD calculations at finite quark chemical potential and temperature - is generated by strong partonic interactions in the early phase of central Au+Au (Pb+Pb) collisions.
We investigate hadron production as well as transverse hadron spectra in nucleus-nucleus collisions from 2 A.GeV to 21.3 A.TeV within two independent transport approaches (UrQMD and HSD) that are based on quark, diquark, string and hadronic degrees of freedom. The comparison to experimental data demonstrates that both approaches agree quite well with each other and with the experimental data on hadron production. The enhancement of pion production in central Au+Au (Pb+Pb) collisions relative to scaled pp collisions (the 'kink') is well described by both approaches without involving any phase transition. However, the maximum in the K+/Pi+ ratio at 20 to 30 A.GeV (the 'horn') is missed by ~ 40%. A comparison to the transverse mass spectra from pp and C+C (or Si+Si) reactions shows the reliability of the transport models for light systems. For central Au+Au (Pb+Pb) collisions at bombarding energies above ~ 5 A.GeV, however, the measured K +/- m-theta-spectra have a larger inverse slope parameter than expected from the calculations. The approximately constant slope of K+/-spectra at SPS (the 'step') is not reproduced either. Thus the pressure generated by hadronic interactions in the transport models above ~ 5 A.GeV is lower than observed in the experimental data. This finding suggests that the additional pressure - as expected from lattice QCD calculations at finite quark chemical potential and temperature - might be generated by strong interactions in the early pre-hadronic/partonic phase of central Au+Au (Pb+Pb) collisions.
Bei einigen Krankheiten bekommt die Knochenmarkstransplantation bzw. die Transplantation peripherer Blutstammzellen als Therapiemöglichkeit eine wachsende Bedeutung. Trotz aller Fortschritte birgt diese Therapieform die Gefahr von schwer zu kontrollierenden Komplikationen (Graft-versus-Host-Krankheit, Host-versus-Graft-Krankheit, lebensbedrohliche Infektionen), die die Behandlungsmöglichkeiten einschränken. Die Eigenschaften und Fähigkeiten von Natürlichen Killer-Zellen (NK-Zellen) eröffnen vielversprechende Möglichkeiten, die Komplikationen einer Stammzelltransplantation besser zu kontrollieren. Dafür ist es notwendig, NK-Zellen in möglichst reiner Form und ausreichender Menge bereitzustellen. Seit einigen Jahren stehen verschiedene immunomagnetische Antikörper zur Verfügung, mit denen Zellen gezielt selektiert oder depletiert werden können. Allerdings sind die Herstellerangaben zu Versuchsbedingungen an experimentellen Ansätzen orientiert. Um die Antikörper im klinischen Bereich in entsprechenden Größenordnungen einzusetzen, sind Versuchsansätze in klinischen Größenmaßstäben nötig. In dieser Arbeit wird eine Methode zur immunomagnetischen T-Zell-Depletion bei der Herstellung von NK-Zell-Präparaten untersucht. Mit Hilfe von monoklonalen Antikörpern werden Zellen immunomagnetisch markiert und in einem starken Magnetfeld getrennt. Es wird ein etablierter Einzelantikörper („CD3 MicroBeads“) mit einem neuen Antikörper Kit („NK isolation kit“) verglichen. In der Versuchsreihe sollen die Wahl des Antikörpers, die Antikörpermenge, und die Flussgeschwindigkeit durchs Magnetfeld (Auftraggeschwindigkeit) hinsichtlich ihres Einflusses auf die T-Zell-Depletion, die T-Zell-Restkontamination nach Depletion und den NK-Zell-Ertrag untersucht werden. Bei einem der verwendeten Antikörper („NK isolation kit“) interessiert außerdem die NK-Zell-Reinheit des resultierenden NK-Zell-Präparates. Während die T-Zell-Depletion mit dem „NK isolation kit“ tendenziell größer ist als mit „CD3 MicroBeads“, unterscheiden sich beide Antikörper nicht signifikant in der T-Zell-Restkontamination. Mit „CD3 MicroBeads“ kann allerdings eine verlässlichere T-Zell-Restkontamination mit einer geringeren Schwankungsbreite der Ergebnisse erreicht werden. Weiterhin liefern „CD3 MicroBeads“ einen signifikant höheren NK-Zell-Ertrag, da mit dem „NK isolation kit“ abhängig von der eingesetzten Antikörpermenge und der damit zusammenhängenden Antikörperkonzentration mehr NK-Zellen in der magnetischen Trennsäule verloren gehen. Dabei deutet sich an, dass bei einer höheren Auftraggeschwindigkeit der NK-Zell-Verlust geringer ist. Die Menge der eingesetzten Antikörper korreliert beim „NK isolation kit“ positiv mit der erzielten NK-Zell-Reinheit. Die vorgelegten Ergebnisse zeigen, dass sowohl mit einem Einzelantikörper („CD3 MicroBeads“) also auch mit einem Antikörper-Cocktail („NK isolation kit“) eine ausreichende Depletion von T-Zellen in einem klinischen Maßstab möglich ist. Bei beiden Verfahren kann mit einem Separationsschritt eine höhere T-Zell-Depletion erreicht werden, als mit anderen oder ähnlichen in der Literatur beschriebenen Verfahren. Während mit dem „NK isolation kit“ in einem Depletionsschritt NK-Zell-Präparate mit bis zu 90%iger Reinheit hergestellt werden können, müsste sich nach der T-Zell-Depletion mit „CD3 MicroBeads“ noch eine NK-Zell-Positivselektion anschließen. Während die Auftraggeschwindigkeit von untergeordneter Bedeutung ist, spielt die eingesetzte Antiköpermenge beim „NK isolation kit“ eine signifikante Rolle.
Es wurden Daten von 140 Patienten mit penetrierendem Thorax- und Abdominaltrauma des Zeitraums von 1986 - 06/1996 retrospektiv ausgewertet. Die Patienten wurden anhand einer Reihe von Beurteilungskriterien hinsichtlich Unfallhergang, Verletzungslokalisation, Versorgungsstrategie und Komplikationen während des stationären Aufenthaltes sowie der Letalität untersucht. Von besonderem Interesse waren die prophylaktischen und therapeutischen Antibiotikagaben. Es konnte eine Übersicht hinsichtlich der präklinischen und klinischen Patientenversorgung mit penetrierenden Thorax- und Abdominaltraumen geschaffen werden. Dabei zeigte sich eine mangelhafte Dokumentation zur Erarbeitung der Versorgungsstrategie (Anamnese, Verlauf, etc.) sowie gehäuftes Fehlen einzelner Dokumentationsbögen (Notarzteinsatzprotokoll, Laborbericht, Op-Bericht, etc.). Eine vollständige Bewertung der Versorgungsqualität - und quantität war somit nicht immer möglich. Vorraussetzung zur Identifizierung von Problemen und nachfolgend möglicher Einführung prozessverbessernder Maßnahmen ist jedoch eine solide Datengrundlage. Penetrierende Thorax- und Abdominaltraumen entstanden vor allem im Rahmen von Gewalttaten und Suizidversuchen. Fast die Hälfte der Unfälle ereigneten sich im jungen Erwachsenenalter. Es handelte sich zumeist um isolierte Stichverletzungen bei überwiegend männlichen Patienten. Konkrete Verletzungsmechanismen waren Stich- und Schussverletzungen. Zweihöhlenverletzungen wurden in 10% der Fälle diagnostiziert. Pfählungsverletzungen kamen nicht vor. Es wurden 95% der Patienten chirurgisch behandelt. Davon wurden 67% operiert. Insgesamt 5% der Patienten konnten konservativ behandelt werden. Isolierte penetrierende Thoraxverletzungen wurden bei 46% der Patienten beobachtet. Männer waren deutlich häufiger betroffen wie Frauen. Das durchschnittliche Alter betrug für diese Patienten 33,8 Jahre. An thorakalen Verletzungen wurden überwiegend Pneumo- und / oder Hämatothoraces beobachtet (44% bzw. 31%). Es zeigten sich keine Spannungspneumothoraces. In 6% der Fälle bestanden Verletzungen großer herznaher extrapulmonaler Gefäße. In 12,5% aller penetrierenden Thoraxtraumata wurde das Herz oder der Herzbeutel verletzt. Die Mehrzahl der Patienten (64%) mit Thoraxtrauma konnte mit Thoraxdrainagen suffizient behandelt werden. 4 Patienten konnten unter stationärer Beobachtung primär konservativ behandelt werden. Die Notfallthorakotomie war in 12 Fällen (17%) indiziert. Rethorakotomien waren nicht notwendig. Der durchschnittliche Verletzungsschweregrad I.S.S für Patienten mit Thoraxtrauma betrug 12,6. Die durchschnittliche Gesamthospitalisationszeit bei Patienten mit isolierter thorakaler Verletzung betrug 8,4 Tage. Bei 47 % der Patienten wurde lediglich das Abdomen verletzt. Männer waren deutlich häufiger betroffen wie Frauen. Das durchschnittliche Alter betrug für diese Patienten 30,9 Jahre. Drei Patienten (4,5%) wurden einer konservativen Verlaufsbeobachtung („abdominal observation“) zugeführt. Alle übrigen Patienten (95%) wurden einer operativen Exploration (Laparoskopie / Laparotomie) unterzogen. Die Indikation zur diagnostischen Peritoneallavage wurde nur im Zeitraum 1986 - 1992 gestellt und zunehmend von der Abdomen-Sonographie abgelöst. Es zeigte sich im Beobachtungszeitraum 1992 -1996 ein Rückgang der obligatorischen Laparotomien und zunehmend das Vorgehen der erweiterten Diagnostik mittels Probelaparoskopie. Die Rate positiver Probelaparoskopien lag bei 37,5 %. Die Rate negativer Laparotomien betrug 24%. Bei 6% waren Relaparotomien notwendig. Der durchschnittliche Verletzungsschweregrad I.S.S für Patienten mit Abdominaltrauma betrug 9,2. Die Patienten konnten nach einer im Vergleich zum Thoraxtrauma durchschnittlich längeren Hospitalisationszeit von 11,5 Tage die Klinik wieder verlassen. Es wurden 7% der Patienten mit einem penetrierenden thorakoabdominellen Trauma erfasst. Das Durchschnittsalter betrug 34,4, der durchschnittliche I.S.S. war 22,9. Bei 5 Patienten (50%) war das Zwerchfell mitbetroffen. Alle Patienten wurden zügig laparotomiert und zeigten bei der operativen Exploration eine intrabdominelle Organverletzung. 90% erhielten eine Thoraxdrainage. Die Rate kombinierter Thorakotomie und Laparotomie betrug 20%. Es wurde zuerst die Laparotomie durchgeführt. Postoperativ kam einmal zu einem Spannungspneumothorax. Die Letalitätsrate betrug beim penetrierenden thorakoabdominellen Trauma 10%. Bei insgesamt 34% der Patienten traten postoperativ z.T. mehrere Komplikationen auf. Bei 7 konservativ behandelten Patienten verlief der stationäre Aufenthalt unkompliziert. Die postoperative Morbidität betrug insgesamt 36,8 %. Es handelte sich in 66,7% um definitive lokalisierbare Infektionen wie postoperative Wundinfektionen oder Pneumonien. Das entspricht bei 140 Patienten mit penetrierendem Trauma einer Infektionsrate von 11,4%. Die Inzidenz posttraumatischer Infektionen beim isolierten Thoraxtrauma betrug 17%, beim isolierten Abdominaltrauma 18%. Das thorakoabdominelle Trauma zeigte keine höhere Infektionsrate gegenüber dem isolierten Thorax- oder Abdominaltrauma. Im Gesamtbeobachtungszeitraum wurden etwa drei Viertel der Patienten antibiotisch behandelt. Es handelte sich in 81% der Fälle um Monotherapien und in 19% um Kombinationstherapien. Knapp 50% aller Verordnungen entfielen auf 2 Antibiotikaregimes. Berücksichtigt man die in den Kombinationstherapien verordneten Substanzen einzeln, so ergaben die vier meistverordnete Antibiotikapräparate zusammen 68,9%. Die meisten Antibiotika wurden in der Altersgruppe zwischen 21 und 30 Jahren gegeben. Die durchschnittliche Dauer der Antibiotikaverordnungen betrug 5,1 Tage. 80% der Antibiotikaverordnungen wurden intra- und direkt postoperativ, 86% wurden initial und fortlaufend intravenös, verabreicht. Es wurden 85% als Prophylaxe und 15% als Therapie eingesetzt. Die Indikation zur perioperative Antibiotika-Prophylaxe wurde beim Thoraxtrauma in 43 Fällen (56%), beim Abdominaltrauma in 49 Fällen (68%) und beim thorakoabdominellen Trauma in 8 Fällen (70%) gestellt. 88% der verordneten Antibiotika-Prophylaxen waren erfolgreich. Bei insgesamt 83% der Patienten wurde die perioperative Antibiotika-Prophylaxe aufgrund des erhöhten Risikos einer bakteriellen Kontamination des OP-Gebietes länger als 1 Tag durchgeführt. 42% dieser Patienten erhielten die perioperative Antibiotika-Prophylaxe 1-3 Tage weiter. In 57% der Fälle wurde die Antibiotika-Prophylaxe länger als 3 Tage weitergeführt. Die durchschnittliche Dauer der Antibiotika-Prophylaxen betrug 4,6 Tage. In 7% der Fälle mit prophylaktischen Antibiotikagaben traten Infektionen auf. Sie wurden als „Versager“ der Antibiotika-Prophylaxe bezeichnet. Insgesamt wurden 12% der Patienten nach noch nicht abgeschlossener Behandlung vorzeitig verlegt oder auf eigenen Wunsch entlassen. Die durchschnittliche Hospitalisationszeit betrug insgesamt 10,9 Tage. 75% der Patienten hatten einen I.S.S < 15. Der durchschnittliche Gesamtverletzungsschweregrad I.S.S betrug 11,75. Zwei Patienten verstarben an den Folgen ihrer Verletzungen. Die Todesursachen war der nicht beherrschbare Verlust von intravasalem Volumen. Die Patienten verstarben noch am Aufnahmetag im Schockraum an Herzkreislaufversagen im Volumenmangelschock. Dies ergibt bei diesem Patientenkollektiv eine Letalitätsrate von 1,4%. Der Verletzungsschweregrad I.S.S betrug 38 und 27.
To be published in J. Phys. G - Proceedings of SQM 2004 : We review the results from the various hydrodynamical and transport models on the collective flow observables from AGS to RHIC energies. A critical discussion of the present status of the CERN experiments on hadron collective flow is given. We emphasize the importance of the flow excitation function from 1 to 50 A.GeV: here the hydrodynamic model has predicted the collapse of the v2-flow ~ 10 A.GeV; at 40 A.GeV it has been recently observed by the NA49 collaboration. Since hadronic rescattering models predict much larger flow than observed at this energy we interpret this observation as evidence for a first order phase transition at high baryon density r b. Moreover, the connection of the elliptic flow v2 to jet suppression is examined. It is proven experimentally that the collective flow is not faked by minijet fragmentation. Additionally, detailed transport studies show that the away-side jet suppression can only partially (< 50%) be due to hadronic rescattering. Furthermore, the change in sign of v1, v2 closer to beam rapidity is related to the occurence of a high density first order phase transition in the RHIC data at 62.5, 130 and 200 A.GeV.
We investigate hadron production and transverse hadron spectra in nucleus-nucleus collisions from 2 A·GeV to 21.3 A·TeV within two independent transport approaches (UrQMD and HSD) based on quark, diquark, string and hadronic degrees of freedom. The enhancement of pion production in central Au+Au (Pb+Pb) collisions relative to scaled pp collisions (the ’kink’) is described well by both approaches without involving a phase transition. However, the maximum in the K+ p+ ratio at 20 to 30 A·GeV (the ’horn’) is missed by ~ 40%. Also, at energies above ~5 A·GeV, the measured K± mT-spectra have a larger inverse slope than expected from the models. Thus the pressure generated by hadronic interactions in the transport models at high energies is too low. This finding suggests that the additional pressure - as expected from lattice QCD at finite quark chemical potential and temperature - might be generated by strong interactions in the early pre-hadronic/partonic phase of central heavy-ion collisions. Finally, we discuss the emergence of density perturbations in a first-order phase transition and why they might affect relative hadron multiplicities, collective flow, and hadron mean-free paths at decoupling. A minimum in the collective flow v2 excitation function was discovered experimentally at 40 A·GeV - such a behavior has been predicted long ago as signature for a first order phase transition.
We investigate hadron production as well as transverse hadron spectra from proton-proton, proton-nucleus and nucleus-nucleus collisions from 2 A·GeV to 21.3 A·TeV within two independent transport approaches (HSD and UrQMD) that are based on quark, diquark, string and hadronic degrees of freedom. The comparison to experimental data on transverse mass spectra from pp, pA and C+C (or Si+Si) reactions shows the reliability of the transport models for light systems. For central Au+Au (Pb+Pb) collisions at bombarding energies above ~5 A·GeV, furthermore, the measured K± transverse mass spectra have a larger inverse slope parameter than expected from the default calculations. We investigate various scenarios to explore their potential effects on the K± spectra. In particular the initial state Cronin effect is found to play a substantial role at top SPS and RHIC energies. However, the maximum in the K+/..+ ratio at 20 to 30 A·GeV is missed by 40% and the approximately constant slope of the K± spectra at SPS energies is not reproduced either. Our systematic analysis suggests that the additional pressure - as expected from lattice QCD calculations at finite quark chemical potential µq and temperature T- should be generated by strong interactions in the early pre-hadronic/partonic phase of central Au+Au (Pb+Pb) collisions.
We investigate the effects of strong color fields and of the associated enhanced intrinsic transverse momenta on the phi-meson production in ultrarelativistic heavy ion collisions at RHIC. The observed consequences include a change of the spectral slopes, varying particle ratios, and also modified mean transverse momenta. In particular, the composition of the production processes of phi-mesons, that is, direct production vs. coalescence-like production, depends strongly on the strength of the color fields and intrinsic transverse momenta and thus represents a sensitive probe for their measurement.
Im Rahmen der vorliegenden wissenschaftlichen Abhandlung wurden die Ergebnisse der Angioplastie von Beckenarterienstenosen oder –okklusionen analysiert. Hierbei wurde insbesondere die neue Einteilung von Gefäßläsionen zur Klassifikation nach dem TransAtlantic Inter-Society Consensus (TASC) Dokument herangezogen als auch der Stellenwert der Excimer-Laser assistierten Angioplastie bei diesen Läsionen evaluiert. Die Bedeutung einer kritischen Betrachtung der interventionellen Möglichkeiten in der Therapie der peripheren arteriellen Verschlusskrankheit (pAVK) liegt zum einen in der weiten Verbreitung dieser Erkrankung als auch in der zunehmenden Prävalenz. Als eindeutige Vorteile der interventionellen Methoden im Vergleich zu operativen Verfahren können die Durchführung in Lokalanästhesie, die geringere Mortalität und Morbidität und der kürzere Krankenhausaufenthalt gelten. Die Rekanalisation von Arterienverschlüssen bereitete jedoch lange Zeit Schwierigkeiten und zeigte die therapeutischen Grenzen der konventionellen Ballonangioplastie auf. Dies führte zur Entwicklung von verschiedenen abtragenden („Debulking“) Verfahren wie z. B. den Excimer-Laser. Mit ihm konnten auch chronische, kalzifizierte Gefäßokklusionen erfolgreich therapiert werden. In dem Zeitraum von Januar 1999 bis Dezember 2001 wurden 91 Patienten mit Gefäßläsionen im Bereich des Beckens therapiert. Dabei handelte es sich um 133 Stenosen, 20 Okklusionen und eine Dissektion. 142 Stents wurden im Rahmen der Interventionen implantiert. Präinterventionell erfolgte die Klassifizierung der Gefäßläsionen nach dem TransAtlantic Inter-Society Consensus (TASC), die Erhebung einer Medikamenten- und Risikofaktoren-Anamnese sowie die Ermittlung der Gehstrecke und der klinischen Stadieneinteilung nach Fontaine. Die postinterventionellen Kontrolluntersuchungen erfolgten in einem Zeitraum von einem Tag nach dem Eingriff sowie nach 1, 3, 6, 12 Monaten und dann jährlich. Im Zuge der Nachuntersuchung wurden neben der aktuellen Anamnese auch eine Überprüfung der Risikofaktoren und der aktuellen Medikamentenanamnese durchgeführt. Zusätzlich beinhaltete die Kontrolluntersuchung die farbkodierte Duplex-Untersuchung der unteren Extremitäten als auch die Bestimmung des Tibio-brachialen Quotienten als Index für den Grad der Durchblutungsstörung. Alle Kontrolluntersuchungen wurden durch die klinischen Partner des Gefäßzentrums (Abt. für Angiologie, Abt. für vaskuläre und endovaskuläre Gefäßchirurgie) der Universitätsklinik Frankfurt durchgeführt. Bei 36, der insgesamt 154 durchgeführten Interventionen, kam der Excimer-Laser zum Einsatz. 55% der Okklusionen (11 von 20) wurden mittels Excimer-Laser therapiert. Trotz des hohen Anteils an Gefäßverschlüssen waren die sekundären Offenheitsraten nach 24 Monaten nahezu identisch mit denen des gesamten Patientenkollektivs (97,14% zu 97,37%). Der technische Erfolg betrug 98,1%, die gesamte Komplikationsrate belief sich auf 3,9%. Die von uns erzielten Ergebnisse liegen im Wertebereich der bislang publizierten Arbeiten und sprechen für den Einsatz der Angioplastie bei Iliakalarterienläsionen. Dies gilt sowohl für Stenosen, als auch für Okklusionen. Lediglich Läsionen im Bereich der A. iliaca externa bei weiblichen Patienten lieferten deutlich schlechtere Ergebnisse (primäre Offenheitsraten nach 24 Monaten: 81,82% Frauen; 90,79% gesamt). Des Weiteren war ein multisegmentaler Gefäßbefall mit einer erhöhten Reinterventionsrate vergesellschaftet. 70% der Läsionen, welche einer Reintervention bedurften, waren multisegmental. Insbesondere nicht passierbare Läsionen stellen das Einsatzgebiet für den Excimer-Laser dar. Die etwas schlechteren primären Offenheitsraten (85,71% zu 90,79%) der Laser-PTA Gruppe im Vergleich zu unserer Gesamt-Gruppe beruhen auf dem größeren Anteil an langstreckigen Gefäßverschlüssen in dieser Gruppe (30,6% zu 7,7%). Die sekundären Offenheitsraten lassen hingegen keine signifikanten Unterschiede mehr erkennen (97,14% zu 97,37%). Die Ergebnisse dieser Arbeit zeigen, dass die Rekanalisation mittels Angioplastie bei Beckenarterienläsionen sowohl im Falle der AIC als auch der AIE, mit hohem technischen und klinischen Erfolg durchgeführt werden können. Insbesondere die Excimer-Laser assistierte Angioplastie erweitert das Anwendungsspektrum auf langstreckige, chronische Beckenarterien-verschlüsse, mit ermutigenden Resultaten. Die perkutane Rekanalisation von Beckenarterienläsionen stellt somit eine echte Alternative zur chirurgischen Therapie dar und sollte primär angestrebt werden.
Der Transport von antigenen Peptiden in das Lumen des endoplasmatischen Retikulums ist ein zentraler Vorgang bei der Antigenprozessierung und ihrer MHC-Klasse-I-vermittelten Präsentation auf der Zelloberfläche. Intrazelluläre Translokation über die ER-Membran erfolgt mit Hilfe von TAP, eines ATP-abhängigen ABC-Transporters. Einer ATP-unabhängigen Substratbindung folgt der eigentliche Transportschritt, dessen Energetisierung einer ATP-Spaltung bedarf. In der vorliegenden Dissertation wurde die ATPase-Aktivität des TAP-Komplexes aufgeklärt und detailliert charakterisiert. Es wurde eine schnelle und schonende Isolierungs- und Rekonstitutionsmethode entwickelt, die es erlaubt, den partiell aufgereinigten TAP-Komplex in Liposomen einzubauen und Funktionsstudien in vitro durchzuführen. Zum ersten Mal war es damit möglich, die Peptid-stimulierte TAP-spezifische ATP-Hydrolyse direkt zu beobachten und deren kinetische Parameter zu bestimmen. Eine direkte Korrelation zwischen Bindungsaffinität des Peptides zu TAP (Bindungskonstante KD) und der halbmaximalen Stimulation der ATPase-Aktivität von TAP (Km,pep) wurde festgestellt. Die Versuche mit den verzweigten Peptiden zeigten, dass Peptide, die nicht transportiert werden können, keine Stimulation der ATPase-Aktivität hervorrufen. Somit wurde die allosterische Interaktion zwischen Peptidbindung, ATP-Hydrolyse und Peptidtransport nachgewiesen. Nach der Entfernung des peptidexportierenden Sec61-Komplexes aus den Proteoliposomen konnte die vorläufige Stöchiometrie des Transportschrittes bestimmt werden. Eine weitere Anwendung fand die Rekonstitutionsmethode bei der Aufklärung des molekularen Wirkungsmechanismus des TAP-Inhibitors US6, indem der TAP-Komplex zusammen mit der aktiven ER-luminalen Domäne von US6 in die Proteoliposomen rekonstituiert wurde. Die Bindung von US6(delta147-183) an die ER-luminalen Bereiche von TAP blockiert die ATP-Bindung an die zytoplasmatischen NBD des Transporters. Die Peptid-induzierte ATP-Hydrolyse wird durch die Inhibition der ATP-Bindung unterbunden, wohingegen die Peptid- und ADP-Bindung von TAP nicht beeinflusst sind.
Im Rahmen dieser Dissertation wurde die Photophysik und die elektronische Struktur einer Klasse neuartiger Donator-Akzeptor-Ladungstransfer-Komplexe untersucht. Im Wesentlichen bestehen diese Verbindungen aus einem Ferrocen-Donator (Fc) und organischen Akzeptoren, die über B-N-Bindungen verbrückt sind, welche sich bei dieser Art von makromolekularen Systemen spontan bilden. Zentraler Gegenstand dieser Arbeit war die spektroskopische Untersuchung des Metall-zu-Ligand-Ladungstransfers (engl. Abkürzung: MLCT) im elektronischen Anregungszustand dieser kationischen Komplexverbindungen, die im Weiteren als „Fc-B-bpy“-Verbindungen bezeichnet werden. Die vorliegende Arbeit analysiert eine Vielzahl miteinander verwandter Fc-B-bpy-Derivate. Die Arbeit ist gegliedert in 1.) die Analyse der Absorptionsspektren vom UV- bis zum nahen Infrarot-Spektralbereich (250-1000 nm) von Lösungen, dotierten Polymer-Dünnfilmen und Einkristallen, 2.) die zeitaufgelöste optische Spektroskopie des angeregten Zustands auf der Pikosekunden-Zeitskala, 3.) die Analyse elektrochemischer Messungen an Lösungen, und 4.) die Auswertung quantenchemischer Berechnungen. Für die zeitaufgelösten Messungen wurde ein komplexes optisches Spektroskopie-System mit breitbandigen Femtosekunden-Pulsen sowie den entsprechenden zeitaufgelösten Detektionsmethoden (spektral gefilterte Weißlicht-Detektion) aufgebaut. Die Ergebnisse dieser Arbeit beweisen die Existenz eines MLCT-Übergangs mit fast vollständigem Übergang eines Fc-Donator-Elektrons zum B-bpy-Akzeptor bei optischer Anregung. Die vergleichenden Untersuchungen der spektroskopischen Eigenschaften verschiedener Derivate liefern wichtige Information für die Entwicklung neuartiger Derivate, einschließlich verwandter Polymere, mit verbesserten spektroskopischen Eigenschaften. Es wurden transiente Absorptionsmessungen bestimmter Fc-B-bpy-Derivate in Lösung nach gepulster Anregung der MLCT-Bande (bei 500 nm) über einen Zeitbereich von 0,1-1000 ps und einen Wellenlängenbereich von 460-760 nm vorgenommen. Aus den Messergebnissen geht hervor, dass die Relaxation aus dem angeregten MLCT-Zustand in den Grundzustand auf verschiedenen Zeitskalen geschehen kann, welche im Bereich zwischen ~18 und 900 ps liegen. Ein Vergleich verschiedener Derivate mit unterschiedlicher Flexibilität in der Konformation zeigt, dass die Starrheit der Bindungen zwischen Donatoren und Akzeptoren ein wesentlicher Faktor für die Lebensdauer des angeregten Zustands ist. Wenn die Akzeptorgruppen relativ frei rotieren können, ist es der Verbindung möglich, eine Geometrie einzunehmen, von der aus ein effizienter, strahlungsfreier Übergang in den Grundzustand erfolgen kann. Dieser Befund zeigt einen Weg auf, wie neuartige, verwandte Verbindungen mit größerer Lebensdauer das angeregten Zustands synthetisiert werden können, indem darauf geachtet wird, daß eine starre molekulare Architektur zwischen Donator und Akzeptor verwirklicht wird.
Die frühe Entwicklung und Differenzierung der sympathischen Ganglien wird durch ein Netzwerk von proneuralen (Mash1/Cash1) und autonomen (Phox2a/b, dHand) Transkriptionsfaktoren kontrolliert. Diese Transkriptionsfaktoren induzieren direkt oder indirekt die Expression neuronaler (SCG10) und subtypspezifischer noradrenerger (TH, DBH) oder cholinerger (ChAT, VAChT) Gene. Die Analyse der frühen Genexpression im Ciliarganglion zeigte ein bemerkenswert ähnliches zeitliches Expressionsschema. Zwei bedeutende Unterschiede sind einerseits die nur transiente Expression noradrenerger Gene und andererseits die Abwesenheit des bHLH-Transkriptionsfaktors dHand, der selektiv in den sympathischen Ganglien exprimiert ist. Das Netzwerk der Transkriptionsfaktoren in den sympathischen Ganglien ist abhängig von einem BMP-Signal aus der dorsalen Aorta. BMPs sind notwendig und ausreichend für die Expression der genannten Transkriptionsfaktoren und damit für die Bildung der sympathischen Ganglien. Diese Arbeit zeigt, daß BMPs auch für die Entwicklung des Ciliarganglions notwendig und ausreichend sind. Fehlen BMPs, differenzieren die Vorläuferzellen nicht, wird BMP4 überexprimiert, differenzieren sie, anders als sympathische Vorläuferzellen im Brachialnerv, zu Zellen mit parasympathischem Phänotyp. Die vorliegenden Ergebnisse weisen auf eine Präspezifizierung von Ciliarvorläuferzellen und sympathischen Vorläuferzellen hin. Der bHLH-Transkriptionsfaktor dHand ist differentiell in sympathischen Vorläuferzellen exprimiert. Seine Expression ist notwendig für die noradrenerge Differenzierung, und die Überexpression im Ciliarganglion reicht aus, um in den Ciliarneuronen die Expression von TH/DBH zu erhalten. Verschiedene Arbeiten schlagen als möglichen Wirkmechanismus eine synergistische Interaktion von dHand und Phox2-Transkriptionsfaktoren vor. Ektopische BMP4-Expression induziert in einem Teil der generierten Neuronen die Expression von dHand. Interessanterweise reicht diese, durch BMP4 induzierte, dHand-Expression nicht aus, den relativen Anteil noradrenerger Neuronen innerhalb der ektopischen und der Ciliarneuronen zu erhöhen. Diese scheinbare Diskrepanz kann erklärt werden, wenn man annimmt, daß ein bestimmter Schwellenwert in der dHand-Funktion erreicht werden muß. Dieser Schwellenwert könnte durch unterschiedliche dHand-Expression, induziert durch BMPs, durch posttranskriptionelle Kontrolle der dHand-Funktion, oder durch unterschiedliche Expression von Cofaktoren in unterschiedlich präspezifizierten Vorläuferzellen reguliert werden. In Zellen, in denen die Konzentration an aktivem dHand einen gewissen Schwellenwert übersteigt, würde dann gemeinsam mit Phox2a/b die noradrenerge Genexpression induziert oder erhalten werden.
Die vorliegende Arbeit beschäftigt sich mit der Frage, inwieweit psychosoziale Belastungsfaktoren in Kindheit und Erwachsenenalter Einfluss auf Krankheitsentstehung und Verlauf der interstitiellen Cystitis (IC) haben. Als Testinstrumente fanden die MSBA (Mainzer Strukturierte Biographische Anamnese), das BSI (Brief Symptom Inventory) sowie ein IC-spezifischer Symptom- und Problem-Fragebogen Anwendung. Es erfolgte eine deskriptive Auswertung der Daten. An der Studie nahmen 30 Patienten teil, deren Symptomatik und Befunde die aktuellen Diagnosekriterien der IC erfüllen. Es zeigte sich ein erhöhtes Vorkommen wichtiger Kindheitsbelastungsfaktoren. Dazu zählen eine schlechte emotionale Bindung zu den Eltern bei mangelndem Geborgenheitsgefühl im Elternhaus, eine chronische Erkrankung eines Elternteils und körperliche Misshandlung. Sexueller Missbrauch spielte bei dieser Patientengruppe so gut wie keine Rolle. im Gesamtscore der Kindheitsbelastungsfaktoren liegen IC-Patienten ebenfalls weit über publizierten Durchschnittswerten für Stichproben gesunder Probanden. Zwischen Kindheitsbelastungsscore und klinischer IC-Symptomatik ergab sich keine signifikante Korrelation. Die aktuelle Sozialanamnese zeigte kein gehäuftes Vorkommen relevanter psychosozialer Belastungsfaktoren in den einzelnen Lebensbereichen. Die Lebensqualität ist durch die Krankheitssymptomatik stark eingeschränkt. Eine depressive Symptomatik gehörte in der Regel zum Krankheitsbild. Das BSI zeigte insgesamt erhöhte Werte für die subjektive Beeinträchtigung nahezu aller erfragten physischen und psychischen Symptome, insbesondere jedoch für Skalen Somatisierung, Ängstlichkeit und Phobische Angst. Zwischen Kindheitsbelastungsscore und Gesamtwert im BSI besteht ebenfalls keine signifikante Korrelation. Die Ergebnisse der Studie sprechen für eine psychosomatische Mitbeteiligung in der wahrscheinlich multifaktoriellen Genese der Interstitiellen Cystitis.
The paper analyses the financial structure of German inward FDI. From a tax perspective, intra-company loans granted by the parent should be all the more strongly preferred over equity the lower the tax rate of the parent and the higher the tax rate of the German affiliate. From our study of a panel of more than 8,000 non-financial affiliates in Germany, we find only small effects of the tax rate of the foreign parent. However, our empirical results show that subsidiaries that on average are profitable react more strongly to changes in the German corporate tax rate than this is the case for less profitable firms. This gives support to the frequent concern that high German taxes are partly responsible for the high levels of intracompany loans. Taxation, however, does not fully explain the high levels of intra-company borrowing. Roughly 60% of the cross-border intra-company loans turn out to be held by firms that are running losses. JEL - Klassifikation H25 , F23 .
This paper evaluates the effects of Public Sponsored Training in East Germany in the context of reiterated treatments. Selection bias based on observed characteristics is corrected for by applying kernel matching based on the propensity score. We control for further selection and the presence of Ashenfelter's Dip before the program with conditional difference-in-differences estimators. Training as a first treatment shows insignificant effects on the transition rates. The effect of program sequences and the incremental effect of a second program on the reemployment probability are insignificant. However, the incremental effect on the probability to remain employed is slightly positive. JEL - Klassifikation: H43 , C23 , J6 , J64 , C14
The Box-Cox quantile regression model using the two stage method introduced by Chamberlain (1994) and Buchinsky (1995) provides an attractive extension of linear quantile regression techniques. However, a major numerical problem exists when implementing this method which has not been addressed so far in the literature. We suggest a simple solution modifying the estimator slightly. This modification is easy to implement. The modified estimator is still [square root] n-consistent and its asymptotic distribution can easily be derived. A simulation study confirms that the modified estimator works well.
This paper investigates the magnitude and the main determinants of share price reactions to buy-back announcements of German corporations. For our comprehensive sample of 224 announcements that took place between May 1998 and April 2003 we find average cumulative abnormal returns around -7.5% for the thirty days preceding the announcement and around +7.0 % for the ten days following the announcement. We regress post-announcement abnormal returns with multiple firm characteristics and provide evidence which supports the undervaluation signaling hypothesis but not the excess cash hypothesis or the tax-efficiency hypothesis. In extending prior empirical work, we also analyze price effects from initial statements of firms that they intend to seek shareholder approval for a buy-back plan. Observed cumulative abnormal returns on this initial date are in excess of 5% implying a total average price effect between 12% and 15% from implementing a buy-back plan. We conjecture that the German regulatory environment is the main reason why market variations to buy-back announcements are much stronger in Germany than in other countries and conclude that initial statements by managers to seek shareholders’ approval for a buy-back plan should also be subject to legal ad-hoc disclosure requirements.
Unter dem Stichwort "Patchwork-Biografien" wird die Tatsache, dass ein großer Teil der abhängig Beschäftigten ihren erlernten Beruf nicht mehr ausüben, in jüngster Zeit viel diskutiert. Diese Studie liefert einen empirischen Beitrag zur Anatomie der Berufswechsel für westdeutsche Männer auf Basis der BIBB/IABDaten 1998/1999. Als Grundlage für die empirische Analyse wird ein theoretisches Modell der Wahl zwischen horizontal differenzierten Berufen entwickelt. Die wichtigsten Ergebnisse sind: Ex post beobachtete Berufswechsel hängen negativ vom Durchschnittslohn im Ausbildungsberuf und positiv vom Durchschnittslohn im Erwerbsberuf ab. Der deskriptiv beobachtete durchschnittliche Entlohnungseffekt eines Berufswechsels ist signifikant positiv, verstärkt sich noch, wenn für den Ausbildungsberuf kontrolliert wird, und ist demgegenüber signifikant negativ, wenn für den Erwerbsberuf kontrolliert wird. Der geschätzte kausale durchschnittliche Entlohnungseffekt ist positiv. Die Ergebnisse sind insgesamt damit konsistent, dass Berufswechsel vor allem damit zusammenhängen, dass Beschäftigte im neuen Erwerbsberuf größere Verdienst- und Karrierechancen wahrnehmen können. JEL - Klassifikation: J62 , J31 , J24 , C21
Thema dieser Arbeit ist eine ökonomische Einordnung der Förderung der beruflichen Weiterbildung (FbW) als Teil der Aktiven Arbeitsmarktpolitik in Deutschland. Die Analyse erfolgt im Lichte des sektoralen Wandel, der Verschiebung der qualifikatorischen Arbeitsnachfrage und der vorrauszusehenden Produktivitätseffekte im Zusammenhang mit einer alternden Gesellschaft. Auf Basis der Humankapitaltheorie wird zunächst theoretisch erörtert, inwieweit sich FbW als Teil der Aktiven Arbeitsmarktpolitik aus Effizienz- und Verteiliungsgesichtspunkten rechtfertigen lässt und in welcher Form FbW sinnvoll sein kann.
This paper analyzes empirically the distribution of unemployment durations in West- Germany before and after the changes during the mid 1980s in the maximum entitlement periods for unemployment benefits for elderly unemployed. The analysis is based on the comprehensive IAB employment subsample containing register panel data for about 500.000 individuals in West Germany. We analyze two proxies for unemployment since the data do not precisely measure unemployment in an economic sense. We provide a theoretical analysis of the link between the durations of nonemployment and of unemployment between jobs. Our empirical analysis finds significant changes in the distributions of nonemployment durations for older unemployed individuals. At the same time, the distribution of unemployment durations between jobs did not change in response to the reforms. Our findings are consistent with an interpretation that many firms and workers used the more bene cial laws as a part of early retirement packages but those workers who were still looking for a job did not reduce their search effort in response to the extension of the maximum entitlement periods. This interpretation is consistent with our theoretical model under plausible assumptions. JEL: C24, J64, J65
We show that multi-bank loan pools improve the risk-return profile of banks’ loan business. Banks write simple contracts on the proceeds from pooled loan portfolios, taking into account the free-rider problems in joint loan production. Thus, banks benefit greatly from diversifying credit risk while limiting the efficiency loss due to adverse incentives. We present calibration results that the formation of loan pools reduce the volatility in default rates, proxying for credit risk, of participating banks’ loan portfolios by roughly 70% in our sample. Under reasonable assumptions, the gain in return on equity (in certainty equivalent terms) is around 20 basis points annually.
Im Rahmen des Value Based Managements sollen alle Manahmen der Unternehmensfhrung auf die Steigerung des intrinsischen Marktwertes des Eigenkapitals ausgerichtet werden. Hauptanwendungsbereiche des Value Based Managements sind die Planung, Performancemessung, Managemententlohnung sowie die Bereichssteuerung. Eine konsequente shareholder-orientierte Steuerung beinhaltet eine adquate Ermittlung von Wertbeitrgen in den einzelnen Anwendungsbereichen. Hierzu dienen insbesondere absolute Wertbeitragskennzahlen in Form von Residualgewinnen. Residualgewinne sind dadurch gekennzeichnet, dass der Gewinn um eine auf das Gesamtkapital bezogene Capital bzw. Interest Charge reduziert wird. Der magebliche Gewinn sowie das Gesamtkapital ergeben sich, indem die handelsrechtlichen Gren durch mehr oder minder weitreichende Modifikationen angepasst werden. Die Berechnung der Interest Charge erfolgt entweder auf Basis eines risikoangepassten Zinssatzes oder auf Basis eines risikofreien Zinssatzes. In der Praxis finden sich zahlreiche unterschiedliche Residualgewinnkonzepte, die sich insbesondere durch die jeweils charakteristischen Modifikationen und durch den verwendeten Zinssatz zur Berechnung der Kapitalkosten unterscheiden.1) Herkmmliche Konzepte zeichnen sich dadurch aus, dass die Interest Charge auf Basis eines risikoangepassten Zinssatzes berechnet wird. Das in Velthuis (2003c) theoretisch entworfene und von der KPMG in der Praxis umgesetzte Konzept Earnings less Riskfree Interest Charge, ERIC , ist hingegen dadurch charakterisiert, dass zur Berechnung der Interest Charge ein risikofreier Zinssatz verwendet wird. Ferner werden Modifikationen nur insofern vorgenommen, als dass eine vollstndige Bercksichtigung aller Erfolgskomponenten gewhrleistet wird. Glaubt man den Vertretern herkmmlicher Konzepte, basieren diese Konzepte auf einer hinreichenden theoretischen Fundierung. Diesem Anspruch gengen solche Konzepte tatschlich jedoch nicht, sie zeichnen sich gerade durch eine mangelnde theoretische Fundierung aus.2) In Velthuis (2003c) wird verdeutlicht, dass die in der Praxis verbreitete Vorgehensweise gerade zum Ausweis von Wertbeitrgen fhrt, die inkonsistent mit der Zielsetzung der Shareholder sind. In allen Anwendungsbereichen des VBM zeigt sich nmlich aus theoretischer Sicht die Problematik der VerIm Rahmen des Value Based Managements sollen alle Maßnahmen der Unternehmensführung auf die Steigerung des intrinsischen Marktwertes des Eigenkapitals ausgerichtet werden. Hauptanwendungsbereiche des Value Based Managements sind die Planung, Performancemessung, Managemententlohnung sowie die Bereichssteuerung. Eine konsequente shareholder-orientierte Steuerung beinhaltet eine adäquate Ermittlung von Wertbeiträgen in den einzelnen Anwendungsbereichen. Hierzu dienen insbesondere absolute Wertbeitragskennzahlen in Form von Residualgewinnen. Residualgewinne sind dadurch gekennzeichnet, dass der Gewinn um eine auf das Gesamtkapital bezogene Capital bzw. Interest Charge reduziert wird. Der maßgebliche Gewinn sowie das Gesamtkapital ergeben sich, indem die handelsrechtlichen Größen durch mehr oder minder weitreichende Modifikationen angepasst werden. Die Berechnung der Interest Charge erfolgt entweder auf Basis eines risikoangepassten Zinssatzes oder auf Basis eines risikofreien Zinssatzes. In der Praxis finden sich zahlreiche unterschiedliche Residualgewinnkonzepte, die sich insbesondere durch die jeweils charakteristischen Modifikationen und durch den verwendeten Zinssatz zur Berechnung der Kapitalkosten unterscheiden.1) Herkömmliche Konzepte zeichnen sich dadurch aus, dass die Interest Charge auf Basis eines risikoangepassten Zinssatzes berechnet wird. Das in Velthuis (2003c) theoretisch entworfene und von der KPMG in der Praxis umgesetzte Konzept Earnings less Riskfree Interest Charge, ERIC Ò , ist hingegen dadurch charakterisiert, dass zur Berechnung der Interest Charge ein risikofreier Zinssatz verwendet wird. Ferner werden Modifikationen nur insofern vorgenommen, als dass eine vollständige Berücksichtigung aller Erfolgskomponenten gewährleistet wird. Glaubt man den Vertretern herkömmlicher Konzepte, basieren diese Konzepte auf einer hinreichenden theoretischen Fundierung. Diesem Anspruch genügen solche Konzepte tatsächlich jedoch nicht, sie zeichnen sich gerade durch eine mangelnde theoretische Fundierung aus.2) In Velthuis (2003c) wird verdeutlicht, dass die in der Praxis verbreitete Vorgehensweise gerade zum Ausweis von Wertbeiträgen führt, die inkonsistent mit der Zielsetzung der Shareholder sind. In allen Anwendungsbereichen des VBM zeigt sich nämlich aus theoretischer Sicht die Problematik der Verwendung eines risikoangepassten Zinssatzes zur Berechnung von Kapitalkosten: Schon die Verwendung eines risikoangepassten Kapitalkostensatzes im Rahmen der Planung kann problematisch sein. Die Verwendung risikoangepasster Kapitalkosten als Benchmark bei der Performancemessung ist sogar ganz abzulehnen, und bei der Managemententlohnung ist die Verrechnung von risikoangepassten Kapitalkosten zwingend mit Fehlanreizen verbunden. Aber auch praxisübliche Modifikationen erweisen sich als problematisch, da Erfolgskomponenten nicht bzw. nicht vollständig berücksichtigt werden. Im Gegensatz zu herkömmlichen Konzepten weist das VBM-Konzept ERIC eine tatsächliche theoretische Fundierung auf. In Velthuis (2003c) werden grundlegende theoretische und praktische Anforderungen für die einzelnen Anwendungsbereiche herausgearbeitet und es wird gezeigt, dass ein integriertes VBM-Konzept auf Basis des Residualgewinns ERIC diese Anforderungen stets erfüllt. Ziel dieses Aufsatzes ist es, die Grundkonzeption von ERIC theoretisch weiter zu entwickeln. Während in Velthuis (2003c) stets von einer sehr einfachen Idealwelt ausgegangen wird, soll hier zum einen verdeutlicht werden, wie ein erfolgreiches Value Based Management auf Basis von ERIC in komplexeren und realitätsnäheren Situationen erfolgen kann. Zum anderen gilt es, zusätzliche praktische Problembereiche zu erkennen und Lösungsmöglichkeiten aufzuzeigen. Der Aufsatz ist wie folgt aufgebaut: Zunächst wird gezeigt, wie der Residualgewinn ERIC zu berechnen ist, und es wird ein Überblick über die Anwendungsbereiche gegeben. Anschließend wird die grundlegende Entscheidungssituation für die späteren Darstellungen erörtert und es werden fundamentale Prinzipien des Value Based Managements und ihre Bedeutung für die einzelnen Anwendungsbereichen erläutert. Sodann wird für die einzelnen Bereichen des Value Based Managements, der Planung, Performancemessung, Managemententlohnung und der Bereichssteuerung gezeigt, wie ERIC anzuwenden ist, damit eine tatsächliche Shareholder-Orientierung gewährleistet wird. Die Darstellungen erfolgen dabei jeweils zunächst vor dem Hintergrund einer Idealwelt. In einem zweiten Schritt wird die Entscheidungssituation jeweils modifiziert, um der Realität ein Stück näher zu kommen.
Weltweit nehmen Kohle-, Öl- und Erdgasvorräte ab, der Energiebedarf dagegen steigt dramatisch an. Regenerative Energien mindern zwar die steigenden Klimagefahren, können aber unseren zukünftigen Energiebedarf in Ballungszentren kaum decken. Nach Einschätzung zahlreicher Experten gehört dem Wasserstoff die Zukunft. Er wird aber derzeit nahezu ausschließlich aus fossilen Brennstoffen gewonnen; damit bleibt auch diese Ressource endlich - ganz zu schweigen von ihrem hohen Gefährdungspotenzial. - Das neuartige Energiekonzept einer solaren und damit kohlenstoffunabhängigen Wasserstoffwirtschaft bedarf zur technischen Realisierung eines Zwischenspeichers für regenerative Energien. Dieser zukünftige Energieträger sollte synthetisch einfach erzeugbar sein, in unbegrenztem Maß zur Verfügung stehen oder zumindest recycelbar sein, die Energie permanent speichern und gefahrlos transportierbar sein, eine hohe Energiedichte aufweisen und kein Kohlendioxid oder andere (Klima-) Schadstoffe freisetzen. - Das Element Silicium kann zu einem maßgeschneiderten Bindeglied zur Ankoppelung dezentraler regenerativer Energieerzeugung an eine ebenso dezentrale Wasserstoffwirtschaft an jedem beliebigen Ort werden. Der Transport und die Speicherung von Silicium sind - im Gegensatz zu Öl oder besonders zu Wasserstoff - ohne Gefährdungspotenzial und/oder hohe Energieverluste möglich und erfordern nur eine technische Infrastruktur, wie sie auch für Kohle benötigt wird.
Global reserves of coal, oil and natural gas are diminishing; global energy requirements however are dramatically increasing. Renewable energy sources lower the threat to the earth’s climate but are not able to meet the energy consumption in major urban areas. The opinion of many experts is that the future will be dominated by hydrogen. However, this gas is essentially totally manufactured from fossil fuels and is hence of limited abundance – not to mention the hazards involved in its utilisation. - A novel energy concept involving solar and thus carbon-independent hydrogen-based technology necessitates an intermediate storage vehicle for renewable energy. This future energy carrier should be simple to manufacture, be available to an unlimited degree or at least be suitable for recycling, be able to store and transport the energy without hazards, demonstrate a high energy density and release no carbon dioxide or other climatically detrimental substances. - Silicon successfully functions as a tailor-made intermediate linking decentrally operating renewable energy-generation technology with equally decentrally organised hydrogen-based infrastructure at any location of choice. In contrast to oil and in particular hydrogen, the transport and storage of silicon are free from potential hazards and require a simple infrastructure similar to that needed for coal.
This paper compares the accuracy of credit ratings of Moody s and Standard&Poors. Based on 11,428 issuer ratings and 350 defaults in several datasets from 1999 to 2003 a slight advantage for the rating system of Moody s is detected. Compared to former research the robustness of the results is increased by using nonparametric bootstrap approaches. Furthermore, robustness checks are made to control for the impact of Watchlist entries, staleness of ratings and the effect of unsolicited ratings on the results.
Der Einbau von Übergangsmetallionen in Polymerketten kann zu Materialien mit vielversprechenden optischen, elektronischen oder magnetischen Eigenschaften führen, wie sie auf der Basis konventioneller organischer Polymere nicht zu erzielen sind. Die für metallorganische Makromoleküle charakteristischen Eigenschaften resultieren vor allem aus der Vielfalt der Strukturtypen, die für Metallkomplexe auftreten, und in vielen Fällen aus kooperativen Effekten zwischen den Übergangsmetallzentren eines Polymerstranges. Gezieltes Materialdesign setzt daher neben einem grundlegenden Verständnis der Interaktion zwischen den Metallkomplexfragmenten die Fähigkeit voraus, diese durch geeignete Verknüpfungseinheiten so miteinander zu verbinden, dass Wechselwirkungen zwischen ihnen auftreten. Kooperative Phänomene lassen sich häufig bereits an kurzkettigen Oligomeren beobachten, die daher als Modellsysteme für die entsprechenden Polymere dienen. Vor diesem Hintergrund lag der Schwerpunkt der vorliegenden Arbeit auf der Synthese und Charakterisierung di- und trinuclearer Metallkomplexe. Darüber hinaus wurden aber auch entscheidende Fortschritte in Bezug auf die Synthese metallhaltiger Polymere auf der Basis ausgewählter Ferrocenderivate erzielt. Zur Darstellung der Zielverbindungen wurden sowohl etablierte Verknüpfungs-Konzepte genutzt als auch neue Syntheserouten entwickelt. Als wichtige Startverbindungen wurden die Ferrocenylborane FcBR2 und 1,1‘-fc(BR2)2 [Fc = (C5H5)Fe(C5H4), fc = Fe(C5H4)2, R = Br, H, CR‘3] eingesetzt, da sich deren Borylsubstituenten in vielfältiger Weise zur Verknüpfung der metallorganischen Bausteine nutzen lassen. Aufgrund der Lewis-sauren Eigenschaften der Borylsubstituenten können Ferrocenylborane mit difunktionellen organischen Lewis-Basen wie 4,4‘-Bipyridin oder Pyrazin zu Polymeren verknüpft werden. Um die Anzahl der Metallatome innerhalb derartiger Makromoleküle zu erhöhen, wurden im Rahmen dieser Arbeit erstmals metallorganische Lewis-Basen als Verknüpfungseinheiten eingesetzt. In dieser Hinsicht bieten sich 3,4-Dimethyl-1-phosphaferrocen und 3,3‘,4,4‘-Tetramethyl-1,1‘-diphosphaferrocen sowie Ferrocenyllithium und 1,1‘-Dilithioferrocen an, da in diesen Verbindungen das Lewis-basische Zentrum Bestandteil des Cyclopentadienylrings ist. Im Gegensatz zu Phosphaferrocenen bilden die starken Lewis-Basen Ferrocenyllithium und 1,1‘-Dilithioferrocen mit dem Ferrocenylboran FcBMe2 selbst in Lösung stabile Addukte (z. B. Fc2BMe2Li). Polymerisationsversuche mit den Edukten 1,1‘-(fcBMe2)2 und 1,1‘-Dilithioferrocen führen entgegen den Erwartungen jedoch nicht zu polymerem Material, sondern ergeben das borverbrückte [1.1]Ferrocenophan [{Fe-(C5H4)2}2{BMe2}2]Li2. Die Struktur von [{Fe-(C5H4)2}2{BMe2}2]Li2 im festen Zustand weist als hervorstechendstes Merkmal ein nacktes Lithium-Ion auf, das sich im Zentrum des Käfigs befindet. Dieses supramolekulare Aggregat ist auch in Lösung beständig. Werden jedoch beide Ferroceneinheiten oxidiert, verlässt das Li+-Ion den Makrozyklus, um nach vollständiger Reduktion von [{Fe-(C5H4)2}2{BMe2}2] wieder an seinen ursprünglichen Platz zurückzukehren. Komplementär zum Verknüpfungskonzept über dative Bor-Stickstoff-, Bor-Phosphor- und Bor-Kohlenstoff-Bindungen wurde im Rahmen dieser Arbeit eine Kondensationsreaktion erarbeitet, die auf einfachem Wege zu kovalent verknüpften di- und oligonuclearen Ferrocenkomplexen führt. Bei der Umsetzung von FcBBr2 mit HSiEt3 beobachtet man eine Dimerisierungsreaktion, die unter Bildung von Fc2BBr verläuft. Einer entsprechenden Reaktion lässt sich auch 1,1‘-fc(BBr2)2 unterziehen, womit sich ein Weg zu Poly(ferrocenylenen) eröffnet, in denen die Ferroceneinheiten über dreifach koordiniertes Bar verknüpft sind ([-fcB(R)-]n, R = Br). Weitere Wege zu ferrocenhaltigen Polymeren mit Bar im Polymerrückgrat wurden durch die erfolgreiche Synthese der Ferrocenylborane FcBH2 und 1,1‘-fc(BH2)2 eröffnet, die in Form ihrer Lewis-Säure-Base-Addukte mit Dimethylethylamin [FcBH2 . NMe2Et; 1,1‘-fc(BH2 . NMe2Et)2] oder Dimethylsulfid [FcBH2 . SMe2; 1,1‘-fc(BH2.SMe2)2] isoliert werden konnten. FcBH2 . NMe2Et und FcBH2 . SMe2 erwiesen sich als aktive und selektive Hydroborierungsreagenzien. Durch Umsetzung mit aromatischen Dialkinen werden dadurch konjugierte Polymere zugänglich, welche mit Polyolefinen verwandt sind, in denen einige der Kohlenstoffatome durch Boratome ersetzt wurden. Diese Materialien zeichnen sich durch ausgeprägt pi-Delokalisation aus, die sich über das Bor hinweg erstreckt, und weckten unser Interesse, da Oxidation der Ferrocenyl-Seitenketten eine elektrochemische Modifizierung der Ladungsdichte an den Borzentren erlauben sollte. Gleichzeitig ließen sich auf diese Weise paramagnetische Fe(III)-Ionen in unmittelbarer Nachbarschaft zu einem elektrisch leitfähigen Polymer generieren. Überdies erhält man Polymere des Typs [-fcB(R)-]n nicht nur über die Reaktion von 1,1‘-fc(BBr2)2 mit HSiEt3 (R = Br) sondern auch über die Kondensationsreaktion von 1,1‘-fc(BH2)2, die unter Abspaltung von BH3 verläuft (R = H).
National borders in Europe have been opening since 1992 and the Union is expanding to embrace more countries prompting enterprises to consider alternative and more attractive locations outside their home country to handle part of their activities (Van Dijk and Pellenbarg, 2000; Cantwell and Iammarino, 2002). International relocation is becoming more and more popular even for small and medium-sized firms that are involved in a growing internationalisation process, mirroring the path of multinational enterprises. Italy, like other industrialised countries, is experiencing a fragmentation of the production chain: firms tend to shift high labour-intensive manufacturing activities to areas characterised by an abundance of low-cost labour (i.e. Central Eastern Europe, India, South East Asia, Latin America, Russia and Central Asia). The internationalisation process by Italian district SMEs has assumed significant dimensions. It has become a relevant topic in recent economic debate because of its consequences for the local context and, in particular, the implication for the survival of the Italian district model (see, among others, Becattini, 2002; Rullani, 1998 and Cor, 2000). The purpose of the paper is twofold: it aims at (i) identifying the managerial approaches to the internationalisation process adopted by the Italian district SMEs and by the Industrial District (ID) itself and (ii) at investigating whether the international delocalisation to the South Eastern European countries (SEECs) constitutes a threat or an opportunity for the Italian district model. The paper is organised as follows. The general introduction is followed by a description of the evolution of the internationalisation processes in Italy over the last three decades. Section three presents a discussion of the internationalisation strategies adopted by Italian SMEs. Section four focuses on the internationalisation process of the Italian industrial districts SMEs. A review of the studies on the subject is offered in section five. Section six presents a qualitative study on the internationalisation process as undergone by sports shoes manufacturers in the Montebelluna district, in north-east Italy. This study shows different managerial strategies to the internationalisation process and emphasises that the motivations can evolve over time, from originally cost-saving to increasingly market-oriented or global strategies. On the basis of a literature review, section seven investigates whether internationalisation constitutes a threat (i.e. loss of jobs and knowledge) or an opportunity (i.e. enlargement of the ID, update district s competitiveness) for the district model. Finally, some summarising remarks in section eight conclude the paper.
Therapeutische Konzepte der Radioiodtherapie bei der Autoimmunhyperthyreose vom Typ Morbus Basedow
(2004)
In der vorliegenden Arbeit wurden retrospektiv Ergebnisse einer Radioiodtherapie bei 126 konsekutiven Patienten (19 Männer; 107 Frauen, Alter 50,9±14,6, Median 51,5 Jahre) analysiert, die im Zeitraum von 1992 bis 2001 wegen einer Autoimmuthyreopathie vom Typ M. Basedow in der Klinik für Nuklearmedizin der Gutenberg Universität Mainz behandelt wurden. Ziel der Arbeit war es, die Effektivität unterschiedlicher Therapieansätze zu vergleichen sowie Faktoren, welche einen Einfluss auf die Therapieergebnisse haben könnten, zu ermitteln, wobei Anamnese, Schilddrüsenvolumen, Stoffwechsellage und Thyreostase zum Zeitpunkt der Therapie besondere Berücksichtigung fanden. Bei 47 Patienten erfolgte die Radioiodtherapie nach einem funktionsoptimierten Konzept mit dem Ziel (150 Gy), eine Euthyreose zu erreichen. 79 Patienten wurden nach ablativem Konzept mit dem Ziel einer posttherapeutischen Hypothyreose behandelt. Die Dosis in dieser Gruppe betrug bei 19 Patienten 200 Gy; bei 29 Patienten 250 Gy; bei 15 Patienten 275 Gy und bei 16 Patienten 300 Gy. In 21% aller Fälle erfolgte die Therapie bei Erstmanifestation, bei 15% nach dem 1. Rezidiv und bei 64 % nach dem 2. Rezidiv. Bezüglich der Thyreostase, der Stoffwechsellage und des prätherapeutischen Radioiod-Uptakes waren die Gruppen nicht signifikant unterschiedlich. Entsprechend den Therapiekonzepten wurde bei funktionsorientiertem Konzept im Median 372 MBq als Aktivität errechnet und 400 MBq appliziert (14,3 MBq/ml). Für Patienten mit ablativem Therapiekonzept wurden im Median 514 MBq errechnet und 600 MBq appliziert (28,6 MBq/ml). Erreicht wurden in der ersten Gruppe Organdosen zwischen 80 und 380 Gy (Median 180 Gy). Bei 7 Patienten (14%) wurde dabei der angestrebte Bereich nicht erreicht, bei 27 Patienten (57%) erreicht und bei 13 Patienten (29%) überschritten. Der Variationskoeffizient lag bei 52%. In der Gruppe mit ablativem Ziel erreichten die Organdosen 56-685 Gy (Median 275 Gy). Bei 67 der 79 Patienten (85%) lag die erreichte Dosis wie geplant oder höher, bei 12 Patienten (15%) wurde die angestrebte Dosis nicht erreicht. Nur bei 3 der 47 Patienten (6%) wurde eine Euthyreose erreicht. Eine Hyperthyreose lag dagegen bei 22 Patienten (47%) vor. 22 Patienten (47%) wiesen posttherapeutisch eine Hypothyreose auf. Dagegen waren in der Gruppe mit ablativer Therapie 61 Patienten (77%) wie erwünscht hypothyreot und 18 (23%) hatten eine Resthyperthyreose. Patienten, die nach der ablativen Radioiodtherapie eine erwünschte Hypothyreose erreichten, hatten eine kürzere eff. HWZ und einen höherer Radioiod-Uptake (4,7 Tage; 52%) als Therapieversager (5,4 Tage; 49%) sowie ein geringeres Schilddrüsenvolumen nach der Behandlung (7,2±4,7 vs. 21,5±13,3 ml). Zehn Patienten nach ablativer Therapie (n=10) hatten trotz erreichter Dosis >250 Gy eine Resthyperthyreose. Das Schilddrüsenvolumen lag bei diesen Patienten zwischen 14 und 70 ml (Mittelwert: 29,5 ml). Die posttherapeutische Volumenreduktion war bei funktionsorientierter Therapie geringer als bei ablativem Konzept (um 55% vs. 65%). Die TRAK und anti-TPO-AK-Titer waren in beiden Gruppen gegenüber dem Ausgangswert angestiegen. Dabei waren die posttherapeutischen Konzentrationen bei funktionsoptimiertem Konzept höher als nach ablativer Therapie. Die Radioiodtherapie wurde in beiden Gruppen gut toleriert. Beschwerden durch eine strahleninduzierte Thyreoiditis zeigten sich bei 13 Patienten (10%), die mit Eiskrawatte und nichtsteroidale Antiphlogistika behandelt wurden. Unter Cortisonprophylaxe (n=29) wurde nur bei einem Patienten eine Verschlechterung der vorbestehenden EO beobachtet. Das Schilddrüsenvolumen wurde als wesentlicher, den Therapieerfolg bestimmender Parameter bei ablativem Konzept in der multivariaten Analyse identifiziert. So hatten Patienten mit einem Schilddrüsenvolumen ab 25 ml ein 10-fach höheres Risiko für ein Versagen der Radioiodtherapie in Relation zu Patienten, die eine Schilddrüse <25 ml hatten. Die Radioiodtherapie mit ablativen Dosen erweist sich in einem Iodmangelgebiet gegenüber der funktionsorientierten Behandlung als eine effektivere Therapie. Dieses Konzept geht mit niedrigerem Risiko der Verschlechterung einer vorbestehenden EO (unter Cortisonprophylaxe) einher. Es stellt sich bei diesem Konzept heraus, dass die Thyreostase in niedriger Dosierung keinen bedeutenden Einfluss auf den Therapieerfolg hatte. Die Auswertung der Daten bestätigt, dass die aktuell verwendete individuelle Dosisplanung mittels Radioiodtest eine präzise Abschätzung der notwendigen Aktivität erlaubt. Ausgehend von Ergebnissen diese Studie erscheint bei ablativem Konzept eine volumenadaptierte Korrektur der Zieldosis sinnvoll: während bei Schilddrüsenvolumina zwischen 25-40 ml eine Dosis von 250 Gy (entsprechend aktuellen Empfehlungen der Leitlinie der DGN) optimal ist, sollten bei Volumina > 40 ml höhere Zieldosen gewählt werden. Bei Patienten mit Schilddrüsenvolumina < 20 ml ist eine Dosis von 200 Gy ausreichend.
Die Diskussion der letzten Jahre um Managervergütungen, insbesondere seit der Mannesmann-Übernahme, hat Defizite in der lex lata hierzu ausgemacht. Dies und die weitgehende Nichtbefolgung der Empfehlungen des Deutschen Corporate Governance-Kodex zur Transparenz der Vorstandsvergütungen durch die große Mehrzahl der börsennotierten Gesellschaften erfordern eine Reaktion des Gesetzgebers. Eine gesetzliche Regelung erübrigt sich auch dann nicht, wenn sich künftig eine Mehrheit der börsennotierten Gesellschaften den Empfehlungen des Kodex anschließen sollte. Die Gründe hierfür im einzelnen und die Zielrichtung des Entwurfs ergeben sich aus der beigefügten Entwurfsbegründung. Der Kodex soll nicht entbehrlich gemacht, sondern durch einen gesetzlichen Mindeststandard unterstützt und ergänzt werden. Zusammengefaßt sieht der folgende Gesetzesvorschlag eine Veröffentlichung aller Vorstandsbezüge in börsennotierten Gesellschaften im Anhang zum Jahres- und Konzernabschluß vor. Dabei sollen als Mindeststandard die Angaben für das höchstbezahlte Vorstandsmitglied individualisiert, unter Namensnennung, erfolgen müssen. Die Angaben sind vom Abschlußprüfer zu prüfen. Ferner hat der Aufsichtsrat in seinem Bericht an die Hauptversammlung zur Angemessenheit der Vorstandsbezüge und zur Vergütungspolitik der Gesellschaft Stellung zu nehmen; die Aktionäre als die materiell Betroffenen können in der Hauptversammlung hierzu Fragen stellen und durch den Entlastungsbeschluß ihre Billigung oder Mißbilligung zum Ausdruck bringen. Der Gesetzesvorschlag setzt auf Transparenz und lehnt die Einführung weiterer materieller Kriterien zur Bemessung oder Begrenzung von Vorstandsvergütungen jenseits des § 87 AktG wie Deckelung der Vergütung durch absolute Höchstbeträge oder Bindung an Arbeitnehmervergütungen o.ä. ab. Insgesamt schließt sich der Entwurf Vorbildern entwickelter Kapitalmarktrechte, insbesondere der britischen Lösung an, die gleichfalls auf zwingende detaillierte Offenlegungs-, Prüfungs- und Rechenschaftspflichten setzt und deren Einführung und Befolgung nicht der freiwilligen Selbstregulierung überläßt.
Ziel der vorliegenden Arbeit ist die Entwicklung, Aufbau und Inbetriebnahme eines Funnelsystems zur Zusammenführung zweier Teilchenstrahlen, bestehend aus zwei Injektionssystemen, zwei RFQ-Beschleunigern, Hochfrequenz-Deflektoren und Diagnoseeinheiten. Die Aufgabe des Experiments ist die praktische Umsetzung eines neuartigen Verfahrens zur Strahlstromerhöhung bei im Idealfall gleichbleibender Emittanz und steigender Brillanz. Notwendig wird dies durch die benötigten hohen Strahlströme im niederenergetischen Bereich einiger zukünftiger geplanter Beschleunigeranlagen. Hier kann der Strahlstrom nicht mehr konventionell von einer einzigen Ionenquelle erzeugt werden. Nur durch die Parallelerzeugung mehrerer Teilchenstrahlen sowie mehrfachem Zusammenführen (Funneling) der Teilchenstrahlen ist es möglich, die notwendigen Strahlströme bei der geforderten kleinen Emittanz zur Verfügung zu stellen. Das Frankfurter Funneling-Experiment ist die skalierte erste HIDIF-Funneling-Stufe als Teil eines Fusionstreibers. Hier werden zwei möglichst identische Helium-Teilchenstrahlen von zwei Ionenquellen erzeugt und in zwei RFQ-Beschleunigern beschleunigt. Der Deflektor biegt die Teilchenstrahlen reißverschlussartig auf eine gemeinsame Strahlachse. Am Anfang der Arbeit stand die Optimierung des Betriebs der Beschleunigerkomponeten und die Entwicklung und der Aufbau eines Einzellendeflektors. Erste erfolgreiche Strahlexperimente zur Strahlvereinigung werden im Kapitel 7.5 vorgestellt. Die Phasenraumellipse des zusammengeführten Strahls zeigt starke bananenförmige Deformierungen, die auf eine schlechte Anpassung des RFQ an den Funnel-Deflektor zurückzuführen sind. Das Elektrodendesign des RFQ ist in zwei unabhängige Bereiche unterteilt. Die erste Zone dient der Beschleunigung der Teilchen. In der zweiten Zone soll erstmals ein sogenannter 3D-Fokus der Strahlradien der x- und y-Ebene und einer longitudinaler Fokussierung erreicht werden. Der zweite Abschnitt bestand für erste Strahltests aus zunächst unmodulierten Elektroden. Zur besseren Anpassung des RFQ an den Funneldeflektor wurde dann das letzte Elektrodenteil erneuert. Der Umbau erfolgte zunächst nur bei einem der beiden RFQ-Beschleuniger. Somit war der direkte Vergleich zwischen altem und neuen Elektrodendesign im Strahlbetrieb möglich. Mit diesem neuen Elektrodenendteil wurde eine Reduktion der Strahlradien der x- sowie y-Ebene, eine bessere longitudinalen Fokussierung sowie eine höhere Transmission erreicht (Kapitel 8). Damit ist es erstmals gelungen mit einer speziellen Auslegung der RFQ-Elektroden eine direkte Anpassung an nachfolgende Elemente zu realisieren. Untersuchungen zur Strahlzusammenführungen werden seit einigen Jahren am Institut durchgeführt. Mit der Entwicklung des 3D-matchers wurde ein weiteres der kritischen Probleme gelöst. Der Umbau des zweiten Beschleunigers findet zur Zeit statt. Nach der Inbetriebnahme werden Funneling-Experimente mit dem Einspalt- und einem neuem Vielspaltdeflektor folgen.
Um zu prüfen, ob das individuelle Risiko einer Flugreisethrombose anhand der Entstehung eines der ersten klinischen Symptome, der Ödembildung im Bereich der unteren Extremität abgeschätzt werden kann, nahmen 70 Probanden an einer simulierten 12-stündigen Flugreise teil. Der Versuch fand in einer Unterdruckkammer statt, in der die Probanden unter entsprechenden atmosphärischen und klimatischen Verhältnissen auf einer originalen Flugzeugbestuhlung saßen. Die Luftfeuchtigkeit in der Kammer war technisch limitiert und mit durchschnittlich 52% erheblich über dem angestrebten Sollwert von unter 20%. Die 70 Probanden waren in drei Riskogruppen aufgeteilt. 20 Probanden (28,6%) hatten eine gesicherte APC-Resistenz und hatten eine länger als 12 Monate zurückliegende Thrombose erlitten. 25 Teilnehmer (35,7%) gehörten zu der Gruppe, bei denen eine APC-Resistenz bekannt war, aber keine Thrombose in der Vorgeschichte. Die Kontrollgruppe bestand aus 25 Probanden (35,7%), die weder eine APC-Resistenz noch eine Thrombose in der Anamnese vorwiesen. Es bestand eine gleiche Geschlechts- und der Altersverteilung. Unmittelbar vor und nach dem Versuch wurde eine standardisierte optoelektronische Messung der Unterschenkelvolumina durchgeführt. Es konnte hier eine signifikante Zunahme des gemessenen Volumens ermittelt werden. Dieses Volumen des venösen Ödems betrug durchschnittlich 118ml (3,6%). Zwischen dem Ausmaß des Ödems und den Variablen Alter, Geschlecht, BMI und Trinkmenge bestand kein signifikanter Zusammenhang. Ebenfalls konnte zwischen den drei Risikogruppen „APC mit Thrombose“, „APC ohne Thrombose“ und der „Kontrollgruppe“ kein signifikanter Unterschied in Bezug auf das Unterschenkelödem nachgewiesen werden. Des weiteren konnte entgegen der Erwartungen ein Abfall des Hämatokrits festgestellt werden. Dieses Ergebnis ist jedoch auf Grund der relativ hohen Trinkmenge von 1300ml und der zu hohen Luftfeuchtigkeit während des Versuches von eingeschränkter Bedeutung. Bei keinem der Probanden konnte vor und nach dem Versuch bei der duplexsonographischen Untersuchung der unteren Extremität ein Strömungshindernis beobachtet werden. Im Rahmen dieser Studie kam es bei einem männlichen Probanden mit bekannter APC-Resistenz und einer Thromboseanamnese in beiden Unterschenkeln zu einem Zwischenfall. Ein 62 Jahre alter Teilnehmer entwickelte nach Abschluss der simulierten Flugreise eine Unterschenkelvenenthrombose. An dem später thrombosierten Bein wurde eine um zwei Standardabweichungen größere Ödembildung dokumentiert, was jedoch ebenso bei 7 anderen Probanden aller Risikogruppen beobachtet werden konnte. Schlussfolgerung: Es konnte zwischen den von uns zusammengestellten Risikogruppen und dem Ausmaß des Unterschenkelödems kein signifikanter Zusammenhang nachgewiesen werden. Bei dem Probanden, der eine Thrombose entwickelte, konnte retrospektiv eine um zwei Standardabweichungen größere Volumenzunahme des betroffenen Unterschenkels beobachtet werden. Ein ausgeprägtes Unterschenkelödem sollte als ein absolutes Warnzeichen verstanden werden, ist aber nicht als zuverlässiges Frühzeichen zu werten.
Der Untersuchungszeitraum von 9 Monaten und die Vergabe der Evaluation der Beratungsstelle der LZKH an die Poliklinik für Zahnerhaltungskunde des ZZMK der Universitätsklinik in Frankfurt (Carolinum) ergeben eine gute Vorraussetzung für eine repräsentative und objektive Beurteilung des bestehenden Services. Der bestehende Service der LZKH stellt eine gute Grundlage dar, was durch die positive Beurteilung der Ratsuchenden bestätigt wird. Diese zeigt, dass die bestehende Beratung die For-derungen des Präsidenten der LZKH nach einer unabhängigen und qualitativ hochwertigen Beratung bereits meist erfüllt. Möchte sich die Beratungsstelle allerdings gegen andere Konkurrenten, und vor allem gegen die geplante Beratungsstelle der Regierung behaupten [6], [25], [38], [57], [58], so muss der Service in einigen Punkten noch verbessert werden. Ein beträchtlicher Mangel stellte die Namensliste der Zahnärzte einer bestimmten Fachrichtung dar, die nur in den wenigsten Fällen mit der Spezialisierung des Zahnarztes übereinstimmte. Es müsste also für jedes Fachgebiet eine neue Liste erstellt werden, und diese in regelmäßigen Abständen aktualisiert werden. Im Bereich „Behandlung unter Anästhesie“ ist dies bereits erfolgt und weitere sind laut Aussage der LZKH geplant. Die Hilfe bei Rechnungsfragen dauerte bei Einsendung der Unterlagen mit bis zu sechs Wochen eindeutig zu lange, denn der Patient muss die Rechnung meist innerhalb von 4 Wochen begleichen. Die Beraterinnen der LZKH können laut eigener Aussage allerdings auf Grund des hohen Arbeitsaufkommens, auch in ihren anderen Tätigkeitsbereichen, die Überprüfung nicht schneller durchführen. Zusätzliche Mitarbeiter/innen wären in diesem Fall die einzige Lösungsmöglichkeit. Um sich in Hessen zu etablieren und für jeden Bürger zur Verfügung stehen zu können, sollte eine wesentlich breit gefächerte in Information in verschiedensten Medien durchgeführt werden. Denn viele Anrufer gaben an, nur durch Zufall auf die Nummer der Hotline gestoßen zu sein. Dieser Zustand entspricht derzeit also nicht einem Service, der allen Bürgern zugänglich ist, wie es das Ministerium für Gesundheit gefordert hat. Des weiteren müsste der Zugriff auf die beratenden Zahnärzte besser organisiert werden, denn es gab einige Fälle, in denen eine Beratung durch einen Zahnarzt nötig gewesen wäre, aber zum Zeitpunkt der Anfrage kein Zahnarzt verfügbar war. Ein Einsatzplan der beratenden Zahnärzte oder ein pensionierter bzw. berufsunfähiger Zahnarzt, der sich jedoch auf dem neusten Stand der Zahnmedizin befindet, sind die Lösungsmöglichkeiten dieses Problems. Eine persönlichen Vorstellung mit eventueller kurzer Befundaufnahme durch einen Zahnarzt wäre absolut wünschenswert, da einige Probleme nur mit einer genauen Diagnose qualitativ hochwertig lösbar sind [18]. Dieser Service müsste jedoch nicht für alle Ratsuchenden zur Verfügung stehen, sondern nur für diejenigen, denen per Telefon keine zufriedenstellende Lösung angeboten werden konnte. Allerdings dürfte der Telefonservice nicht vernachlässigt werden, denn viele Ratsuchenden sehen in dessen schnellen Hilfe den Hauptvorteil, denn hier entfällt die Wartezeit auf einen Termin. Außerdem gibt es einige Patienten, die aus psychischen oder physischen Gründen keinen Arzt aufsuchen können und so die telefonische Beratung oft die einzige Möglichkeit darstellt, um an Informationen zu gelangen [30], [70]. Diese genannten Ergänzungen würden zu einer Optimierung des bestehenden Beratungsser-vices führen, wodurch sich die Beratungsstelle gegenüber anderen Anbietern und vor allem dem Plan der Regierung, weitere Beratungsstellen zu gründen, behaupten könnte. Die Durchführbarkeit ist allerdings eine Kostenfrage, denn die LZKH möchte auch weiterhin dem Patienten ihren Service kostenfrei anbieten. Aus diesem Grund muss der Vorstand der LZKH abwägen, welche Verbesserungsvorschläge mit den vorhandenen finanziellen Mitteln durchgeführt werden können. Die Fortschritte der Veränderungen und eventuell auftretende neue Aspekte sollten regelmäßig durch befragen der Ratsuchenden überprüft werden. Trotz der genannten Mängel, ist die Forderung der Regierung nach einer bundesweiten Beratungsstelle, die dem Patienten gesundheitliche Informationen sowie Beratung und Aufklärung bieten sollen [55], nicht angebracht. Denn diese Forderungen erfüllt der bestehende Service der LZKH bereits. Aber nicht nur in Hessen hat der Patient diese Möglichkeit der Informationsfindung, sondern auch in allen anderen Bundesländern [79]. Der Nachteil anderer Anbieter ist die fragliche fachliche Kompetenz [55], [80], wenn sie keine Berater einsetzen, die aus dem zahnmedizinischen Bereich stammen, bzw. diese nicht auf dem neusten Stand der zahnmedizinischen Entwicklung sind. Wird das Feld durch die Krankenkassen besetzt, so ist hier das Problem die Neutralität, da diese nicht wirtschaftlich unabhängig sind. Außerdem erfolgt hier, im Gegensatz zu den Landeszahnärztekammern, oftmals erst die Beratung, wenn bereits ein Behandlungsfehler erfolgt ist [17]. Die durch die Regierung geplanten Beratungsstellen weisen nicht nur eine fragliche Kompetenz auf, sondern sollen aus Mitteln der Krankenkassen, und somit also durch den Patienten, finanziert werden [50]. Der Präsident der LZKH sieht dies sehr kritisch und betonte in einem Interview gegenüber der Pressereferentin der LZKH, dass in Zeiten knapper Ressourcen im Gesundheitswesen der von Bundesgesundheitsministerin Fischer mit Millionenbeträgen aus Mitteln der GKV geplante Aufbau von Patientenberatungsstellen absolut unnötig und überflüssig ist. Aus diesen Gründen versucht nicht nur die LZKH, sondern auch einige andere Zahnärztekammern, wie zum Beispiel die Landeszahnärztekammer Sachsen [25] und die Landeszahnärztekammer Baden-Württemberg [57], den Versuchen der Krankenkassen, Verbraucherorganisationen und Regierung mit einer besseren Alternative entgegenzutreten. Die Landeszahnärztekammer Hessen hat mit dieser Untersuchung einen wichtigen Schritt in Richtung Qualitätssicherung und Etablierung gegenüber anderer Anbieter unternommen. Voraussetzung ist allerdings, dass zumindest ein Teil der Verbesserungsvorschläge realisiert werden.
Die vorliegende Arbeit befaßte sich mit der Untersuchung der Funktion und der Regulation des neuronalen GABA-Transporter 1 der Maus (mGAT1). Der mGAT1 ist ein elektrogener Neurotransmittertransporter, der in Gegenwart von GABA in Abhängigkeit des Membranpotentials und des Na+-Konzentrationsgradienten über der Membran einen sogenannten mGAT1-vermittelten Strom generiert. Der mGAT1 wurde in Oozyten von Xenopus laevis exprimiert und mit elektro-physiologischen Methoden (Two-Electrode Voltage Clamp), mit radioaktiven Auf-nahmemessungen (3H-GABA, 22Na+, 36Cl-) und mit biochemischen Methoden untersucht. In der vorliegenden Arbeit konnte unter Verwendung des Tiagabin –Analogons SKF-89976-A gezeigt werden, daß der mGAT1-vermittelte Strom aus zwei Komponenten besteht, einem Transportstrom und einem Transporter-assoziierten Strom. Dabei wurde die hier gewonnene neue Erkenntnis genutzt, daß SKF-89976-A die Transporter-assoziierte Stromkomponente selektiv blockieren kann. Als Ursache des Transportstroms konnte die in der Literatur angenommene Transportstöchiometrie von 1GABA : 2Na+ : 1Cl- bewiesen werden. Als Ursache des Transporter-assoziierten Stroms konnte eine vom GABA-Transport entkoppelte Na+-spezifische Leitfähigkeit in Gegenwart von GABA identifiziert werden, die drei bis fünfmal größer ist als die Transport-Leitfähigkeit selbst. Transportstrom und Transporter-assoziierter Strom scheinen von zwei unterschiedlichen Konformeren des mGAT1 vermittelt zu werden, die nicht miteinander im Gleichgewicht stehen. In Abwesenheit von GABA ist in der Stromantwort auf einen Spannungspuls ein mit der Zeit abfallender transienter Strom zu beobachten. Hinsichtlich dieses langsamen transienten Stroms des mGAT1 konnte ein Bindungsmodell für Na+ und Cl- in Abwesenheit von GABA entwickelt werden. Nach diesem Modell kommt es vor der Bindung von GABA am Transporter zu einer sequentiellen Bindung zweier Na+-Ionen und eines Cl--Ion. Regulation des mGAT1 konnte durch Phosphorylierung bzw. Dephosphorylierung des mGAT1 mittels PKC und PP2B gezeigt werden. Dabei scheint der mGAT1-vermittelte Strom durch Serin- / Threonin-Phosphorylierung verstärkt zu werden. Durch Koinjektion von mGAT1-cRNA und humaner Hirn-mRNA konnte der mGAT1 zusammen mit unbekannten zytosolischen bzw. Membranproteinen des humanen Hirns koexprimiert werden. Dabei wird die Transportrate des mGAT1 signifikant gesteigert; der mGAT1-vermittelte Strom wird nicht signifikant beeinflußt. Es scheint, daß eines oder mehrere der koexprimierten humanen Proteine die Bildung des Transport-Modus bzw. die Bildung des Kanal-Modus mit beeinflussen.
Der T-Zell-Wachstumsfaktor Interleukin-2 (IL-2) wird von Antigen-stimulierten T-Zellen sezerniert und spielt eine wichtige Rolle bei der zellulären Immunantwort. Dabei tragen in aktivierten T-Zellen die MAPK-Signalwege, der Calcineurin/NF-AT-Signalweg und der NF-KB-Signalweg kooperativ zur IL-2-lnduktion bei. In den letzten Jahren wurden mehrere Hinweise gefunden, dass IL-2 möglicherweise bei der HIV- und SIV-Pathogenese eine Rolle spielt. Zwei Publikationen konnten bereits eine verstärkte IL-2-Sekretion HIV-1-infizierter T-Zellen nachweisen, die molekularen Mechanismen dieser IL-2-Induktion sind bisher allerdings kaum untersucht. In der vorliegenden Arbeit konnte gezeigt werden, dass das apathogene simiane Immundefizienzvirus der Afrikanischen Grünen Meerkatze (SIVagm3) in suboptimal stimulierten PBMC ebenfalls die Interleukin-2-Sekretion verstärken kann. In der humanen T-Zelllinie A3.01 wurde nach Transfektion des Volllängenplasmids des SIVagm3 eine bis zu 38-fach verstärkte transkriptionelle Aktivierung des IL-2-Promotors beobachtet. Die Untersuchung der beteiligten Signalwege zeigte, dass die MAP-Kinasen ERK, JNK/SAPK und p38 für die IL-2-Induktion durch SIVagm3 notwendig sind, während die Inhibition der Calcineurin-Aktivität durch das Immunsuppressivum Cyclosporin A keinen Einfluss hatte. In Übereinstimmung mit diesem Ergebnis zeigte die Analyse der Transkriptionsfaktorbindungsstellen des IL-2-Promotors keine Aktivierung der NF-AT-kontrollierten Genexpression durch SIVagm3, womit zum ersten Mal ein Calcineurin/NF-AT-unabhängiger Weg der IL-2-Induktion beschrieben wurde. Dagegen erhöhte SIVagm3 die transkriptionelle Aktivität des NF-KB-responsiven Elements und die Aktivität des CD28/AP-1-responsiven Elements, die auch bei der klassischen T-Zellaktivierung eine Rolle spielen. Eine Aktivierung der CD28/AP-1-kontrollierten Genexpression konnte auch durch Expression des viralen Transaktivator-Proteins Tat induziert werden, das in stimulierten Zellen in der Lage war, die IL-2-Expression zu verstärken. Die Beschränkung dieser Tat-Funktion auf stimulierte Zellen konnte aber nicht auf eine Phosphorylierung von SIVagm3-Tat durch die MAP-Kinasen ERK, JNK/SAPK oder p38 zurückgeführt werden. Weitere Analysen zeigten dagegen, dass SIVagm3-Tat durch die Cyclin-abhängige Proteinkinase 9 (CDK9) phosphoryliert wird, die mit Tat koimmunpräzipitiert. Darüberhinaus konnte eine weitere nicht-identifizierte Tat-assoziierte Kinase nachgewiesen werden, die SIVagm3-Tat ebenfalls phosphorylieren kann. Aktuelle Publikationen zeigen, dass das lentivirale Vif-Protein die Degradation von Apobec3G im Proteasom induziert, da dieser zelluläre Faktor die Infektiosität der entstehenden Viruspartikel stark reduziert. Die antivirale Funktion von Apobec3G, die in der Deaminierung der Minusstrang-DNA während der reversen Transkription besteht, ist bereits weitgehend aufgeklärt, aber über die Regulation von Apobec3G ist noch wenig bekannt. In dieser Arbeit konnte gezeigt werden, dass die Aktivierung der mitogenen Raf/MEK/ERK-Signalkaskade durch den Phorbolester TPA zu einer verstärkten Apobec3G-Expression führt. Dieser Effekt konnte durch den Proteinkinase C (PKC)-Inhibitor Staurosporin und den MEK-Inhibitor U0126 inhibiert werden, wodurch gezeigt wurde, dass die Aktivität der MAP-Kinase ERK für die Verstärkung der Apobec3G-Expression notwendig ist. Eine Phosphorylierung von Apobec3G durch ERK wurde im Kinase-Assay jedoch nicht beobachtet. Dagegen konnte durch radioaktive in-vivo-Markierung nachgewiesen werden, dass es sich bei Apobec3G nicht um ein Phosphoprotein handelt. Neben den Untersuchungen zur Regulation von Apobec3G, konnten neue Erkenntnisse zu den Apobec3G/Vif-Interaktionen gewonnen werden. Durch Koimmunpräzipitationsstudien wurde die physikalische Interaktion von Vif und Apobec3G nachgewiesen. Zudem konnte gezeigt werden, dass in Gegenwart von Vif der Einbau von Apobec3G in die Viruspartikel gehemmt wird. Damit wurden erste Hinweise gefunden, dass Vif neben der Induktion des proteolytischen Abbaus von Apobec3G weitere Strategien anwendet, um die Inkorporation des antiviralen Faktors zu verhindern.
Inhibition des Stat3-Signalweges durch Peptid-Aptamere : ein neuer Ansatzpunkt für die Tumortherapie
(2004)
In der vorliegenden Arbeit konnten durch den Einsatz modifizierter Hefe-zwei-Hybrid-Screens erstmals Peptid-Aptamere isoliert werden, die spezifisch mit verschiedenen funktionellen Domänen von Stat3 interagieren und dadurch den Stat3-Signalweg auf unterschiedlichen Ebenen inhibieren. Als Zieldomänen im Hefe-zwei-Hybrid-System wurden die Dimerisierungs- bzw. die DNA-Bindedomäne von Stat3 verwendet. Nach der erfolgreichen Identifikation von Peptid-Aptameren im modifizierten Hefe-zwei-Hybrid-System war es zunächst notwendig, die spezifische Interaktion der isolierten Peptid-Aptamere mit Stat3 zu demonstrieren. Die in vitro Interaktion der isolierten Peptid-Aptamere mit dem gesamten Stat3-Molekül wurde in Ko-Immunopräzipitationsexperimenten gezeigt. Im Folgenden bestätigte sich die spezifische Interaktion der isolierten Peptid-Aptamere mit ihren jeweiligen funktionellen Domänen von Stat3 in Hefen mittels Mating-Experimenten. In den nächsten Schritten sollte die Bioaktivität der isolierten Peptid-Aptamere bei der Inhibition des Stat3-Signalweges in verschiedenen Zellsystemen validiert werden. Zunächst konnten in Herc-Zellen, die den Stat3-Signalweg nach exogenem Stimulus (EGF) aktivieren, die molekularen Wirkungs-mechanismen, die der Inhibition des Stat3-Signalweges durch die Peptid-Aptamere zugrunde liegen, aufgeklärt werden. Durch den Einsatz eines biochemisch-molekularbiologischen Methodenrepertoires (Western Blot Analysen, Reportergen-Analysen, und Gelretardierungsexperimente) zeigte sich, dass die verschiedenen selektionierten Peptid-Aptamere mit dem Aktivierungsszenario des Stat3-Signalweges auf zwei unterschiedlichen Ebenen, der Phosphorylierung bzw. der DNA-Bindung von Stat3, interferieren. Um die mögliche Anwendung der isolierten Peptid-Aptamere als potentielle Stat3-Inhibitoren in Tumorerkrankungen zu analysieren, wurden die Untersuchungen auf Tumorzelllinien mit konstitutiv-aktivem Stat3 (murine Melanomazelllinie B16 und humane Myelomazelllinie U266) ausgeweitet. Durch die zelluläre Applikation der für die isolierten Peptid-Aptamere codierenden DNA mittels Transfektion ergaben sich erste Einblicke über den Einfluss der isolierten Peptid-Aptamere auf die transkriptionelle Aktivität von Stat3. In weiteren Untersuchungen konnte eindrucksvoll gezeigt werden, dass durch die transiente Expression eines Peptid-Aptamers (DBD-1) Apoptose in murinen Melanomazellen induziert wird. Die biologische Aktivität des DBD-1 Peptid-Aptamers wurde dann mit Hilfe einer innovativen Methode zur zellulären Applikation von potentiell wirksamen Bio-Molekülen in eukaryotische Zellen studiert. Dabei konnte im Rahmen der vorliegenden Arbeit die Methode der Proteintransduktion für die Applikation von Peptid-Aptameren etabliert werden. Durch den Einsatz der Proteintransduktion ließ sich die Funktionalität des isolierten DBD-Peptid-Aptamers nicht nur in murinen, sondern auch in humanen Stat3-abhängigen Tumorzellen verifizieren. Dabei konnte auch eine Dosis-Wirkungsbeziehung zwischen der Überlebensrate von Stat3-abhängigen Tumorzellen und der Menge an applizierten Peptid-Aptamer hergestellt werden. Darüber hinaus demonstrieren weitere Ergebnisse, dass das DBD-1 Peptid-Aptamer keinen Einfluss auf die Überlebensrate von nicht-Stat3-abhängigen Tumorzellen hat, wodurch die hohe Spezifität des DBD-1 Peptid-Aptamers bestätigt wird. Zusätzlich zu diesen funktionellen Analysen konnte der durch das Peptid-Aptamer induzierte Signalweg, der die Einleitung des programmierten Selbstmordes der Stat3-abhängigen Tumorzellen auslöst, charakterisiert werden. Die vorliegenden Daten zeigen zudem die Funktionalität der rekombinant exprimierten Peptid-Aptamere fusioniert mit einer Proteintransduktionsdomäne in einem in vivo Tumormodell in der Maus. Für diesen tierexperimentellen Ansatz fanden B16-Tumorzellen Verwendung, die nach subkutaner Injektion in Mäusen lokale Tumore bilden. In diesem Tumormodell wurde mittels intratumorale Injektion des transduzierbaren DBD-Peptid-Aptamers ein viel versprechender, wachstumshemmender Effekt auf Tumorzellen erzielt. Die Ergebnisse der vorliegenden Arbeit belegen, dass Stat3 ein ideales Zielprotein für die Entwicklung neuer Tumortherapeutika ist. Dabei stellt nicht nur die Dimerisierungsdomäne, sondern auch die DNA-Bindungsdomäne ein attraktives Ziel für die Inhibition des Transkriptionsfaktors Stat3 dar. Die viel versprechenden Daten sowohl an Tumorzellen als auch im Gesamtorganismus des Maustumormodells, verbunden mit der hier herausgearbeiteten innovativen Applikationstechnik, lassen auf einen Einsatz der isolierten Peptid-Aptamere in der Tumortherapie hoffen. Zudem eröffnen die Daten zur Protein-transduktion von Peptid-Aptameren neue Perspektiven für die Applikation von Bio-Molekülen mittels „Protein-Therapie“ in der molekularen Bio-Medizin.
The hypothesis that oxidative stress plays a role in the pathogenesis of Alzheimer’s disease (AD) was tested by studying oxidative damage, acitvities of antioxidant enzymes and levels of reactive oxygen species (ROS) in several models. To this end, mouse models transgenic for mutant presenilin (PS1M146L) as well as mutant amyloid precursor protein (APP) and human post mortem brain tissue from sporadic AD patients and age-matched controls were studied. Aging leads to an upregulation of antioxidant enzyme activities of Cu/Zn-superoxide dismutase (Cu/Zn-SOD), glutathione peroxidase (GPx) and glutathione reductase (GR) in brains from C57BL/6J mice. Simultaneously, levels of lipid peroxidation products malondialdehyde MDA and 4-hydroxynonenal HNE were reduced. Additionally, pronounced gender effects were observed, as female mice display better protection against oxidative damage due to higher activity of GPx. Hence, antioxidant enzymes provide an important contribution to the protection against oxidative damage. In PS1M146L transgenic mice oxidative damage was only detectable in 19-22 months old mice, arguing for an additive effect of aging and the PS1 mutation. Both HNE levels in brain tissue as well as mitochondrial and cytosolic levels of ROS in splenic lymphocytes were increased in PS1M146L mice. Antioxidant defences were unaltered. In PDGF-APP and PDGF-APP/PS1 trangenic mice no changes in any of the parameters studied were observed in any age group. In contrast, Thy1-APP transgenic mice display oxidative damage as assessed by increased HNE levels. Reduced activity of Cu/Zn-SOD may explain this observation. Additionally, gender modified this effect, as female APP transgenic mice display higher b-secretase cleavage of APP and simultaneously increased HNE levels and reduced Cu/Zn-SOD activity earlier than male mice, i.e. from an age of 3 months and before the formation of Ab plaques. Reduced Cu/Zn-SOD activity was also found in another APP transgenic mouse model, in APP23 mice. In post mortem brain tissue from sporadic AD patients activities of Cu/Zn-SOD and GPx were however increased, and changes were most pronounced in temporal cortex. Simultaneously, levels of HNE but not MDA were elevated. Additionally, in vitro stimulation of lipid peroxidation led to increased MDA formation in samples from AD patients, indicating that increased activity of Cu/Zn-SOD and GPx are insufficient to protect against oxidative damage. Furthermore, the observed changes were subject to a gender effect, as samples from female AD patients showed increased activities of Cu/Zn-SOD and GPx as well as increased HNE levels, indicating that brain tissue from females is more sensitive towards oxidative damage. Levels of soluble Ab1-40 were positively correlated with with MDA levels and activities of Cu/Zn-SOD and GPx. Additionally, levels of lipid peroxidation products MDA and HNE are gene-dose-dependently modulated by the Apolipoprotein E4 allele, the most important genetic risk factor for AD known so far. While MDA levels were negatively correlated with MMSE scores, a measure for cognitive function, HNE levels were highest in AD patients with moderate cognitive impairment. Hence, increased HNE levels may play an important role in neurodegenerative events at an early disease stage. In summary, oxidative damage, as assessed by increased HNE levels, could be detected in sporadic AD patients and in different transgenic mouse models. The results of this thesis therefore support the further research of pharmacological targets aiming at augmentation of antioxidant defences for therapy or prophylaxis of Alzheimer’s disease.