Refine
Year of publication
- 2004 (1780) (remove)
Document Type
- Article (669)
- Doctoral Thesis (281)
- Part of a Book (153)
- Part of Periodical (143)
- Working Paper (114)
- Review (111)
- Conference Proceeding (77)
- Book (60)
- Preprint (55)
- Report (47)
Language
- German (1224)
- English (509)
- French (17)
- Portuguese (9)
- Multiple languages (6)
- Spanish (6)
- mis (4)
- Italian (2)
- Turkish (2)
Keywords
- Johann Wolfgang von Goethe (38)
- Deutsch (34)
- Frankfurt <Main> / Universität (29)
- Deutschland (27)
- Syntax (27)
- Rezension (24)
- Generative Transformationsgrammatik (23)
- Wortstellung (21)
- Anton Ulrich <Braunschweig-Wolfenbüttel (19)
- Herzog> / Octavia (19)
Institute
- Medizin (152)
- Physik (107)
- Extern (91)
- Biochemie und Chemie (69)
- Wirtschaftswissenschaften (57)
- Rechtswissenschaft (51)
- Biowissenschaften (38)
- Erziehungswissenschaften (31)
- Universitätsbibliothek (31)
- Center for Financial Studies (CFS) (30)
Europäische Bankkonzerne sind nicht nur verpflichtet, konsolidierte Jahresabschlüsse zu erstellen, sie müssen seit Mitte der achtziger Jahre darüber hinaus ihr gesamtes regulatives Eigenkapital im Wege eines weiteren Konsolidierungsverfahrens ermitteln. Dieses Verfahren hat der deutsche Gesetzgeber im Kreditwesengesetz kodifiziert. Der folgende Beitrag erörtert offene Fragen, die sich bei Anwendung der kreditwesenrechtlichen Vorschriften über die Kapitalkonsolidierung stellen, und zeigt die Konsequenzen auf, die das Konsolidierungsverfahren auf die Geschäftsentfaltungsmöglickeiten der Konzernunternehmen hat. Die anschließende Analyse der Zweckmäßigkeit des Verfahrens soll belegen, dass sich die Pflicht zur Durchführung einer besonderen bankaufsichtsrechtlichen Kapitalkonsolidierung kaum rechtfertigen lässt. Der Autor plädiert daher für deren Abschaffung und für die Einführung einer generellen Pflicht zur Unterlegung von Bank-an-Bank Beteiligungen mit Haftungsmitteln.
Die antivirale Funktion der RNA-abhängigen Adenosin-Desaminase bei der angeborenen Immunantwort
(2004)
Die angeborene Immunantwort von Säugetieren ist die erste wirkungsvolle Barriere gegen eindringende Pathogene, die sowohl Infektionen als auch die Entstehung von Neoplasien verhindern kann. Insbesondere wird durch sie die Ausbreitung und Replikation von Viren wirksam bekämpft. Bei RNA-Viren wird die angeborene Immunabwehr in infizierten Zellen von der doppelsträngigen RNA aktiviert, die während der Replikation oder Transkription dieser Viren entsteht. Es kommt zur Sezernierung von Interferon-alpha und -beta (IFN-alpha/beta), die wiederum die Expression einer Reihe von antiviralen Proteinen stimulieren. Eines dieser Proteine ist die IFN-alpha-induzierbare RNA-abhängige Adenosin Desaminase (iADAR-1). Ziel dieser Arbeit war es, die Rolle der iADAR-1 in der Immunabwehr näher zu charakterisieren. Bisher wurde die antivirale Aktivität der iADAR-1 gegen verschiedene Virusstämme, deren Genome Adenosin zu Guanosin (A->G) Hypermutationen aufweisen, nur angenommen, jedoch noch nicht direkt gezeigt [4]. In dieser Arbeit wurde am Beispiel des Glykoproteins (GP) des lymphozytären Choriomeningitis Virus (LCMV) untersucht, ob solche A->G Mutationen im viralen Genom tatsächlich durch die iADAR-1 verursacht werden und ob dadurch die Funktion der viralen Proteine und damit die Infektiösität von LCMV reduziert wird. Des Weiteren wurde die Induktion der iADAR-1 durch die Infektion mit LCMV und die Wirkung der iADAR-1 auf die Replikation von LCMV analysiert. Bekannt war nur, dass die iADAR-1 durch IFN-alpha selbst oder durch die Infektion von Makrophagen mit Adenoviren induziert wird. In dieser Arbeit wurde erstmals für Fibroblasten, neuronale Zellen und in vivo in Mäusen nachgewiesen, dass die iADAR-1 direkt durch die Infektion mit LCMV hochreguliert wird. Dies ist ein weiterer Hinweis, dass die iADAR-1 zu den antiviralen Effektormolekülen der angeborenen Immunabwehr zählt. LCMV induzierte die Expression der iADAR-1 sowohl auf mRNA- als auch auf Proteinebene. Im Gegensatz zu Vaccinia- und Adenoviren, die die Aktivität der iADAR-1 inhibieren [5, 6], konnte bei der Infektion von SH-SY5Y-Zellen mit LCMV keine reduzierte Aktivität der iADAR-1 festgestellt werden. Ferner konnte das schon in anderen Viren beobachtete A->G Hypermutationsmuster nun auch für LCMV bestätigt werden. Sowohl in vitro in L929-Zellen als auch in vivo in Mäusen wurde eine erhöhte A->G Mutationsfrequenz gefunden, die zwischen 50 und 75 % aller Mutationen in der S-RNA von LCMV ausmacht. Dies zeigte sich vor allem in der späten Phase der Infektion, also zu Beginn der Persistenz. Insgesamt wurden zu diesem Zeitpunkt in L929-Zellen 27 % und in der Maus 15 % nicht funktionelles LCMV-GP synthetisiert. Zudem wurde die Relevanz der A->G Hypermutationen für die beeinträchtigte Funktion des GPs deutlich, da sie 62 % der nicht infektiösen GP-Moleküle verursachen. Die desaminierende Wirkung der iADAR-1 auf das virale Genom von LCMV wurde in 293T-Zellen direkt gezeigt. A->G Mutationen in der S-RNA von LCMV nahmen durch die Überexpression der iADAR-1 in 293T-Zellen um 40 % zu. Ebenso wurde die Replikation bzw. das Assembly von Virionen durch die iADAR-1 reduziert, da im Vergleich zu Kontrollzellen der LCMV-Titer im Überstand von iADAR-1-überexprimierenden Zellen wesentlich niedriger war. Des Weiteren konnte bestätigt werden, dass die A->G Mutationen nicht durch die virale Polymerase induziert werden. Hierfür wurden iADAR-1 „knockout“ murine embryonale Fibroblasten (MEF) isoliert und als stabile Zelllinie etabliert. In diesen Zellen war kein A->G Hypermutationsmuster in der LCMV-RNA zu erkennen. In MEF wt war ebenfalls kein A->G Hypermutationsmuster nachweisbar. Der Grund hierfür könnte die im Vergleich zu L929-Zellen deutlich geringere basale iADAR-1-Expression der nicht völlig ausdifferenzierten MEFs sein.
Das Bankgeheimnis stellt weder ein absolutes Verbot der Weitergabe kundenbezogener Informationen noch ein Verbot der Abtretung von Forderungen gegen Kunden dar. Die aus dem Bankgeheimnis folgende Pflicht zur vertraulichen Behandlung von Informationen über Kunden wird ihrerseits durch immanente Grenzen beschränkt, soweit es die Ausübung von Gläubigerrechten der Bank in Frage steht. Eine Veräußerung und Abtretung von Forderungen und die dafür notwendige Weitergabe der Kundendaten wird daher durch das Bankgeheimnis nicht ausgeschlossen. Das Bankgeheimnis verpflichtet die Bank allerdings dazu, bei der Ausübung ihrer Gläubigerrechte die Vertraulichkeit der Informationen über die Geschäftsbeziehung so weit wie nur möglich zu wahren. Weitergehende Schranken zieht auch das Datenschutzrecht der Verwaltung und Verwertung von Forderungen durch die Bank nicht.
This Article concerns the duty of care in American corporate law. To fully understand that duty, it is necessary to distinguish between roles, functions, standards of conduct, and standards of review. A role consists of an organized and socially recognized pattern of activity in which individuals regularly engage. In organizations, roles take the form of positions, such as the position of the director. A function consists of an activity that an actor is expected to engage in by virtue of his role or position. A standard of conduct states the way in which an actor should play a role, act in his position, or conduct his functions. A standard of review states the test that a court should apply when it reviews an actor’s conduct to determine whether to impose liability, grant injunctive relief, or determine the validity of his actions. In many or most areas of law, standards of conduct and standards of review tend to be conflated. For example, the standard of conduct that governs automobile drivers is that they should drive carefully, and the standard of review in a liability claim against a driver is whether he drove carefully. Similarly, the standard of conduct that governs an agent who engages in a transaction with his principal is that the agent must deal fairly, and the standard of review in a claim by the principal against an agent, based on such a transaction, is whether the agent dealt fairly. The conflation of standards of conduct and standards of review is so common that it is easy to overlook the fact that whether the two kinds of standards are or should be identical in any given area is a matter of prudential judgment. In a corporate world in which information was perfect, the risk of liability for assuming a given corporate role was always commensurate with the incentives for assuming the role, and institutional considerations never required deference to a corporate organ, the standards of conduct and review in corporate law might be identical. In the real world, however, these conditions seldom hold, and in American corporate law the standards of review pervasively diverge from the standards of conduct. Traditionally, the two major areas of American corporate law that involved standards of conduct and review have been the duty of care and the duty of loyalty. The duty of loyalty concerns the standards of conduct and review applicable to a director or officer who takes action, or fails to act, in a matter that does involve his own self-interest. The duty of care concerns the standards of conduct and review applicable to a director or officer who takes action, or fails to act, in a matter that does not involve his own self-interest.
Anmerkungen zum Urteil des BGH vom 24. November 2003, II ZR 171/01 : Das Urteil des BGH vom 24. 11. 2003 verschärft das Recht der Kapitalerhaltung empfindlich. Der Leitsatz, Kreditgewährungen an Gesellschafter, die nicht aus Rücklagen oder Gewinnvorträgen, sondern zu Lasten des gebundenen Vermögens der GmbH erfolgen, sind auch dann grundsätzlich als verbotene Auszahlung von Gesellschaftsvermögen zu bewerten, wenn der Rückzahlungsanspruch gegen den Gesellschafter im Einzelfall vollwertig sein sollte und die zugehörigen Urteilsgründe lassen erhebliche Auswirkungen nicht nur auf das Finanzierungsgebaren kleiner Gesellschaften, um die es in dem vom BGH entschiedenen Fall ging, sondern auch auf die Möglichkeiten der Innenfinanzierung großer Konzerne befürchten.
When performance measures are used for evaluation purposes, agents have some incentives to learn how their actions affect these measures. We show that the use of imperfect performance measures can cause an agent to devote too many resources (too much effort) to acquiring information. Doing so can be costly to the principal because the agent can use information to game the performance measure to the detriment of the principal. We analyze the impact of endogenous information acquisition on the optimal incentive strength and the quality of the performance measure used.
Es wurde eine Meßstation zum Vermessen von THz-Photomischern vorgestellt und aufgebaut. Weiterhin konnte gezeigt werden, wie diese Station es ermöglicht, das Vermessen von THz-Photomischern, im Vergleich zum bisher verwendeten Meßaufbau, deutlich zu vereinfachen und zu beschleunigen. Mit dieser Station wurden zwei Proben, die sich in der Dicke der LT-GaAs-Schicht unterscheiden, vermessen. Um die gemessenen Daten analysieren zu können wurden zuvor beschrieben, wie eine Modulation des Photostroms in Photomischern erhalten und damit THz-Strahlung erzeugt werden kann. Gemessen wurde die THz-Leistung in Abhängigkeit von Frequenz , Vorspannung und Leistung der optischen Beleuchtung. Diese Messungen haben zu Ergebnissen geführt, die nur zum Teil mit den theoretisch vorhergesagten Ergebnissen übereinstimmen. So wurde festgestellt, daß nur etwa 1 bis 2 % der theoretisch erwarteten THz-Leistung detektiert wurde. Dies kann an langlebigen Ladungsträgern liegen, die im Substrat erzeugt werden. Diese Ladungsträger unterhalb der LT-GaAs-Schicht führen zu einer erhöhten Leitfähigkeit und können dadurch Reflexion und Absorption von THz-Strahlung verursachen. Diese Vermutung wird unterstützt durch die Beobachtung einer starken Reduktion des Signals in einem gepulsten THz-System, wenn eine konstante Hintergrundbeleuchtung eingeschaltet wird.[45] Weiterhin ist nicht auszuschließen, daß die für die THz-Erzeugung relevante Lebenszeit der Ladungsträger deutlich größer ist, als die mit Anrege-Abfrage-Messungen bestimmte. Analog könnte auch eine deutlich höhere Kapazität des Photomischers als die theoretisch berechnete diese Beobachtung erklären. Ob langlebige Ladungsträger im Substrat für die geringe gemessen Leistung verantwortlich sind kann überprüft werden, indem zwischen Substrat und LT-GaAs-Schicht einen Bragg-Refelektor gewachsen wird. So kann verhindert werden, daß eingestrahlte Leistung das Substrat erreicht. Dadurch können keine Ladungsträger im Substrat angeregt werden. Zusätzlich hat dies den Effekt, daß ein größerer Anteil der eingestrahlten Strahlung absorbiert werden kann, weil die einfallende Strahlung wegen der Reflexion zweimal durch die LT-GaAs-Schicht läuft. Ein solcher Mischer wurde bereits von E. R. Brown vorgeschlagen.[46] Bei den Messungen der THz-Leistung gegen Vorspannung konnte beobachtet werden, daß der Photostrom eine andere Abhängigkeit von der Vorspannung zeigt, als theoretisch vorhergesagt wurde. Erwartet wurde ein linearer Zusammenhang. Bei höheren Vorspannungen wurde aber ein stärkerer Anstieg beobachtet. Dies kann z.B. an einem zusätzlichen nichtlinearen Strom durch das Substrat oder an einer vom elektrischen Feld abhängigen Lebenszeit der Ladungsträger liegen. Für beide Erklärungsansätze wurden vereinfachte Modelle vorgestellt. Beide Modelle treffen dabei unterschiedliche Vorhersagen über die Änderung der Effizienz beim Auftreten des höheren Stromes. Deutlich werden die Unterschiede in den Vorhersagen im Frequenzverlauf. So führt ein zusätzlicher Strom durch das Substrat zu einer Verringerung der Effizienz um einen von der Frequenz unabhängigen konstanten Faktor. Der Frequenzverlauf verschiebt sich also zu geringeren Effizienzen. Eine Erhöhung der Lebenszeit hingegen führt zu einem geänderten Frequenzverlauf. So ist die Änderung der Effiienz bei niedirgen Frequenzen gering, zu höheren Frequenzen hin ändert sich die Effizienz jedoch immer stärker. Die Vorhersagen beider Modelle wurden mit dem gemessenen Daten verglichen. Bei den gegebenen Parametern war der Unterschied zwischen den beiden Modellen jedoch zu gering und die Fluktuation in den Meßdaten zu hoch, um entscheiden zu können, welches der beiden Modelle die gemessenen Daten besser beschreibt. Um erkennen zu können, welches der Modelle den Effekt beschreibt, der zu einem höheren Strom führt, müßte der Effekt in den Meßdaten erhöht werden. Dies kann geschehen, indem zusätzlich bei höheren Spannungen gemessen wird. Es müßte dabei allerdings die optische Leistung reduziert werden, um ein Zerstören der Mischer zu vermeiden. In dieser Arbeit konnte somit gezeigt werden, daß die aufgebaute Meßstation ein vereinfachtes Messen von THz-Photomischern ermöglicht. Weiterhin konnte das Verhalten von zwei vermessenen Mischern gezeigt und analysiert werden, sowie weitere Messungen vorgeschlagen werden, die eine exaktere Analyse der Photomischer ermöglichen sollten.
The volume is a collection of papers given at the conference “sub8 -- Sinn und Bedeutung”, the eighth annual conference of the Gesellschaft für Semantik, held at the Johann-Wolfgang-Goethe-Universität, Frankfurt (Germany) in September 2003. During this conference, experts presented and discussed various aspects of semantics. The very different topics included in this book provide insight into fields of ongoing Semantics research.
Die Wirkung der 3-Hydroxy-3-Methylglutaryl-CoA-Reduktasehemmer ist auf die Blockierung der Isoprenoid-Bildung in der Cholesterin-de-novo-Synthese zurückzuführen. Unter Statin-Behandlung von glatten Gefäßmuskelzellen kommt es im Zytoplasma zur Akkumulation der inaktiven GTPase Rac, die für ihre Aktivierung Geranylgeranylpyrophosphat zur Verankerung in die Plasmamembran benötigt. Nach Stimulation von Agonisten wie Angiotensin II und Thrombin hemmen Statine die Rac-abhängige NADPH-Oxidase, die eine wichtige Quelle der vaskulären Sauerstoffradikalproduktion (ROS) ist. Die Senkung der ROS-Bildung hat die Blockierung der Phosphorylierung von ERK 1/2 und p38 MAP-Kinase und der Expression redox-sensitiver Gene zur Folge. In der vorliegenden Arbeit werden Untersuchungen an kultivierten glatten Muskelzellen zusammengefasst, die zeigen sollen, dass der Statin-Entzug in der Expression pro-inflammatorischer Gene resultiert, die eine bedeutende Rolle bei der Entwicklung und Progression der Arteriosklerose spielen. Es wurde nachgewiesen, dass der Entzug von Cerivastatin in vorbehandelten glatten Gefäßmuskelzellen zur Induktion von MCP-1 und Tissue Faktor (TF) mRNA führt. Die Steigerung der Expression von MCP-1 hat schließlich eine relevante MCP-1 Freisetzung zur Folge. Im Falle von TF ist die Expression so ausgeprägt, dass es auch zu einer Erhöhung der Aktivität von TF an der Zellmembran kommt. Durch Zusatz von Geranylgeranylpyrophosphat und Mevalonsäure kann die Wirkung der HMG-CoA-Reduktasehemmer wieder aufgehoben werden. Unter dem Einfluss der Hemmstoffe PD98059, SB203580 und Diphenyleniodonium (DPI) wird die durch Abbruch der Statin-Behandlung bedingte Expression des proarteriosklerotischen Faktors unterdrückt. Diese Beobachtung lässt die Beteiligung von ERK 1/2, p38 MAP-Kinase und NADPH-Oxidase an der Signaltransduktion zu. Der Entzug von Statinen führt zu einer Steigerung der Phosphorylierung der MAP-Kinasen und zu einer Verstärkung der ROS-Bildung. Da die Produktion von Sauerstoffradikalen vermutlich als Folge der Aktivierung der Rac-abhängigen NADPH-Oxidase ist, wurde der Effekt des Entzuges auf die Rac-Translokation in der Zelle untersucht. Es zeigte sich, dass die Unterbrechung der Behandlung mit HMG-CoA-Reduktasehemmer mit einer überschiessenden Translokation der GTPase vom Zytoplasma an die Plasmamembran verbunden ist. Aus den erhobenen Befunden kann somit gefolgert werden, dass der Entzug von Statinen in einer Aktivierung von Rac und konsekutiver ROS-Bildung resultiert. Durch die Aktivierung der nachfolgenden Signaltransduktionskaskaden kommt es zu einer Induktion von MCP-1 und Tissue Faktor.
Ziel der Nachuntersuchung war es, 10 Jahres Ergebnisse nach arthroskopischer vorderer Kreuzbandplastik mittels Patellarsehne zu erhalten. Dafür wurden 74 Patienten, 55 Männer und 19 Frauen mit einem durchschnittlichen Alter von 38 Jahren im Mittel 113 Monaten nach arthroskopischer vorderer Kreuzbandplastik mit Interferenzschraubenfixation nachuntersucht. Evaluiert wurden die IKDC Evaluation, die Tegner - Aktivitätsskala und der Lysholm - Score. Die Bandstabilität wurde instrumentell mit dem Rolimeter getestet. Die statistische Auswertung erfolgte mittels c² Test. Die Tegner - Aktivitätsskala ergab ein durchschnittliches Aktivitätsniveau von 5,2. Vor der Verletzung lag der Wert bei 6,4. Der Lysholm - Score erreichte 93,6 von 100 Punkten. Hinsichtlich der Funktion wurden 74% und hinsichtlich der Stabilität 72% der Patienten in der IKDC Evaluation als normal bzw. als fast normal bewertet. Der mit dem Rolimeter bestimmte Lachman Test war in 88% normal und in 12% fast normal. Der pivot-shift Test war in 95% der Fälle negativ. 30% der Patienten zeigten in den Röntgenaufnahmen zum Nachuntersuchungszeitpunkt deutlich degenerative Veränderungen. Es ergibt sich eine signifikante Korrelation zwischen der Zeitdauer vom Unfall bis zur operativen Versorgung und dem Arthrosegrad. Die Beschwerden an der Transplantatentnahmestelle korrelieren signifikant mit den allgemeinen Symptomen. Das Ausmaß der Arthrose korreliert signifikant mit der Mensikusschädigung. Zur Vermeidung der Folgearthrose sollte daher bei gegebener Indikation eine frühzeitige Kreuzbandversorgung und im Falle der Begleitmeniskusverletzung dessen Erhalt mittels Refixation angestrebt werden.
In dieser Arbeit werden Untersuchungen über die Anwendbarkeit von vier Methoden zur selektiven Einführung von Radikalen in DNA vorgestellt. Hierzu wurde die EPR-Spektroskopie (Elektronen-paramagnetische Resonanz) benutzt. Die selektive Einführung und Erzeugung von Radikalen in DNA ist nötig, um J-Kopplungen in DNA zu untersuchen. Vor dem Fernziel der Bestimmung der Austauschkopplungskonstanten J in biradikalischer DNA und deren Korrelation mit der charge-transfer-Geschwindigkeitskonstanten kCT stellen diese Untersuchungen einen wichtigen Ausgangspunkt dar. Stabile aromatische Nitroxide. Simulationen von Raumtemperatur-CW-X-Band-EPRSpektren fünf verschiedener aromatischer Nitroxide, welche potentielle DNA-Interkalatoren sind, wurden durchgeführt. Die aromatischen Nitroxide zeigen aufgelöste Hyperfeinkopplungen, welche zu dem Schluss führen, dass die Spindichte in hohem Maße delokalisiert ist, was die Verwendung dieser Verbindungen zur Messung von J-Kopplungen in biradikalischer DNA erlaubt. Transiente Guanin-Radikale. Transiente Guanin-Radikale werden in DNA selektiv durch die Flash-Quench-Technik erzeugt, bei der optisch anregbare Ruthenium-Interkalatoren verwendet werden. Transiente Thymyl-Radikale aus UV-bestrahltem 4'-Pivaloyl-Thymidin. Es werden photoinduzierte Prozesse untersucht, welche durch Bestrahlung von Thymin-Nukleosiden, die an der 4’-Position die optisch spaltbare Pivaloyl-Gruppe tragen, erzeugt werden. Dieses Nukleosid wurde speziell dafür entworfen, um Elektronenlöcher in DNA zu injizieren. In dieser Arbeit wird gezeigt, dass diese Verbindung benutzt werden kann, um selektiv eine Thymin-Base zu reduzieren. Transiente Thymyl-Radikale erzeugt durch ein neuartig modifiziertes Thymin nach UV-Bestrahlung. Photoinduzierte Prozesse, welche durch Bestrahlung eines ähnlichen Thymidin-Nukleosids erzeugt wurden, werden hier untersucht. Dieses Thymidin- Nukleosid wurde modifiziert, indem die optisch spaltbare Pivaloyl-Gruppe an eine Seitenkette angehängt wurde, welche an der C6-Position der Thymin-Base sitzt. Die Thymin-Base wurde speziell dafür entworfen, um Elektronen in DNA zu injizieren. In dieser Arbeit wurde bestätigt, dass ein Überschuss-Elektron selektiv auf eine Thymin-Base transferiert werden kann.
Die in Englisch verfasste Dissertation, die unter der Betreuung von Herrn Prof. Dr. H. F. de Groote, Fachbereich Mathematik, entstand, ist der Mathematischen Physik zuzuordnen. Sie behandelt Stonesche Spektren von Neumannscher Algebren, observable Funktionen sowie einige Anwendungen in der Physik. Das abschließende Kapitel liefert eine Verallgemeinerung des Kochen-Specker-Theorems. Stonesche Spektren und observable Funktionen wurden von de Groote eingeführt. Das Stonesche Spektrum einer von Neumann-Algebra ist eine Verallgemeinerung des Gelfand-Spektrums, die observablen Funktionen verallgemeinern die Gelfand-Transformierten. Da de Grootes Ergebnisse zum großen Teil unveröffentlicht sind, folgt nach dem Einleitungskapitel im zweiten Kapitel eine Übersichtsdarstellung dieser Ergebnisse. Das dritte Kapitel behandelt die Stoneschen Spektren endlicher von Neumann-Algebren. Für Algebren vom Typ In wird eine vollständige Charakterisierung des Stoneschen Spektrums entwickelt. Zu Typ-II1-Algebren werden einige Resultate vorgestellt. Das vierte Kapitel liefert. einige einfache Anwendungen des Formalismus auf die Physik. Das fünfte Kapitel gibt erstmals einen funktionalanalytischen Beweis des Kochen-Specker-Theorems und liefert die Verallgemeinerung dieses Satzes, wobei die Situation für alle von Neumann-Algebren geklärt wird.
Im Rahmen der Arbeit wurde eine Methodik zur umfassenden und automatischen Identifizierung von nativen Peptiden aus Extrakten komplexer biologischer Quellen entwickelt und am Beispiel des humanen Hämofiltrats angewendet. Die Firma BioVisioN führt seit der Gründung Forschung auf dem Gebiet der Peptide und kleinen Proteine mit dem Ziel, diagnostisch und therapeutisch relevante Substanzen zu finden, durch. Die Analyse sogenannter Peptidome, der qualitativen und quantitativen Beschreibung aller nativen Peptide und kleinen Proteinen bis ca. 15 kDa, ist als Analogon zur Proteom-Analytik zu verstehen, welche sich umfassend mit Proteinen beschäftigt. Quantitativ wird ein Peptidom über die Kombination chromatographischer Trennung und Fraktionierung mit der massenspektrometrischen „Inventarisierung“ der einzelnen Peptidspezies sowie den relativen Konzentrationen in der Probe erfasst, welches an anderer Stelle ausführlich beschrieben ist. Das Ergebnis einer solchen Peptidomanalyse besteht aus einer Peptidkarte, die die Peptide der Probe repräsentativ abbildet. Die Qualität eines Peptidoms wird über die Massen der Peptide, deren Aminosäuresequenzen und Elutionsverhalten und weitere biologische Informationen beschrieben. Zu diesen Zweck wird der Begriff des Peptide-Inventory eingeführt. Ein Inventory besteht aus allen verfügbaren Informationen nativer Peptide einer Quelle. Zu Beginn der Arbeit standen mit der reproduzierbaren Erstellung von Peptidbanken und deren systematischer Kartierung über MALDI-MS bereits zwei Werkzeuge zur Verfügung, um Daten eines Inventories zu erheben. Lediglich für die Erzeugung der Sequenzdaten wurde mit dem Edman-Abbau zwar eine etablierte, aber viel zu langsame und wenig sensitive Methode eingesetzt. Hier wurde der Ersatz durch eine schnelle und leicht zu automatisierenden Methode angestrebt. Die massenspektrometrische Sequenzierung über MS/MS mit anschließender Datenbanksuche ist ein aus der Proteom-Analytik durchaus bekanntes Verfahren, musste aber für die Analyse der nativen Peptide in einigen Bereichen modifiziert werden. Obwohl die Massenspektrometrie Peptide direkt aus komplexen Mischungen heraus identifizieren kann, stellte sich schnell heraus, dass die vorliegende biologische Beispielprobe (humanes Blutfiltrat) zu komplex war, um sie direkt für die geplante Sequenzierung einzusetzen. Es wurde eine erneute Auftrennung und Feinkartierung der Peptidbank notwendig. Jede dritte Fraktion wurde rechromatographiert und anschließend wiederum kartiert. Die entstandenen 97 Peptidkarten enthalten im Linear Modus ca. 100.000 Signale und im Reflektron Modus ca. 30.000 Signale, so dass nach der Feinkartierung > 10.000 native, im menschlichen Körper zirkulierende Peptide durch diese Methode dargestellt werden können. Zur Automatisierung der Kartierungsmessungen mit MALDI-MS wurde im Laufe dieser Arbeit ein Autosampler für ein MALDI-TOF-MS-System entwickelt und implementiert (DiskJockey). Das System hat eine Kapazität von 20 MALDI-Targets und ist vollständig über die Gerätesoftware steuerbar, so dass MALDI-MS-Messungen vollständig automatisiert über mehrere Tage ablaufen können. Zur Erzeugung der Sequenzdaten wurde eine Kombination aus elektrischer Ionenfalle und Datenbanksuche angewendet. Um zu gewährleisten, dass nur die zuvor kartierten Peptide einer MS/MS-Messung unterzogen werden, wurde das Softwaretool Alcatrap entwickelt. Diese Software übernimmt aus MALDI-MS-Messungen die Werte der monoisotopischen Peaks, überführt sie in mehrfach geladene Spezies und erstellt sowohl eine Methode für das MS-Gerät, als auch eine in die Gerätesoftware importierbare Arbeitsliste. Hierbei wird jeweils die Kollisionsenergie in Abhängigkeit der m/z-Wertes dynamisch gesetzt. Um den Datentransfer vom Fragmentspektrum zur Datenbanksuchmaschine zu gewährleisten, wurde mit „D2M“ eine weitere Softwareschnittstelle entwickelt. Die Erstellung des Inventories aus humanem Hämofiltrat liefert 1.225 verschiedene native, im menschlichen Blut zirkulierende Peptide aus 146 Proteinvorläufern. Darunter befinden sich mehrere Peptide, die neben ihrer physiologischen Bedeutung auch eine potenzielle medizinische Relevanz besitzen. Weiterhin ist auch der dynamische Bereich von acht Größenordnungen, in dem Sequenzen erzeugt wurden, vergleichbar mit dem des menschlichen Blutes. Eine Charakterisierung von Peptidomen ist in diesem Umfang bisher noch nicht durchgeführt worden und stellt eine Neuerung in der Proteomforschung dar. Die Studie ist durchaus vergleichbar mit kürzlich veröffentlichten umfangreichen Proteomstudien aus menschlichem Plasma und Serum und stellt eine Ergänzung dieser für den Bereich der Peptide und kleinen Proteine dar. Limitierungen bei der Identifizierung von Peptiden mit der Ionenfalle wurden analysiert und mit der Adaptierung des Peptide-Inventory Konzepts auf hochauflösende Quadrupol-Time-of-Flight Massenspektrometer zufriedenstellend gelöst. In diesem Rahmen wurde eine Methode entwickelt, die es ermöglicht, native Peptide bis zu einem Molekulargewicht von bis zu 8.500 Da direkt aus der komplexen Mischung zu fragmentieren und über eine Datenbanksuche zu identifizieren. Außerdem konnte exemplarisch gezeigt werden, dass durch die größere Massengenauigkeit und das größere Auflösungsvermögen des QTOF die Datenbanksuche wesentlich effektiver ist und durch die Kombination von Rechromatographie und QTOF-MS/MS nahezu jedes Signal einer Peptidbank der Identifizierung zugänlich gemacht werden kann. Sowohl die integrierte Methodik der Herstellung eines Peptide-Inventories, als auch die in dieser Arbeit erzielten Ergebnisse von nativen Peptiden in humanem Blut stellen wissenschaftliche Neuerungen dar, auf denen eine weitergehende Peptidom-Analytik aufsetzen kann.
Die Ermittlung von Proteinstukturen mittels NMR-Spektroskopie ist ein komplexer Prozess, wobei die Resonanzfrequenzen und die Signalintensitäten den Atomen des Proteins zugeordnet werden. Zur Bestimmung der räumlichen Proteinstruktur sind folgende Schritte erforderlich: die Präparation der Probe und 15N/13C Isotopenanreicherung, Durchführung der NMR Experimente, Prozessierung der Spektren, Bestimmung der Signalresonanzen ('Peak-picking'), Zuordnung der chemischen Verschiebungen, Zuordnung der NOESY-Spektren und das Sammeln von konformationellen Strukturparametern, Strukturrechnung und Strukturverfeinerung. Aktuelle Methoden zur automatischen Strukturrechnung nutzen eine Reihe von Computeralgorithmen, welche Zuordnungen der NOESY-Spektren und die Strukturrechnung durch einen iterativen Prozess verbinden. Obwohl neue Arten von Strukturparametern wie dipolare Kopplungen, Orientierungsinformationen aus kreuzkorrelierten Relaxationsraten oder Strukturinformationen, die sich in Gegenwart paramagnetischer Zentren in Proteinen ergeben, wichtige Neuerungen für die Proteinstrukturrechnung darstellen, sind die Abstandsinformationen aus NOESY-Spektren weiterhin die wichtigste Basis für die NMR-Strukturbestimmung. Der hohe zeitliche Aufwand des 'peak-picking' in NOESY-Spektren ist hauptsächlich bedingt durch spektrale Überlagerung, Rauschsignale und Artefakte in NOESY-Spektren. Daher werden für das effizientere automatische 'Peak-picking' zuverlässige Filter benötigt, um die relevanten Signale auszuwählen. In der vorliegenden Arbeit wird ein neuer Algorithmus für die automatische Proteinstrukturrechnung beschrieben, der automatisches 'Peak-picking' von NOESY-Spektren beinhaltet, die mit Hilfe von Wavelets entrauscht wurden. Der kritische Punkt dieses Algorithmus ist die Erzeugung inkrementeller Peaklisten aus NOESY-Spektren, die mit verschiedenen auf Wavelets basierenden Entrauschungsprozeduren prozessiert wurden. Mit Hilfe entrauschter NOESY-Spektren erhält man Signallisten mit verschiedenen Konfidenzbereichen, die in unterschiedlichen Schritten der kombinierten NOE-Zuordnung/Strukturrechnung eingesetzt werden. Das erste Strukturmodell beruht auf stark entrauschten Spektren, die die konservativste Signalliste mit als weitgehend sicher anzunehmenden Signalen ergeben. In späteren Stadien werden Signallisten aus weniger stark entrauschten Spektren mit einer größeren Anzahl von Signalen verwendet. Die Auswirkung der verschiedenen Entrauschungsprozeduren auf Vollständigkeit und Richtigkeit der NOESY Peaklisten wurde im Detail untersucht. Durch die Kombination von Wavelet-Entrauschung mit einem neuen Algorithmus zur Integration der Signale in Verbindung mit zusätzlichen Filtern, die die Konsistenz der Peakliste prüfen ('Network-anchoring' der Spinsysteme und Symmetrisierung der Peakliste), wird eine schnelle Konvergenz der automatischen Strukturrechnung erreicht. Der neue Algorithmus wurde in ARIA integriert, einem weit verbreiteten Computerprogramm für die automatische NOE-Zuordnung und Strukturrechnung. Der Algorithmus wurde an der Monomereinheit der Polysulfid-Schwefel-Transferase (Sud) aus Wolinella succinogenes verifiziert, deren hochaufgelöste Lösungsstruktur vorher auf konventionelle Weise bestimmt wurde. Neben der Möglichkeit zur Bestimmung von Proteinlösungsstrukturen bietet sich die NMR-Spektroskopie auch als wirkungsvolles Werkzeug zur Untersuchung von Protein-Ligand- und Protein-Protein-Wechselwirkungen an. Sowohl NMR Spektren von isotopenmarkierten Proteinen, als auch die Spektren von Liganden können für das 'Screening' nach Inhibitoren benutzt werden. Im ersten Fall wird die Sensitivität der 1H- und 15N-chemischen Verschiebungen des Proteinrückgrats auf kleine geometrische oder elektrostatische Veränderungen bei der Ligandbindung als Indikator benutzt. Als 'Screening'-Verfahren, bei denen Ligandensignale beobachtet werden, stehen verschiedene Methoden zur Verfügung: Transfer-NOEs, Sättigungstransferdifferenzexperimente (STD, 'saturation transfer difference'), ePHOGSY, diffusionseditierte und NOE-basierende Methoden. Die meisten dieser Techniken können zum rationalen Design von inhibitorischen Verbindungen verwendet werden. Für die Evaluierung von Untersuchungen mit einer großen Anzahl von Inhibitoren werden effiziente Verfahren zur Mustererkennung wie etwa die PCA ('Principal Component Analysis') verwendet. Sie eignet sich zur Visualisierung von Ähnlichkeiten bzw. Unterschieden von Spektren, die mit verschiedenen Inhibitoren aufgenommen wurden. Die experimentellen Daten werden zuvor mit einer Serie von Filtern bearbeitet, die u.a. Artefakte reduzieren, die auf nur kleinen Änderungen der chemischen Verschiebungen beruhen. Der am weitesten verbreitete Filter ist das sogenannte 'bucketing', bei welchem benachbarte Punkte zu einen 'bucket' aufsummiert werden. Um typische Nachteile der 'bucketing'-Prozedur zu vermeiden, wurde in der vorliegenden Arbeit der Effekt der Wavelet-Entrauschung zur Vorbereitung der NMR-Daten für PCA am Beispiel vorhandener Serien von HSQC-Spektren von Proteinen mit verschiedenen Liganden untersucht. Die Kombination von Wavelet-Entrauschung und PCA ist am effizientesten, wenn PCA direkt auf die Wavelet-Koeffizienten angewandt wird. Durch die Abgrenzung ('thresholding') der Wavelet-Koeffizienten in einer Multiskalenanalyse wird eine komprimierte Darstellung der Daten erreicht, welche Rauschartefakte minimiert. Die Kompression ist anders als beim 'bucketing' keine 'blinde' Kompression, sondern an die Eigenschaften der Daten angepasst. Der neue Algorithmus kombiniert die Vorteile einer Datenrepresentation im Wavelet-Raum mit einer Datenvisualisierung durch PCA. In der vorliegenden Arbeit wird gezeigt, dass PCA im Wavelet- Raum ein optimiertes 'clustering' erlaubt und dabei typische Artefakte eliminiert werden. Darüberhinaus beschreibt die vorliegende Arbeit eine de novo Strukturbestimmung der periplasmatischen Polysulfid-Schwefel-Transferase (Sud) aus dem anaeroben gram-negativen Bakterium Wolinella succinogenes. Das Sud-Protein ist ein polysulfidbindendes und transferierendes Enzym, das bei niedriger Polysulfidkonzentration eine schnelle Polysulfid-Schwefel-Reduktion katalysiert. Sud ist ein 30 kDa schweres Homodimer, welches keine prosthetischen Gruppen oder schwere Metallionen enthält. Jedes Monomer enhält ein Cystein, welches kovalent bis zu zehn Polysulfid-Schwefel (Sn 2-) Ionen bindet. Es wird vermutet, dass Sud die Polysulfidkette auf ein katalytischen Molybdän-Ion transferiert, welches sich im aktiven Zentrum des membranständigen Enzyms Polysulfid-Reduktase (Psr) auf dessen dem Periplasma zugewandten Seite befindet. Dabei wird eine reduktive Spaltung der Kette katalysiert. Die Lösungsstruktur des Homodimeres Sud wurde mit Hilfe heteronuklearer, mehrdimensionaler NMR-Techniken bestimmt. Die Struktur beruht auf von NOESY-Spektren abgeleiteten Distanzbeschränkungen, Rückgratwasserstoffbindungen und Torsionswinkeln, sowie auf residuellen dipolaren Kopplungen, die für die Verfeinerung der Struktur und für die relative Orientierung der Monomereinheiten wichtig waren. In den NMR Spektren der Homodimere haben alle symmetrieverwandte Kerne äquivalente magnetische Umgebungen, weshalb ihre chemischen Verschiebungen entartet sind. Die symmetrische Entartung vereinfacht das Problem der Resonanzzuordnung, da nur die Hälfte der Kerne zugeordnet werden müssen. Die NOESY-Zuordnung und die Strukturrechnung werden dadurch erschwert, dass es nicht möglich ist, zwischen den Intra-Monomer-, Inter-Monomer- und Co-Monomer- (gemischten) NOESY-Signalen zu unterscheiden. Um das Problem der Symmetrie-Entartung der NOESY-Daten zu lösen, stehen zwei Möglichkeiten zur Verfügung: (I) asymmetrische Markierungs-Experimente, um die intra- von den intermolekularen NOESY-Signalen zu unterscheiden, (II) spezielle Methoden der Strukturrechnung, die mit mehrdeutigen Distanzbeschränkungen arbeiten können. Die in dieser Arbeit vorgestellte Struktur wurde mit Hilfe der Symmetrie-ADR- ('Ambigous Distance Restraints') Methode in Kombination mit Daten von asymetrisch isotopenmarkierten Dimeren berechnet. Die Koordinaten des Sud-Dimers zusammen mit den NMR-basierten Strukturdaten wur- den in der RCSB-Proteindatenbank unter der PDB-Nummer 1QXN abgelegt. Das Sud-Protein zeigt nur wenig Homologie zur Primärsequenz anderer Proteine mit ähnlicher Funktion und bekannter dreidimensionaler Struktur. Bekannte Proteine sind die Schwefeltransferase oder das Rhodanese-Enzym, welche beide den Transfer von einem Schwefelatom eines passenden Donors auf den nukleophilen Akzeptor (z.B von Thiosulfat auf Cyanid) katalysieren. Die dreidimensionalen Strukturen dieser Proteine zeigen eine typische a=b Topologie und haben eine ähnliche Umgebung im aktiven Zentrum bezüglich der Konformation des Proteinrückgrades. Die Schleife im aktiven Zentrum umgibt das katalytische Cystein, welches in allen Rhodanese-Enzymen vorhanden ist, und scheint im Sud-Protein flexibel zu sein (fehlende Resonanzzuordnung der Aminosäuren 89-94). Das Polysulfidende ragt aus einer positiv geladenen Bindungstasche heraus (Reste: R46, R67, K90, R94), wo Sud wahrscheinlich in Kontakt mit der Polysulfidreduktase tritt. Das strukturelle Ergebnis wurde durch Mutageneseexperimente bestätigt. In diesen Experimenten konnte gezeigt werden, dass alle Aminosäurereste im aktiven Zentrum essentiell für die Schwefeltransferase-Aktivität des Sud-Proteins sind. Die Substratbindung wurde früher durch den Vergleich von [15N,1H]-TROSY-HSQC-Spektren des Sud-Proteins in An- und Abwesenheit des Polysulfidliganden untersucht. Bei der Substratbindung scheint sich die lokale Geometrie der Polysulfidbindungsstelle und der Dimerschnittstelle zu verändern. Die konformationellen Änderungen und die langsame Dynamik, hervorgerufen durch die Ligandbindung können die weitere Polysulfid-Schwefel-Aktivität auslösen. Ein zweites Polysulfid-Schwefeltransferaseprotein (Str, 40 kDa) mit einer fünffach höheren nativen Konzentration im Vergleich zu Sud wurde im Bakterienperiplasma von Wolinella succinogenes entdeckt. Es wird angenommen, dass beide Protein einen Polysulfid-Schwefel-Komplex bilden, wobei Str wässriges Polysulfid sammelt und an Sud abgibt, welches den Schwefeltransfer zum katalytischen Molybdän-Ion auf das aktive Zentrum der dem Periplasma zugewandten Seite der Polysulfidreduktase durchführt. Änderungen chemischer Verschiebungen in [15N,1H]-TROSY-HSQC-Spektren zeigen, dass ein Polysulfid-Schwefeltransfer zwischen Str und Sud stattfindet. Eine mögliche Protein-Protein-Wechselwirkungsfläche konnte bestimmt werden. In der Abwesenheit des Polysulfidsubstrates wurden keine Wechselwirkungen zwischen Sud und Str beobachtet, was die Vermutung bestätigt, dass beide Proteine nur dann miteinander wechselwirken und den Polysulfid-Schwefeltransfer ermöglichen, wenn als treibende Kraft Polysulfid präsent ist.
We investigate transverse hadron spectra from relativistic nucleus-nucleus collisions which reflect important aspects of the dynamics - such as the generation of pressure - in the hot and dense zone formed in the early phase of the reaction. Our analysis is performed within two independent transport approaches (HSD and UrQMD) that are based on quark, diquark, string and hadronic degrees of freedom. Both transport models show their reliability for elementary pp as well as light-ion (C+C, Si+Si) reactions. However, for central Au+Au (Pb+Pb) collisions at bombarding energies above ~ 5 A.GeV the measured K+- transverse mass spectra have a larger inverse slope parameter than expected from the calculation. Thus the pressure generated by hadronic interactions in the transport models above ~ 5 A.GeV is lower than observed in the experimental data. This finding shows that the additional pressure - as expected from lattice QCD calculations at finite quark chemical potential and temperature - is generated by strong partonic interactions in the early phase of central Au+Au (Pb+Pb) collisions.
We investigate hadron production as well as transverse hadron spectra in nucleus-nucleus collisions from 2 A.GeV to 21.3 A.TeV within two independent transport approaches (UrQMD and HSD) that are based on quark, diquark, string and hadronic degrees of freedom. The comparison to experimental data demonstrates that both approaches agree quite well with each other and with the experimental data on hadron production. The enhancement of pion production in central Au+Au (Pb+Pb) collisions relative to scaled pp collisions (the 'kink') is well described by both approaches without involving any phase transition. However, the maximum in the K+/Pi+ ratio at 20 to 30 A.GeV (the 'horn') is missed by ~ 40%. A comparison to the transverse mass spectra from pp and C+C (or Si+Si) reactions shows the reliability of the transport models for light systems. For central Au+Au (Pb+Pb) collisions at bombarding energies above ~ 5 A.GeV, however, the measured K +/- m-theta-spectra have a larger inverse slope parameter than expected from the calculations. The approximately constant slope of K+/-spectra at SPS (the 'step') is not reproduced either. Thus the pressure generated by hadronic interactions in the transport models above ~ 5 A.GeV is lower than observed in the experimental data. This finding suggests that the additional pressure - as expected from lattice QCD calculations at finite quark chemical potential and temperature - might be generated by strong interactions in the early pre-hadronic/partonic phase of central Au+Au (Pb+Pb) collisions.
Bei einigen Krankheiten bekommt die Knochenmarkstransplantation bzw. die Transplantation peripherer Blutstammzellen als Therapiemöglichkeit eine wachsende Bedeutung. Trotz aller Fortschritte birgt diese Therapieform die Gefahr von schwer zu kontrollierenden Komplikationen (Graft-versus-Host-Krankheit, Host-versus-Graft-Krankheit, lebensbedrohliche Infektionen), die die Behandlungsmöglichkeiten einschränken. Die Eigenschaften und Fähigkeiten von Natürlichen Killer-Zellen (NK-Zellen) eröffnen vielversprechende Möglichkeiten, die Komplikationen einer Stammzelltransplantation besser zu kontrollieren. Dafür ist es notwendig, NK-Zellen in möglichst reiner Form und ausreichender Menge bereitzustellen. Seit einigen Jahren stehen verschiedene immunomagnetische Antikörper zur Verfügung, mit denen Zellen gezielt selektiert oder depletiert werden können. Allerdings sind die Herstellerangaben zu Versuchsbedingungen an experimentellen Ansätzen orientiert. Um die Antikörper im klinischen Bereich in entsprechenden Größenordnungen einzusetzen, sind Versuchsansätze in klinischen Größenmaßstäben nötig. In dieser Arbeit wird eine Methode zur immunomagnetischen T-Zell-Depletion bei der Herstellung von NK-Zell-Präparaten untersucht. Mit Hilfe von monoklonalen Antikörpern werden Zellen immunomagnetisch markiert und in einem starken Magnetfeld getrennt. Es wird ein etablierter Einzelantikörper („CD3 MicroBeads“) mit einem neuen Antikörper Kit („NK isolation kit“) verglichen. In der Versuchsreihe sollen die Wahl des Antikörpers, die Antikörpermenge, und die Flussgeschwindigkeit durchs Magnetfeld (Auftraggeschwindigkeit) hinsichtlich ihres Einflusses auf die T-Zell-Depletion, die T-Zell-Restkontamination nach Depletion und den NK-Zell-Ertrag untersucht werden. Bei einem der verwendeten Antikörper („NK isolation kit“) interessiert außerdem die NK-Zell-Reinheit des resultierenden NK-Zell-Präparates. Während die T-Zell-Depletion mit dem „NK isolation kit“ tendenziell größer ist als mit „CD3 MicroBeads“, unterscheiden sich beide Antikörper nicht signifikant in der T-Zell-Restkontamination. Mit „CD3 MicroBeads“ kann allerdings eine verlässlichere T-Zell-Restkontamination mit einer geringeren Schwankungsbreite der Ergebnisse erreicht werden. Weiterhin liefern „CD3 MicroBeads“ einen signifikant höheren NK-Zell-Ertrag, da mit dem „NK isolation kit“ abhängig von der eingesetzten Antikörpermenge und der damit zusammenhängenden Antikörperkonzentration mehr NK-Zellen in der magnetischen Trennsäule verloren gehen. Dabei deutet sich an, dass bei einer höheren Auftraggeschwindigkeit der NK-Zell-Verlust geringer ist. Die Menge der eingesetzten Antikörper korreliert beim „NK isolation kit“ positiv mit der erzielten NK-Zell-Reinheit. Die vorgelegten Ergebnisse zeigen, dass sowohl mit einem Einzelantikörper („CD3 MicroBeads“) also auch mit einem Antikörper-Cocktail („NK isolation kit“) eine ausreichende Depletion von T-Zellen in einem klinischen Maßstab möglich ist. Bei beiden Verfahren kann mit einem Separationsschritt eine höhere T-Zell-Depletion erreicht werden, als mit anderen oder ähnlichen in der Literatur beschriebenen Verfahren. Während mit dem „NK isolation kit“ in einem Depletionsschritt NK-Zell-Präparate mit bis zu 90%iger Reinheit hergestellt werden können, müsste sich nach der T-Zell-Depletion mit „CD3 MicroBeads“ noch eine NK-Zell-Positivselektion anschließen. Während die Auftraggeschwindigkeit von untergeordneter Bedeutung ist, spielt die eingesetzte Antiköpermenge beim „NK isolation kit“ eine signifikante Rolle.
Es wurden Daten von 140 Patienten mit penetrierendem Thorax- und Abdominaltrauma des Zeitraums von 1986 - 06/1996 retrospektiv ausgewertet. Die Patienten wurden anhand einer Reihe von Beurteilungskriterien hinsichtlich Unfallhergang, Verletzungslokalisation, Versorgungsstrategie und Komplikationen während des stationären Aufenthaltes sowie der Letalität untersucht. Von besonderem Interesse waren die prophylaktischen und therapeutischen Antibiotikagaben. Es konnte eine Übersicht hinsichtlich der präklinischen und klinischen Patientenversorgung mit penetrierenden Thorax- und Abdominaltraumen geschaffen werden. Dabei zeigte sich eine mangelhafte Dokumentation zur Erarbeitung der Versorgungsstrategie (Anamnese, Verlauf, etc.) sowie gehäuftes Fehlen einzelner Dokumentationsbögen (Notarzteinsatzprotokoll, Laborbericht, Op-Bericht, etc.). Eine vollständige Bewertung der Versorgungsqualität - und quantität war somit nicht immer möglich. Vorraussetzung zur Identifizierung von Problemen und nachfolgend möglicher Einführung prozessverbessernder Maßnahmen ist jedoch eine solide Datengrundlage. Penetrierende Thorax- und Abdominaltraumen entstanden vor allem im Rahmen von Gewalttaten und Suizidversuchen. Fast die Hälfte der Unfälle ereigneten sich im jungen Erwachsenenalter. Es handelte sich zumeist um isolierte Stichverletzungen bei überwiegend männlichen Patienten. Konkrete Verletzungsmechanismen waren Stich- und Schussverletzungen. Zweihöhlenverletzungen wurden in 10% der Fälle diagnostiziert. Pfählungsverletzungen kamen nicht vor. Es wurden 95% der Patienten chirurgisch behandelt. Davon wurden 67% operiert. Insgesamt 5% der Patienten konnten konservativ behandelt werden. Isolierte penetrierende Thoraxverletzungen wurden bei 46% der Patienten beobachtet. Männer waren deutlich häufiger betroffen wie Frauen. Das durchschnittliche Alter betrug für diese Patienten 33,8 Jahre. An thorakalen Verletzungen wurden überwiegend Pneumo- und / oder Hämatothoraces beobachtet (44% bzw. 31%). Es zeigten sich keine Spannungspneumothoraces. In 6% der Fälle bestanden Verletzungen großer herznaher extrapulmonaler Gefäße. In 12,5% aller penetrierenden Thoraxtraumata wurde das Herz oder der Herzbeutel verletzt. Die Mehrzahl der Patienten (64%) mit Thoraxtrauma konnte mit Thoraxdrainagen suffizient behandelt werden. 4 Patienten konnten unter stationärer Beobachtung primär konservativ behandelt werden. Die Notfallthorakotomie war in 12 Fällen (17%) indiziert. Rethorakotomien waren nicht notwendig. Der durchschnittliche Verletzungsschweregrad I.S.S für Patienten mit Thoraxtrauma betrug 12,6. Die durchschnittliche Gesamthospitalisationszeit bei Patienten mit isolierter thorakaler Verletzung betrug 8,4 Tage. Bei 47 % der Patienten wurde lediglich das Abdomen verletzt. Männer waren deutlich häufiger betroffen wie Frauen. Das durchschnittliche Alter betrug für diese Patienten 30,9 Jahre. Drei Patienten (4,5%) wurden einer konservativen Verlaufsbeobachtung („abdominal observation“) zugeführt. Alle übrigen Patienten (95%) wurden einer operativen Exploration (Laparoskopie / Laparotomie) unterzogen. Die Indikation zur diagnostischen Peritoneallavage wurde nur im Zeitraum 1986 - 1992 gestellt und zunehmend von der Abdomen-Sonographie abgelöst. Es zeigte sich im Beobachtungszeitraum 1992 -1996 ein Rückgang der obligatorischen Laparotomien und zunehmend das Vorgehen der erweiterten Diagnostik mittels Probelaparoskopie. Die Rate positiver Probelaparoskopien lag bei 37,5 %. Die Rate negativer Laparotomien betrug 24%. Bei 6% waren Relaparotomien notwendig. Der durchschnittliche Verletzungsschweregrad I.S.S für Patienten mit Abdominaltrauma betrug 9,2. Die Patienten konnten nach einer im Vergleich zum Thoraxtrauma durchschnittlich längeren Hospitalisationszeit von 11,5 Tage die Klinik wieder verlassen. Es wurden 7% der Patienten mit einem penetrierenden thorakoabdominellen Trauma erfasst. Das Durchschnittsalter betrug 34,4, der durchschnittliche I.S.S. war 22,9. Bei 5 Patienten (50%) war das Zwerchfell mitbetroffen. Alle Patienten wurden zügig laparotomiert und zeigten bei der operativen Exploration eine intrabdominelle Organverletzung. 90% erhielten eine Thoraxdrainage. Die Rate kombinierter Thorakotomie und Laparotomie betrug 20%. Es wurde zuerst die Laparotomie durchgeführt. Postoperativ kam einmal zu einem Spannungspneumothorax. Die Letalitätsrate betrug beim penetrierenden thorakoabdominellen Trauma 10%. Bei insgesamt 34% der Patienten traten postoperativ z.T. mehrere Komplikationen auf. Bei 7 konservativ behandelten Patienten verlief der stationäre Aufenthalt unkompliziert. Die postoperative Morbidität betrug insgesamt 36,8 %. Es handelte sich in 66,7% um definitive lokalisierbare Infektionen wie postoperative Wundinfektionen oder Pneumonien. Das entspricht bei 140 Patienten mit penetrierendem Trauma einer Infektionsrate von 11,4%. Die Inzidenz posttraumatischer Infektionen beim isolierten Thoraxtrauma betrug 17%, beim isolierten Abdominaltrauma 18%. Das thorakoabdominelle Trauma zeigte keine höhere Infektionsrate gegenüber dem isolierten Thorax- oder Abdominaltrauma. Im Gesamtbeobachtungszeitraum wurden etwa drei Viertel der Patienten antibiotisch behandelt. Es handelte sich in 81% der Fälle um Monotherapien und in 19% um Kombinationstherapien. Knapp 50% aller Verordnungen entfielen auf 2 Antibiotikaregimes. Berücksichtigt man die in den Kombinationstherapien verordneten Substanzen einzeln, so ergaben die vier meistverordnete Antibiotikapräparate zusammen 68,9%. Die meisten Antibiotika wurden in der Altersgruppe zwischen 21 und 30 Jahren gegeben. Die durchschnittliche Dauer der Antibiotikaverordnungen betrug 5,1 Tage. 80% der Antibiotikaverordnungen wurden intra- und direkt postoperativ, 86% wurden initial und fortlaufend intravenös, verabreicht. Es wurden 85% als Prophylaxe und 15% als Therapie eingesetzt. Die Indikation zur perioperative Antibiotika-Prophylaxe wurde beim Thoraxtrauma in 43 Fällen (56%), beim Abdominaltrauma in 49 Fällen (68%) und beim thorakoabdominellen Trauma in 8 Fällen (70%) gestellt. 88% der verordneten Antibiotika-Prophylaxen waren erfolgreich. Bei insgesamt 83% der Patienten wurde die perioperative Antibiotika-Prophylaxe aufgrund des erhöhten Risikos einer bakteriellen Kontamination des OP-Gebietes länger als 1 Tag durchgeführt. 42% dieser Patienten erhielten die perioperative Antibiotika-Prophylaxe 1-3 Tage weiter. In 57% der Fälle wurde die Antibiotika-Prophylaxe länger als 3 Tage weitergeführt. Die durchschnittliche Dauer der Antibiotika-Prophylaxen betrug 4,6 Tage. In 7% der Fälle mit prophylaktischen Antibiotikagaben traten Infektionen auf. Sie wurden als „Versager“ der Antibiotika-Prophylaxe bezeichnet. Insgesamt wurden 12% der Patienten nach noch nicht abgeschlossener Behandlung vorzeitig verlegt oder auf eigenen Wunsch entlassen. Die durchschnittliche Hospitalisationszeit betrug insgesamt 10,9 Tage. 75% der Patienten hatten einen I.S.S < 15. Der durchschnittliche Gesamtverletzungsschweregrad I.S.S betrug 11,75. Zwei Patienten verstarben an den Folgen ihrer Verletzungen. Die Todesursachen war der nicht beherrschbare Verlust von intravasalem Volumen. Die Patienten verstarben noch am Aufnahmetag im Schockraum an Herzkreislaufversagen im Volumenmangelschock. Dies ergibt bei diesem Patientenkollektiv eine Letalitätsrate von 1,4%. Der Verletzungsschweregrad I.S.S betrug 38 und 27.
To be published in J. Phys. G - Proceedings of SQM 2004 : We review the results from the various hydrodynamical and transport models on the collective flow observables from AGS to RHIC energies. A critical discussion of the present status of the CERN experiments on hadron collective flow is given. We emphasize the importance of the flow excitation function from 1 to 50 A.GeV: here the hydrodynamic model has predicted the collapse of the v2-flow ~ 10 A.GeV; at 40 A.GeV it has been recently observed by the NA49 collaboration. Since hadronic rescattering models predict much larger flow than observed at this energy we interpret this observation as evidence for a first order phase transition at high baryon density r b. Moreover, the connection of the elliptic flow v2 to jet suppression is examined. It is proven experimentally that the collective flow is not faked by minijet fragmentation. Additionally, detailed transport studies show that the away-side jet suppression can only partially (< 50%) be due to hadronic rescattering. Furthermore, the change in sign of v1, v2 closer to beam rapidity is related to the occurence of a high density first order phase transition in the RHIC data at 62.5, 130 and 200 A.GeV.
We investigate hadron production and transverse hadron spectra in nucleus-nucleus collisions from 2 A·GeV to 21.3 A·TeV within two independent transport approaches (UrQMD and HSD) based on quark, diquark, string and hadronic degrees of freedom. The enhancement of pion production in central Au+Au (Pb+Pb) collisions relative to scaled pp collisions (the ’kink’) is described well by both approaches without involving a phase transition. However, the maximum in the K+ p+ ratio at 20 to 30 A·GeV (the ’horn’) is missed by ~ 40%. Also, at energies above ~5 A·GeV, the measured K± mT-spectra have a larger inverse slope than expected from the models. Thus the pressure generated by hadronic interactions in the transport models at high energies is too low. This finding suggests that the additional pressure - as expected from lattice QCD at finite quark chemical potential and temperature - might be generated by strong interactions in the early pre-hadronic/partonic phase of central heavy-ion collisions. Finally, we discuss the emergence of density perturbations in a first-order phase transition and why they might affect relative hadron multiplicities, collective flow, and hadron mean-free paths at decoupling. A minimum in the collective flow v2 excitation function was discovered experimentally at 40 A·GeV - such a behavior has been predicted long ago as signature for a first order phase transition.