Refine
Year of publication
- 2004 (1690) (remove)
Document Type
- Article (640)
- Doctoral Thesis (255)
- Part of a Book (150)
- Part of Periodical (142)
- Working Paper (114)
- Review (110)
- Book (60)
- Preprint (55)
- Conference Proceeding (48)
- Report (46)
Language
- German (1179)
- English (469)
- French (17)
- Multiple languages (6)
- Portuguese (5)
- Spanish (5)
- mis (4)
- Italian (2)
- Turkish (2)
Is part of the Bibliography
- no (1690) (remove)
Keywords
- Deutsch (34)
- Johann Wolfgang von Goethe (32)
- Frankfurt <Main> / Universität (29)
- Deutschland (27)
- Syntax (27)
- Rezension (24)
- Generative Transformationsgrammatik (23)
- Anton Ulrich <Braunschweig-Wolfenbüttel (19)
- Herzog> / Octavia (19)
- Wortstellung (19)
Institute
- Medizin (139)
- Physik (105)
- Extern (89)
- Biochemie und Chemie (69)
- Wirtschaftswissenschaften (57)
- Rechtswissenschaft (51)
- Biowissenschaften (33)
- Universitätsbibliothek (31)
- Center for Financial Studies (CFS) (30)
- Erziehungswissenschaften (29)
Indem das Internet als Infrastruktur die Transaktionskosten grenzüberschreitender Kommunikation radikal senkt, wirkt es als Katalysator der Globalisierung der Gesellschaft1. Rechtskollisionen erhalten hierdurch in allen gesellschaftlichen Bereichen eine gesteigerte Bedeutung. Im Rahmen der allgemeinen Debatte um die Etablierung einer Global Governance kommt der Internetgovernance deshalb eine paradigmatische Rolle zu. Aus ökonomischer Sicht steht dabei die Schaffung eines Rechtsrahmens für den globalen E-Commerce im Vordergrund. Im Hinblick auf eine innovationsoffene Regulierung erscheint es in diesem Zusammenhang als reizvoll, der Frage nach einem Rechtsrahmen für den grenzüberschreitenden Business-to-Consumer-E-Commerce nachzugehen. Denn das deutsche und europäische Verbrauchervertragsrecht stehen aktuell eher für eine gegenläufige Tendenz zur Begrenzung der Privatautonomie zugunsten zwingender Vorgaben des Gesetzgebers, die auch kollisionsrechtlich gegen eine parteiautonome Rechtswahl abgesichert werden5. Während etwa das in der E-Commerce-Richtlinie verankerte Herkunftsstaatprinzip nicht nur dasWirtschaftsaufsichtsrecht,sondern auch weite Teile des Zivilrechts den Innovationskräften des Systemwettbewerbs öffnet, scheint sich das Verbrauchervertragsrecht aufgrund seines Schutzzweckes als mit innovationsoffenen Regulierungsmodellen inkompatibel zu erweisen. Ist damit auf dem Gebiet des Verbrauchervertragsrechts nicht nur der traditionelle Wettbewerb der individuellen Vertragsklauseln sowie der Klauselwerke (AGB) innerhalb einer staatlichen Privatrechtsordnung, sondern auch der institutionelle Wettbewerb zwischen den Verbraucherschutzmodellen der verschiedenen staatlichen Privatrechtsordnungen ausgeschlossen, so verbleibt als potentieller Innovationsspeicher nur der Raum der gesellschaftlichen Selbstregulierung jenseits des (staatlichen) Rechts. Vor diesem Hintergrund wird im folgenden untersucht, ob und inwieweit sich aufgrund der spezifischen Charakteristika der Internetkommunikation im Bereich des globalen E-Commerce eine Verdichtung von Phänomenen der privaten Normsetzung und der sozialen Selbstregulierung beobachten läßt, die als Emergenz eines transnationalen Verbrauchervertragsrechts interpretiert werden kann. Zunächst soll dabei eine Definition transnationalen Rechts entwickelt werden, die diesen Begriff an die spontanen Innovationskräfte der globalen Zivil(rechts)gesellschaft koppelt (II.). In einem zweiten Schritt werden dann Entstehungsbedingungen und Phänomene eines transnationalen Verbrauchervertragsrechts beleuchtet (III.). Sodann wird der Frage nach einer Konstitutionalisierung des transnationalen Verbrauchervertragsrechts nachgegangen (IV.). Der Beitrag schließt mit einem Ausblick auf potentielle Ziele und Methoden der Regulierung des Wettbewerbs transnationaler Verbraucherschutzregimes (V.).
In April 2003 I commented on the European Commission’s Action Plan on a More Coherent European Contract Law [COM(2003) 68 final] and the Green Paper on the Modernisation of the 1980 Rome Convention [COM(2002) 654 final].1 While the main argument of that paper, i.e. the common neglect of the inherent interrelation between both the further harmonisation of substantive contract law by directives or through an optional European Civil Code on the one hand and the modernisation of conflict rules for consumer contracts in Art. 5 Rome Convention on the other hand, remain pressing issues, and as the German Law Journal continues its efforts in offering timely and critical analysis on consumer law issues,2 there is a variety of recent developments worth noting.
We present simulations with the Chemical Lagrangian Model of the Stratosphere (CLaMS) for the Arctic winter 2002/2003. We integrated a Lagrangian denitrification scheme into the three-dimensional version of CLaMS that calculates the growth and sedimentation of nitric acid trihydrate (NAT) particles along individual particle trajectories. From those, we derive the HNO3 downward flux resulting from different particle nucleation assumptions. The simulation results show a clear vertical redistribution of total inorganic nitrogen (NOy), with a maximum vortex average permanent NOy removal of over 5 ppb in late December between 500 and 550 K and a corresponding increase of NOy of over 2 ppb below about 450 K. The simulated vertical redistribution of NOy is compared with balloon observations by MkIV and in-situ observations from the high altitude aircraft Geophysica. Assuming a globally uniform NAT particle nucleation rate of 3.4·10−6 cm−3 h−1 in the model, the observed denitrification is well reproduced. In the investigated winter 2002/2003, the denitrification has only moderate impact (<=10%) on the simulated vortex average ozone loss of about 1.1 ppm near the 460 K level. At higher altitudes, above 600 K potential temperature, the simulations show significant ozone depletion through NOx-catalytic cycles due to the unusual early exposure of vortex air to sunlight.
Der Sachunterricht beschäftigt sich mit Sachzusammenhängen. Seine grundsätzliche didaktische Zielsetzung besteht deshalb darin, mit Sachzusammenhängen umzugehen und nicht mit Bildern oder Texten über Sachen. Mit Sachen umgehen kann entweder heißen, sie in der Realität, also außerhalb der Schule aufzusuchen oder sie in die Schule hereinzuholen. Drei Gründe legen es dennoch nahe, auch Materialien im Sachunterricht einzusetzen: 1. Es gibt Sachzusammenhänge, die nicht aufgesucht und untersucht werden können. Etwa: Einen Ameisenhaufen darf man nicht zerstören und eine Schulklasse kann man nicht bei einer Geburt zuschauen lassen. 2. Materialien können die Auseinandersetzung mit Sachzusammenhängen vorbereiten oder begleiten. Es lassen sich aus Büchern und Bildern Anregungen entnehmen, ebenso Fragen oder Aufgaben. Die Dokumentation der Sachbegegnung kann ebenfalls durch Materialien unterstützt werden. 3. Sachzusammenhänge sind komplex. Materialien können eine Reduktion der Komplexität vornehmen, indem sie das Wesentliche eines Zusammenhanges enthalten. Hier geht es vor allem um Dinge, um Geräte oder einfache Abläufe. Diese Gegenstände können - im Unterschied zur Realität - Kindern die Möglichkeit bieten, selbst handelnd mit ihnen umzugehen. Diese Ausgangsthesen beinhalten eine bestimmte Grundposition zum Sachunterricht. Die Diskussion der Materialien zum Sachunterricht kann nicht von der Didaktik des Sachunterrichts getrennt werden, denn die Art des Zuganges zu einem Sachverhalt ist entscheidend dafür, was eigentlich von der Sache gelernt wird. Deshalb soll in einem ersten Schritt an einigen Beispielen eine Kritik eines Sachunterrichts vorgenommen werden, wie er in manchen Grundschulklassen anzutreffen ist.
Der Beitrag setzt sich zunächst kritisch mit verbreiteten Konzepten zum Thema Wetter und Computer auseinander. Behauptet wird ein Widerspruch zwischen didaktischem Anspruch und didaktischer Umsetzung. Der Anspruch wird in einem handlungs- und erfahrungsorientierten Unterricht gesehen. Die Umsetzung erfolgt, so die Kritik, allerdings als eine für Grundschüler nicht verstehbare Einführung in eine Wissenschaft. Für einen handlungs- und erfahrungsorientierten Sachunterricht wird als Voraussetzung gesehen, dass die Schüler die Möglichkeit erhalten, sich öffentlich und argumentativ mit ihren Konzepten und Deutungsmustern auseinander zu setzen. Für dieses Verständnis von "offenem Unterricht" eignet sich der Computer dann, wenn er nicht als Wissensspeicher und nicht zur Dokumentation von Ergebnissen herangezogen wird, sondern als Medium der Kommunikation und zur Dokumentierung von Prozessen. Konkret wird dies dargestellt an einem Unterrichtskonzept, in dem Schüler mehrerer Schulen Wetterprognosen vornehmen, an der Realität überprüfen und begründen.
Der Titel der vorliegenden Arbeit, „Interkulturelles Lernen im Sachunterricht – Historie und Perspektiven“, verweist knapp und prägnant darauf, dass in historischer Perspektive Konzeptionen eines Lernens an und über Kultur im Sachunterricht nachgezeichnet und eine weiterführende Perspektive aufgezeigt werden soll. Für diese Rekonstruktion werden auch andere Diskurse als der fachdidaktische einbezogen. In der Auseinandersetzung mit den Bearbeitungsmustern, die die Fachdidaktik in Reaktion auf die kulturelle Pluralisierung der Schülerschaft konzipierte, wurde schnell deutlich, dass eine solche Einbeziehung benachbarter Disziplinen nahezu unumgänglich ist, denn der sachunterrichtliche Diskurs um kulturelle Pluralität zeichnet sich aus durch zahlreiche Anleihen, vor allem aus den Allgemeinen Erziehungswissenschaften. Der erste Teil der Arbeit skizziert den Verlauf der Diskussion um Erziehung und Migration in der Allgemeinen Erziehungswissenschaft. Zur Strukturierung der Darstellung werden dabei mit der „Ausländerpädagogik“, der „Kritik an der Ausländerpädagogik“ und der „Interkulturellen Pädagogik“ drei prägnante Phasen der Theoriebildung differenziert. Dieses Kapitel zeigt die Genese zentraler Begriffe und Konzeptionen in der Debatte um Erziehung und Migration auf, die auch von der Fachdidaktik des Sachunterrichts aufgegriffen wurden. Ihm kommt somit im Rahmen der Arbeit vor allem eine Orientierungsfunktion zu. Das dritte Kapitel fokussiert den fachdidaktischen Diskurs des Sachunterrichts zur Thematik und zeigt auf, welche Aspekte aus der Allgemeinen Erziehungswissenschaft in den fachdidaktischen Diskurs transponiert wurden und welche ausgeblendet blieben. Die fachdidaktische Analyse wird anhand prominenter Termini, die den Sachunterrichtsdiskurs der vergangenen Jahre prägten, strukturiert. Unterschieden werden die Phasen „Heimatkunde“, „wissenschaftsorientierter Sachunterricht“, „lebensweltorientierter Sachunterricht“ und „neuere heimatkundliche Ansätze“. Entlang dieser Phasen der Theoriebildung werden unterschiedliche Modi des fachdidaktischen Umgangs mit kultureller Pluralität nachgezeichnet. In dieser Betrachtung stellt sich insbesondere die mangelnde Reflexion, der in Konzepten eines Lernens an und über Kultur zugrunde gelegten Prämissen, insbesondere des Kulturbegriffs, als Defizit der fachdidaktischen Auseinandersetzung dar. Dieses Defizit wird im vierten Kapitel der Arbeit, das eine weiterführende Perspektive für ein Lernen an und über Kulturen für den Sachunterricht aufzeigt, thematisch. Das Kapitel stellt Bezüge zu erkenntnistheoretischen und kulturtheoretischen Diskursen her und diskutiert Kulturbegriffe als wirkmächtige Begriffe. Vor diesem Hintergrund werden Aspekte der im zweiten Teil der Arbeit ermittelten diskursanalytischen Defizite der fachdidaktischen Auseinandersetzung mit kultureller Pluralisierung, nochmals aufgegriffen und kritisch reflektiert. Insbesondere die in didaktischen Entwürfen zu einem Lernen an und über Kulturen zugrunde gelegten Prämissen, wie etwa die der stringenten Polarität von „Eigenem“ und „Fremdem“, erweisen sich in dieser Betrachtung als problematisch. Im Anschluss daran wird unter Bezugnahme auf die Schriften von Wolfgang Welsch ein aktuelles kulturtheoretisches Konzept, das Konzept der Transkulturalität, skizziert und im Hinblick darauf befragt, wie sich die Interaktion differenter Kulturen bzw. kulturelle Differenz im Lichte dieses Konzepts darstellt. Im Zentrum der Betrachtung steht dabei die Frage, welche Perspektiven für ein Lernen an und über Kultur dieses Konzept bietet. Zum Abschluss der Arbeit, wird basierend auf Welschs kulturtheoretischen und erkenntnistheoretischen Überlegungen, das Konzept eines Lernens konturiert, das auf einen kompetenten Umgang mit Pluralität – nicht mehr nur im Hinblick auf die Anwesenheit verschiedener Ethnien in Gesellschaft und Schulklassen – zielt und diskutiert, ob der Sachunterricht aufgrund seiner fachspezifischen Kontur potentiell einen Beitrag zu einem solchen Lernen leisten könnte. Zentrale Bereiche dieser Arbeit bestehen in der Rekonstruktion des fachdidaktischen und des erziehungswissenschaftlichen Diskurses um Erziehung und Migration. Solche Unterfangen stellen immer das Bemühen dar, eine Praxis, die unter bestimmten Bedingungen mehr oder weniger unsystematisch entstand, in Form einer Retrospektive zu systematisieren und zu reflektieren. Insofern handelt es sich stets um einen methodisierten Versuch einer Bilanz, der die tatsächliche Praxis verkürzt und lediglich schematisch erfasst. Die hier gezeichneten Verläufe der erziehungswissenschaftlichen und der fachdidaktischen Auseinandersetzung mit kultureller Pluralität sind folglich kein Abbild der Diskussionsverläufe, sondern lediglich ein möglicher Rekonstruktionsversuch. Ich hoffe, die zentralen Begriffe und Konzeptionen scharf herausgestellt und dennoch einen – im Sinne Serres – „unscharfen“ Text verfasst zu haben, der zur Reflexion über „grobschlächtige“ Begriffe und deren unreflektierte Tradierung anregt und mit dem perspektivischen Ausblick einen Ausschnitt der Freiheit andeutet, die sich ergeben könnte, wenn die Boxhandschuhe einmal abgelegt werden.
Configuration, simulation and visualization of simple biochemical reaction-diffusion systems in 3D
(2004)
Background In biological systems, molecules of different species diffuse within the reaction compartments and interact with each other, ultimately giving rise to such complex structures like living cells. In order to investigate the formation of subcellular structures and patterns (e.g. signal transduction) or spatial effects in metabolic processes, it would be helpful to use simulations of such reaction-diffusion systems. Pattern formation has been extensively studied in two dimensions. However, the extension to three-dimensional reaction-diffusion systems poses some challenges to the visualization of the processes being simulated. Scope of the Thesis The aim of this thesis is the specification and development of algorithms and methods for the three-dimensional configuration, simulation and visualization of biochemical reaction-diffusion systems consisting of a small number of molecules and reactions. After an initial review of existing literature about 2D/3D reaction-diffusion systems, a 3D simulation algorithm (PDE solver), based on an existing 2D-simulation algorithm for reaction-diffusion systems written by Prof. Herbert Sauro, has to be developed. In a succeeding step, this algorithm has to be optimized for high performance. A prototypic 3D configuration tool for the initial state of the system has to be developed. This basic tool should enable the user to define and store the location of molecules, membranes and channels within the reaction space of user-defined size. A suitable data structure has to be defined for the representation of the reaction space. The main focus of this thesis is the specification and prototypic implementation of a suitable reaction space visualization component for the display of the simulation results. In particular, the possibility of 3D visualization during course of the simulation has to be investigated. During the development phase, the quality and usability of the visualizations has to be evaluated in user tests. The simulation, configuration and visualization prototypes should be compliant with the Systems Biology Workbench to ensure compatibility with software from other authors. The thesis is carried out in close cooperation with Prof. Herbert Sauro at the Keck Graduate Institute, Claremont, CA, USA. Due to this international cooperation the thesis will be written in English.
Die vorliegende Fallstudie zu den Anciens Combattants in Diébougou ist das Ergebnis einer Lehrforschung der Johann Wolfgang Goethe-Universität, Frankfurt am Main, Institut für Historische Ethnologie, die vom 24. August 2001 bis zum 16. Dezember 2001 unter der Leitung von Prof. Carola Lentz, und der Betreuung durch Dr. Katja Werthmann, Dr. Richard Kuba sowie in Kooperation mit der Universität von Ouagadougou (Département d’Histoire et d’Archéologie) in Burkina Faso stattfand. Allen genannten Personen und Institutionen sei an dieser Stelle ausdrücklich gedankt. Die Fallstudie reichte ich im Februar 2004 als Magister-Abschlussarbeit am Fachbereich Geschichtswissenschaften (Historische Ethnologie) der Johann Wolfgang Goethe-Universität, Frankfurt am Main, bei Prof. Carola Lentz und Prof. Karl-Heinz Kohl ein. Der Großteil der ursprünglich im Anhang der Magisterarbeit enthaltenen Dokumente, Karten und Photos wurde ausgelagert, und der Text erfuhr eine geringfügige Überarbeitung. Im Anschluss an einen vierwöchigen Dioula-Sprachkurs in Bobo-Dioulasso folgte die dreimonatige Erhebungsphase in Diébougou, sowohl Hauptort (chef-lieu) der Provinz Bougouriba im Südwesten Burkina Fasos, Markt- als auch Verwaltungszentrum mit 11 637 Einwohnern (siehe http://www.ambf.bf/f_mairies.html). Interethnische Beziehungen, Siedlungsgeschichte und Bodenrecht waren die übergeordneten Themen des ethnologischen Teilprojekts A9 des Sonderforschungsbereichs 268 "Kulturentwicklung und Sprachgeschichte im Naturraum Westafrikanische Savanne" der Johann Wolfgang Goethe-Universität, der die Durchführung der Lehrforschung finanziell unterstützte, und dem ich gleichsam danken möchte.
Hervorgegangen ursprünglich aus der Ratsbibliothek und der Bibliothek des Barfüßerklosters, ist die spätere Entwicklung der Bibliothek eng verbunden mit der bürgerlich-demokratischen Geschichte Deutschlands vom Zeitalter der Französischen Revolution bis zur Errichtung des Zweiten Kaiserreichs. Die Frankfurter Bibliothek ist die Bürgerliche unter Adligen: In ihrer 500-jährigen Geschichte war sie nie Adelsbibliothek, nie Hofbibliothek, als Bibliothek einer ehemals reichsunmittelbaren freien Stadt repräsentiert sie vor allem das historische Erbe der stadtbürgerlichen Kultur des Reiches. ...
Die Senckenbergische Bibliothek hat ihren Ursprung in der Stiftung des Frankfurter Stadtarztes Johann Christian Senckenberg (1707–1772) von 1763. Senckenberg investierte während seines Lebens einen erheblichen Anteil seines Einkommens in den Aufbau seiner Privatbibliothek. So kaufte er alle wesentlichen Neuerscheinungen seiner Zeit und erwarb auch viele ältere Werke antiquarisch. Gegen Ende seines Lebens umfasste seine Bibliothek etwa 10.000 Bände. Diese Bibliothek ging an das von ihm gestiftete Senckenbergische Medizinische Institut. Schon bald nach seinem Tod wurde ein großer Teil der nicht-medizinischen Literatur versteigert. Der medizinische Bestand wurde in der Folgezeit stark erweitert. ...
Bestandserhaltung
(2004)
Das kulturelle Gedächtnis ist bedroht. Rund 60 Millionen Bücher stehen in den deutschen Bibliotheken vor dem endgültigen Aus, sofern sie nicht, und möglichst in absehbarer Zeit, einer restauratorischen Behandlung zugeführt werden können. Auch in Hessen haben die Bibliotheken die Gefahr erkannt, Abhilfe ist technisch möglich, aber teuer. Das zur Lösung anstehende Problem ist grundsätzlich in der Voraussetzung begründet, dass alle in der Buchgeschichte bisher genutzten Informationsträger und vorzüglich solche aus organischem Material prinzipiell dem physischen Verfall ausgesetzt sind. Insbesondere beim Papier sind dabei besondere Substanzen von Bedeutung. Die seit Beginn der Industrialisierung bis in die Gegenwart hinein weit überwiegende Herstellungsweise von Papier unter starker Verwendung von Holzstoff hinterlässt im Produkt Substanzen von realem oder potentiellem Säurecharakter, die unter der Einwirkung von Licht und Wärme einen progressiven Abbau bewirken. Weiter verstärkt wird das Problem durch Bestandteile, die das Papier und andere Buchmaterialien aus der verschmutzten Luft aufnehmen. Ein dritter Faktor ist die mechanische Energie aus der im Lauf gerade der letzten Jahrzehnte erheblich verstärkten Benutzung in herkömmlichen und neuen Formen, so etwa bei der Fernleihe und den damit verbundenen Kopiervorgängen. ...
Viele Bibliotheken, Archive und Museen stehen vor der gewaltigen Herausforderung, das schriftliche Kulturgut, das sie aufbewahren und für die Öffentlichkeit bereithalten, sachgerecht zu erhalten. Schriftquellen sind Zeugnisse menschlichen Denkens und Handelns; schon aufgrund dieser Eigenschaft erwächst eine besondere Aufgabe hinsichtlich ihrer Erhaltung für künftige Generationen. Doch sind Handschriften, alte Drucke und Inkunabeln – die Druckerzeugnisse aus der Frühzeit des Buchdruckes vor 1500 – aufgrund ihres oft empfindlichen Charakters besonderen Belastungen ausgesetzt. Substanzschäden und Gebrauchsspuren haben schon heute ein dramatisches Ausmaß erreicht. Nach repräsentativen Untersuchungen sind etwa 20% – 40% der Sammlungsbestände bereits geschädigt oder akut gefährdet. Der Prozess des physischen Verfalls, der unter anderem durch Wasser, Schimmel- und Insektenbefall, unsachgemäße Aufbewahrung, fortschreitende Alterungsprozesse oder die altersbedingte chemische Veränderung der Papiersubstanz verursacht wird, schreitet langsam aber stetig voran. Für die Verantwortlichen heute führt dies zu einem Wettlauf mit der Zeit. Häufig wird diese Gefahr erst zu spät erkannt, so dass wichtige Bestandteile unseres kulturellen Gedächtnisses in Gefahr sind, unwiderbringbar verloren zu gehen. So besteht für Schriftquellen aller Art derzeit eine gesteigerte Gefährdungssituation; es droht der Verlust bedeutender kulturgeschichtlicher Werte. Vor einigen Jahren hat sich erfreulicherweise die Kulturstiftung der Länder dieser Problematik des Erhaltens von mobilem Kulturgut mit großem Interesse angenommen. Die sieben großen wissenschaftlichen Bibliotheken des Landes Hessen und die Stadt- und Universitätsbibliothek Frankfurt, die allesamt über bedeutende Bestände an Handschriften und kostbaren alten Drucken verfügen, haben sich daraufhin bereit erklärt, an einem gemeinsamen Projekt zur Sicherung ihrer Bestände mitzuwirken. Die Sparkassen-Kulturstiftung Hessen- Thüringen hat die Initiative der Konferenz der Direktorinnen und Direktoren der wissenschaftlichen Bibliotheken Hessen (HDK) aufgegriffen, die sich der Problematik des vom Verfall bedrohten Bibliotheksgutes und der Bestandserhaltung angenommen hat. Die Initiatoren und Herausgeber dieser Broschüre wollen der Öffentlichkeit bewusst machen, welche Gefahr den bedeutenden Handschriften, Autographen und Altbeständen in unserem Lande droht, wenn ihre Substanz nicht mehr gesichert werden kann. Daher haben die Bibliotheksleiterinnen und -leiter ausgewählte Stücke mit erläuternden Texten versehen, um beispielhaft Problemstellungen und Lösungsansätze vorzustellen. Sie verbinden dies mit einer Einführung in die gegenwärtigen Aufgaben- und Sammlungsschwerpunkte der Bibliotheken und ihre Geschichte. So wird ein plastischer Eindruck von diesen Institutionen vermittelt, die mehr sind als Ausleihstationen und Datenvermittler. Die Bedeutung von gefährdetem Bibliotheksgut für unser Wissen über die Vergangenheit aufzuzeigen, ist eine der wesentlichen Aufgaben dieses Buches, mit dem beispielhaft einige der besonders bedrohten Bücher und Handschriften vorgestellt werden. Der kritische Zustand der beschriebenen Stücke mit ihrem Sanierungsbedarf soll daran erinnern, dass sich in den Bibliotheken Einzigartiges befindet, ohne dessen Existenz unser Wissen um die Geschichte unseres Landes und des menschlichen Denkens letztendlich verloren gehen würde. Es ist daher von außerordentlich großer Bedeutung, sich der ständigen Aufgabe des Erhaltes zu stellen. Es fehlen nicht nur in der heutigen Zeit aufgrund der immensen Restaurierungskosten und der stark angespannten wirtschaftlichen Situation der öffentlichen Haushalte ausreichende Mittel, um den gesamten Restaurierungsbedarf der hessischen Bibliotheken abdecken zu können. Den wissenschaftlichen Bibliotheken will diese Schrift deshalb ein Medium sein, das Problem der Bestandserhaltung von Handschriften und Rara konkret vorzustellen, und zur Übernahme von Restaurierungspatenschaften animieren. Insofern sind alle beteiligten Bibliotheken, und nicht nur diese, auf die Hilfe vieler einzelner Paten angewiesen, die einen wichtigen Beitrag zu dem existenziellen Anliegen der Initiatoren leisten können. Die Bibliothekare der beteiligten Institutionen wollen mit ihren fachkundigen Beiträgen möglichst viele Buchpaten ansprechen und über diese Publikation einen Zugang zu den Aufgaben ihrer Häuser vermitteln. Es bleibt zu wünschen, dass diese Broschüre ihren Beitrag leistet, dass Bibliotheken, Archive und Museen auch weiterhin ihren kulturhistorischen Auftrag erfüllen können und Orte der generationsübergreifenden Verständigung und Auseinandersetzung bleiben. Schon jetzt Dank an alle diejenigen, die Buchpaten werden wollen.
We present a detailed study of chemical freeze-out in nucleus-nucleus collisions at beam energies of 11.6, 30, 40, 80 and 158A GeV. By analyzing hadronic multiplicities within the statistical hadronization approach, we have studied the chemical equilibration of the system as a function of center of mass energy and of the parameters of the source. Additionally, we have tested and compared different versions of the statistical model, with special emphasis on possible explanations of the observed strangeness hadronic phase space under-saturation.
Die Frage nach den Formen und Bestimmungsfaktoren der Eingliederung der ausländischen Bevölkerung gewinnt mit der dauerhaften Niederlassung der ehemals als „Gastarbeiter“ zugewanderten Gruppen und ihrer Nachkommen zunehmend an Bedeutung. Häufig mangelt es aber an geeigneten Daten, um empirisch fundierte Antworten auf gesellschaftlich vieldiskutierte Fragen zu geben: Wie weit ist die Integration von Personen mit Migrationshintergrund (Migranten) im schulischen und beruflichen Bereich fortgeschritten, und wie lässt sich die Distanz zu den Deutschen gegebenenfalls erklären? Wie ist es um das Interesse und die Partizipation von Migranten im politischen und sozialen Bereich bestellt? Nehmen inter-ethnische Eheschließungen und Freundschaftsbeziehungen zu, und gibt es diesbezüglich Unterschiede zwischen den Nationalitätengruppen? Diese Fragen stellen sich besonders dringlich, wenn es um die „zweite“ oder „dritte Generation“ von Migranten geht, wird doch die Integration oder Segregation dieser Gruppe die Gesellschaft in Deutschland in den nächsten Jahrzehnten entscheidend prägen. Aus diesen Gründen wurde im Juli 2000 der Auftrag zu einer breit angelegten Befragung italienisch-und türkischstämmiger Migranten im Alter von 18 bis 30 Jahre sowie einer deutschen Kontrollgruppe (je ca. 1.200 Befragte) an das Markt- und Meinungsforschungsinstitut BIK Aschpurwis und Behrens, Hamburg, vergeben. Die Erhebungsdaten wurden Ende März 2001 an das Bundesinstitut für Bevölkerungsforschung (BiB) geliefert. Bei der Befragung wurden Items über die Lebensverhältnisse, das Verhalten und die Einstellungen erhoben. Im Mittelpunkt standen thematisch die schulische, berufliche, soziale, sprachliche und identifikative Integration; Art und Ausmaß der Kontakte zur ethnischen Community und ihren Einrichtungen; Einstellungen zum Leben in Deutschland und zur politischen Partizipation sowie familiale Lebensbedingungen und Einstellungen. Aufgrund der thematischen Breite des Surveys und der hohen Anzahl an Befragten lassen sich anhand der Daten fundierte Aussagen über die Eingliederungsmuster der untersuchten Gruppen machen. Nähere Informationen zum Fragebogen, zur Stichprobe und sozialstrukturellen Zusammensetzung der Befragten des Integrationssurveys finden Sie in: - Mammey, Ulrich; Sattig, Jörg, 2002: Zur Integration türkischer und italienischer junger Erwachsener in die Gesellschaft der Bundesrepublik Deutschland - Der Integrationssurvey des BiB. Wiesbaden: Bundesinstitut für Bevölkerungsforschung, Materialien zur Bevölkerungswissenschaft, Heft 105a, -Haug, Sonja, 2002: Familienstand, Schulbildung und Erwerbstätigkeit junger Erwachsener. Eine Analyse der ethnischen und geschlechtsspezifischen Ungleichheiten – Erste Ergebnisse des Integrationssurveys des BiB, in: Zeitschrift für Bevölkerungswissenschaft, 27, 1: 115-144 Die Ergebnisse der Auswertung spezieller Fragestellungen wurden bisher in verschiedenen Ausgaben der Zeitschrift für Bevölkerungswissenschaft, den BiB-Mitteilungen sowie im Band 105b der Materialien zur Bevölkerungswissenschaft veröffentlicht. Hinweise auf aktuelle Veröffentlichungen finden Sie unter http://www.bib-demographie.de.
Vorhofflimmern ist die in der Klinik und Praxis am häufigsten diagnostizierte Herzrhythmusstörung. In allen Fällen bestehen zwei grundsätzliche Therapieoptionen: Zum einen Kardioversionsbehandlung gefolgt von Rezidivprophylaxe mit Antiarrhythmika bzw. alleinige Frequenzkontrolle unter adäquater Antikoagulation bei Inkaufnahme der Rhythmusstörung. In der vorliegenden Arbeit sind 32 Patienten mit persistierendem Vorhofflimmern untersucht worden, die entwedermit Cordichin, Sotalol oder Amiodaron behandelt worden sind. Der Schwerpunkt der Untersuchung wurde auf die Veränderung der Hämodynamik nach erfolgreicher Kardioversion in den Sinusrhythmus gelegt. Hier zeigte sich, dass unabhängig von dem zur Rhythmusstabilisierung verwendeten Medikament die erfolgreiche Wiederherstellung von Sinusrhythmus mit einer Verbesserung der Hämodynamik und der Auswurffraktion des Herzens einherging. Somit bestätigen die vorliegenden Untersuchungsbefunde die umfangreiche Literatur zu diesem Thema.
Tunikaten produzieren eine Vielzahl an cytotoxischen und antimikrobiellen Verbindungen, die ihnen in ihrem Ökosystem zu überlebenswichtigen Vorteilen verhelfen. Wegen ihrer strukturellen Diversität und ihrer spezifischen Eigenschaften haben bislang einige dieser Sekundärstoffe Eingang in die pharmazeutische Industrie gefunden. Ziel der vorliegenden Arbeit war eine umfassende Untersuchung des chemischen Potentials benthischer Ascidien der Nordsee. Die Eigenschaften der organischen Ascidienextrakte wurden anhand von vier Bioassays beschrieben. Die Assays fungierten gleichzeitig als Wegweiser zur Isolierung der aktiven Sekundärmetaboliten, der sich eine Strukturaufklärung mit spektroskopischen Methoden (NMR, MS, IR) anschloss. Es wurden Tests auf bewuchshemmende, antimikrobielle, cytotoxische und enzymhemmende Eigenschaften durchgeführt. Eingesetzt wurden organische Extrakte von 13 solitären und koloniebildenden Ascidienarten der nördlichen und südlichen Nordsee. In allen vier Assays zeigten mehrere oder alle Ascidienarten Aktivität. Es ließen sich keine Hinweise auf eine mit der Wuchsform der Arten korrelierte biologische Aktivität sammeln. In einem Freilandversuch zur Untersuchung der besiedlungshemmenden Wirkung der Extrakte konnte gezeigt werden, dass einige Ascidien eine chemische Abwehr von Algensporen oder Epibionten aufweisen, die artspezifisch unterschiedlich stark ausgeprägt ist. Alle Ascidienarten bewiesen antimikrobielle Aktivität, es ergaben sich aber sowohl in der Hemmhofbreite als auch in der Anzahl der gehemmten Bakterienstämme große artspezifische Unterschiede. Auffallend war, dass deutlich mehr Gram-positive sowie marine Bakterienstämme als Gram-negative bzw. nicht-marine Bakterienstämme inhibiert wurden. Im Gegensatz zur antimikrobiellen Aktivität wurden in den Assays zur Cytotoxizität und zur spezifischen Enzymhemmung lediglich bei jeweils vier Ascidienarten positive Effekte festgestellt. Durch die spezifische Anfärbung von Zellorganellen konnten morphologische Veränderungen, die durch die Ascidienmetaboliten in den Mausfibroblasten induziert wurden, sichtbar gemacht und der Einfluß der Extrakte auf das Cytoskelett und spezifische Zellfunktionen dokumentiert werden. Im Protein-Tyrosin-Kinase-Assay führte eine Bioassay-guided Fractionation von Extrakten der Ascidie Dendrodoa grossularia zur Isolierung der aktiven Substanz. Über spektroskopische Methoden sowie den Vergleich mit Literaturdaten konnte der enzymhemmende Metabolit als das Guanidinostyren Tubastrin identifiziert werden. Tubastrin wurde im Rahmen dieser Arbeit erstmals in Tunikaten nachgewiesen. Der Metabolit zeigte als Reinsubstanz nur geringe cytotoxische Effekte und keine antimikrobiellen Eigenschaften. Als weitere Metaboliten der Ascidien Dendrodoa grossularia und Ascidiella aspersa wurden Homarin, Betain, Adenosin und Inosin identifiziert. Keiner dieser Substanzen konnte in der vorliegenden Arbeit eine biologische Aktivität zugeordnet werden. Während Betain, Adenosin und Inosin Funktionen innerhalb des Primärmetabolismus besitzen oder als Zwischenprodukte in Synthesewege eingebunden sein können, stellt Homarin einen Sekundärmetaboliten dar, der in einer Vielzahl von marinen Organismen unterschiedliche Funktionen erfüllt. Seine Aufgabe in Tunikaten muss durch weitere Untersuchungen geklärt werden. Dass antimikrobielle Aktivität bei allen Ascidienarten gefunden wird, lässt auf eine grundlegende Bedeutung prokaryontischer Abwehr schließen. Die Unterschiede in der Stärke der Effekte aller Bioassays legen nahe, dass jede Ascidienart eine eigene Gesamtstrategie zur Verteidigung gegen Bewuchs und Fraßfeinde ausgebildet hat. Die aus den Laborversuchen erhaltenen Daten verdeutlichen eine weitreichende biologisch-chemische Aktivität von Aplidium punctum, Dendrodoa grossularia und Didemnum candidum, die neben der antimikrobiellen auch starke cytotoxische und/oder enzymhemmende Wirkung gezeigt haben. Die Lokalisation der aktiven Substanzen im Tier sowie eingehendere Versuche zur molekularen Wirkungsweise sind notwendig, die beobachteten Aktivitäten umfassend zu deuten und ihre Nutzbarkeit unter pharmakologischen Gesichtspunkten zu evaluieren.
Vortrag an der "Die Lebendigkeit kritischer Gesellschaftstheorie", einer Arbeitstagung aus Anlass des 100. Geburtstages von Theodor W. Adorno, die am 4. - 6. Juli 2003 an der Johann Wolfgang Goethe-Universität in Frankfurt am Main statfand. Koordiniert von Prof. Dr. Andreas Gruschka und Prof. Dr. Ulrich Oevermann. Die Tagungsbeiträge können auch auf CD (je CD ein Vortrag) oder als DVD (alle Vorträge im MP3-Format) käuflich erworben werden. S.a. "Die Lebendigkeit der kritischen Gesellschaftstheorie", herausgegeben von Andreas Gruschka und Ulrich Oevermann. Dokumentation der Arbeitstagung aus Anlass des 100. Geburtstages von Theodor W. Adorno. Büchse der Pandora 2004, ISBN 3-88178-324-5
Vortrag an der "Die Lebendigkeit kritischer Gesellschaftstheorie", einer Arbeitstagung aus Anlass des 100. Geburtstages von Theodor W. Adorno, die am 4. - 6. Juli 2003 an der Johann Wolfgang Goethe-Universität in Frankfurt am Main statfand. Koordiniert von Prof. Dr. Andreas Gruschka und Prof. Dr. Ulrich Oevermann. Die Tagungsbeiträge können auch auf CD (je CD ein Vortrag) oder als DVD (alle Vorträge im MP3-Format) käuflich erworben werden. S.a. "Die Lebendigkeit der kritischen Gesellschaftstheorie", herausgegeben von Andreas Gruschka und Ulrich Oevermann. Dokumentation der Arbeitstagung aus Anlass des 100. Geburtstages von Theodor W. Adorno. Büchse der Pandora 2004, ISBN 3-88178-324-5
"Informel" nach Adorno
(2004)
Vortrag an der "Die Lebendigkeit kritischer Gesellschaftstheorie", einer Arbeitstagung aus Anlass des 100. Geburtstages von Theodor W. Adorno, die am 4. - 6. Juli 2003 an der Johann Wolfgang Goethe-Universität in Frankfurt am Main statfand. Koordiniert von Prof. Dr. Andreas Gruschka und Prof. Dr. Ulrich Oevermann. Die Tagungsbeiträge können auch auf CD (je CD ein Vortrag) oder als DVD (alle Vorträge im MP3-Format) käuflich erworben werden. S.a. "Die Lebendigkeit der kritischen Gesellschaftstheorie", herausgegeben von Andreas Gruschka und Ulrich Oevermann. Dokumentation der Arbeitstagung aus Anlass des 100. Geburtstages von Theodor W. Adorno. Büchse der Pandora 2004, ISBN 3-88178-324-5
Vortrag an der "Die Lebendigkeit kritischer Gesellschaftstheorie", einer Arbeitstagung aus Anlass des 100. Geburtstages von Theodor W. Adorno, die am 4. - 6. Juli 2003 an der Johann Wolfgang Goethe-Universität in Frankfurt am Main statfand. Koordiniert von Prof. Dr. Andreas Gruschka und Prof. Dr. Ulrich Oevermann. Die Tagungsbeiträge können auch auf CD (je CD ein Vortrag) oder als DVD (alle Vorträge im MP3-Format) käuflich erworben werden. S.a. "Die Lebendigkeit der kritischen Gesellschaftstheorie", herausgegeben von Andreas Gruschka und Ulrich Oevermann. Dokumentation der Arbeitstagung aus Anlass des 100. Geburtstages von Theodor W. Adorno. Büchse der Pandora 2004, ISBN 3-88178-324-5
Adorno und die Psychoanalyse
(2004)
Vortrag an der "Die Lebendigkeit kritischer Gesellschaftstheorie", einer Arbeitstagung aus Anlass des 100. Geburtstages von Theodor W. Adorno, die am 4. - 6. Juli 2003 an der Johann Wolfgang Goethe-Universität in Frankfurt am Main statfand. Koordiniert von Prof. Dr. Andreas Gruschka und Prof. Dr. Ulrich Oevermann. Die Tagungsbeiträge können auch auf CD (je CD ein Vortrag) oder als DVD (alle Vorträge im MP3-Format) käuflich erworben werden. S.a. "Die Lebendigkeit der kritischen Gesellschaftstheorie", herausgegeben von Andreas Gruschka und Ulrich Oevermann. Dokumentation der Arbeitstagung aus Anlass des 100. Geburtstages von Theodor W. Adorno. Büchse der Pandora 2004, ISBN 3-88178-324-5
Vortrag an der "Die Lebendigkeit kritischer Gesellschaftstheorie", einer Arbeitstagung aus Anlass des 100. Geburtstages von Theodor W. Adorno, die am 4. - 6. Juli 2003 an der Johann Wolfgang Goethe-Universität in Frankfurt am Main statfand. Koordiniert von Prof. Dr. Andreas Gruschka und Prof. Dr. Ulrich Oevermann. Die Tagungsbeiträge können auch auf CD (je CD ein Vortrag) oder als DVD (alle Vorträge im MP3-Format) käuflich erworben werden. S.a. "Die Lebendigkeit der kritischen Gesellschaftstheorie", herausgegeben von Andreas Gruschka und Ulrich Oevermann. Dokumentation der Arbeitstagung aus Anlass des 100. Geburtstages von Theodor W. Adorno. Büchse der Pandora 2004, ISBN 3-88178-324-5
Vortrag an der "Die Lebendigkeit kritischer Gesellschaftstheorie", einer Arbeitstagung aus Anlass des 100. Geburtstages von Theodor W. Adorno, die am 4. - 6. Juli 2003 an der Johann Wolfgang Goethe-Universität in Frankfurt am Main statfand. Koordiniert von Prof. Dr. Andreas Gruschka und Prof. Dr. Ulrich Oevermann. Die Tagungsbeiträge können auch auf CD (je CD ein Vortrag) oder als DVD (alle Vorträge im MP3-Format) käuflich erworben werden. S.a. "Die Lebendigkeit der kritischen Gesellschaftstheorie", herausgegeben von Andreas Gruschka und Ulrich Oevermann. Dokumentation der Arbeitstagung aus Anlass des 100. Geburtstages von Theodor W. Adorno. Büchse der Pandora 2004, ISBN 3-88178-324-5
Geschichte und Gedächtnis
(2004)
Vortrag an der "Die Lebendigkeit kritischer Gesellschaftstheorie", einer Arbeitstagung aus Anlass des 100. Geburtstages von Theodor W. Adorno, die am 4. - 6. Juli 2003 an der Johann Wolfgang Goethe-Universität in Frankfurt am Main statfand. Koordiniert von Prof. Dr. Andreas Gruschka und Prof. Dr. Ulrich Oevermann. Die Tagungsbeiträge können auch auf CD (je CD ein Vortrag) oder als DVD (alle Vorträge im MP3-Format) käuflich erworben werden. S.a. "Die Lebendigkeit der kritischen Gesellschaftstheorie", herausgegeben von Andreas Gruschka und Ulrich Oevermann. Dokumentation der Arbeitstagung aus Anlass des 100. Geburtstages von Theodor W. Adorno. Büchse der Pandora 2004, ISBN 3-88178-324-5
Vortrag an der "Die Lebendigkeit kritischer Gesellschaftstheorie", einer Arbeitstagung aus Anlass des 100. Geburtstages von Theodor W. Adorno, die am 4. - 6. Juli 2003 an der Johann Wolfgang Goethe-Universität in Frankfurt am Main statfand. Koordiniert von Prof. Dr. Andreas Gruschka und Prof. Dr. Ulrich Oevermann. Die Tagungsbeiträge können auch auf CD (je CD ein Vortrag) oder als DVD (alle Vorträge im MP3-Format) käuflich erworben werden. S.a. "Die Lebendigkeit der kritischen Gesellschaftstheorie", herausgegeben von Andreas Gruschka und Ulrich Oevermann. Dokumentation der Arbeitstagung aus Anlass des 100. Geburtstages von Theodor W. Adorno. Büchse der Pandora 2004, ISBN 3-88178-324-5
Vortrag an der "Die Lebendigkeit kritischer Gesellschaftstheorie", einer Arbeitstagung aus Anlass des 100. Geburtstages von Theodor W. Adorno, die am 4. - 6. Juli 2003 an der Johann Wolfgang Goethe-Universität in Frankfurt am Main statfand. Koordiniert von Prof. Dr. Andreas Gruschka und Prof. Dr. Ulrich Oevermann. Die Tagungsbeiträge können auch auf CD (je CD ein Vortrag) oder als DVD (alle Vorträge im MP3-Format) käuflich erworben werden. S.a. "Die Lebendigkeit der kritischen Gesellschaftstheorie", herausgegeben von Andreas Gruschka und Ulrich Oevermann. Dokumentation der Arbeitstagung aus Anlass des 100. Geburtstages von Theodor W. Adorno. Büchse der Pandora 2004, ISBN 3-88178-324-5
Vortrag an der "Die Lebendigkeit kritischer Gesellschaftstheorie", einer Arbeitstagung aus Anlass des 100. Geburtstages von Theodor W. Adorno, die am 4. - 6. Juli 2003 an der Johann Wolfgang Goethe-Universität in Frankfurt am Main statfand. Koordiniert von Prof. Dr. Andreas Gruschka und Prof. Dr. Ulrich Oevermann. Die Tagungsbeiträge können auch auf CD (je CD ein Vortrag) oder als DVD (alle Vorträge im MP3-Format) käuflich erworben werden. S.a. "Die Lebendigkeit der kritischen Gesellschaftstheorie", herausgegeben von Andreas Gruschka und Ulrich Oevermann. Dokumentation der Arbeitstagung aus Anlass des 100. Geburtstages von Theodor W. Adorno. Büchse der Pandora 2004, ISBN 3-88178-324-5
New results on the production of Xi and Omega hyperons in Pb+Pb interactions at 40 A GeV and Lambda at 30 A GeV are presented. Transverse mass spectra as well as rapidity spectra of these hyperons are shown and compared to previously measured data at different beam energies. The energy dependence of hyperon production (4Pi yields) is discussed. Additionally, the centrality dependence of Xi- production at 40 A GeV is presented.
Bei den Projekten wie der Europäischen und der Amerikanischen Spallationsneutronenquelle aber auch den geplanten aktuellen Großprojekten wie dem Upgrade von CERN oder ISIS werden negative Ionen benötigt. Bei solchen Anlagen werden am Ende des üblichen linearen Beschleunigers Speicherringe eingesetzt, die den Teilchenstrom akkumulieren und danach longitudinal komprimieren. Durch die Verwendung eines Strahls aus negativen Ionen kann die Injektion in den Speicherring wesentlich vereinfacht werden. In der vorliegenden Dissertation wurde die Extraktion und der Transport von negativen Wasserstoffionen für den ersten Abschnitt eines Linearbeschleunigers, bestehend aus Quelle, Extraktion und niederenergetischem Strahltransport (LEBT), sowohl experimentell als auch theoretisch untersucht. In dieser Sektion wird der grundlegende Strahlstrom und die Strahlqualität eines Linearbeschleunigers definiert. Eine komplette Untersuchung dieses Abschnitts lag bis dato für negative Ionen nicht vor. Um die Unterschiede aufzudecken und die einflußnehmenden Größen zu bewerten, mußten alle Experimente sowohl mit positiven als auch mit negativen Ionen durchgeführt werden. In allen Sektionen führen verschiedene Faktoren zu Strahlstromverlusten und Qualitätsverschlechterung, sprich Emittanzvergrößerung. Im Zuge dieser Arbeit wurde eine Quelle für negative Ionen entwickelt und gebaut und eine neue Methode zur Produktionssteigerung von negativen Ionen entwickelt. Die Innenwand der Plasmakammer der Ionenquelle wurde mit dem Edelmetallkatalysator Platin beschichtet. Die Plasmazusammensetzung innerhalb der Quelle verlagerte sich dadurch auf 80–90% H3 , 5-10% H2 und nur noch ein geringer Anteil an Protonen. Dieser hohe molekulare Anteil war über eine große Spanne aller Plasmaparameter stabil und führt zu einer drastischen Produktionssteigerung von angeregtem H2 und H- . Zur Formierung des Ionenstrahls wurde von mir ein sogenannter stromtoleranten Extraktor entwickelt. Trotz einer Veränderung des extrahierten Stroms um den Faktor 5 kommt es mit diesem Extraktor zu keinem nennenswerten Emittanzwachstum. Dieser eignet sich allgemein für die Extraktion gepulster Ionenstrahlen, im Besonderen aber für die Extraktion von negativen Ionen, da hierbei gleichzeitig Elektronen mit extrahiert werden. Dieser meist hohe Strahlanteil aus hochenergetischen Elektronen muß vor dem Einschuß der negativen Ionen in den RFQ durch ein geeignetes System aus dem Strahl ausgelenkt und abgeführt werden. Grundlagen, Entwicklung und Einflüsse dieser sogenannten Dumpingsysteme werden in Kap. 5 beschrieben. Für die Realisierung einer Niederenergietransportstrecke für negative Ionen stehen die beiden Möglichkeiten des magnetischen LEBT (Kap. 6) und des elektrostatischen LEBT (Kap. 7) zu Verfügung. Mit verschiedenen Meßaufbauten werden im anschließenden Kap. 8 die in den vorigen Kapiteln aufgeführten relevanten Größen der Erzeugung, der Extraktion und des Transport experimentell untersucht. Zusätzlich zu den bekannten klassischen Analyseverfahren kommen im Rahmen dieser Arbeit entwickelte optische Meßmethoden zum Einsatz, mit deren Hilfe man Plasmatemperatur und Plasmaverteilung innerhalb der Ionenquelle bestimmen kann. Mit Hilfe der Untersuchungen gelang es, die Unterschiede zwischen der Extraktion von negativen Ionen und von positiven Ionen aufzuzeigen und mit Hilfe der experimentellen Beobachtungen ein neues Modell für die Extraktion von negativen Ionen zu entwickeln. Mit der vorliegenden Arbeit wurde zudem gezeigt: - Der extrahierbare negative Strom ist hauptsächlich abhängig vom Diffusionsprozeß der Teilchen durch einen positiven Potentialwall innerhalb der Ionenquelle. - Durch Kompensation der magnetischen Felder in der Extraktionsregion wird die Emittanz reduziert und der Strom gesteigert. - Der beobachtete planare Plasmameniskus wird maßgeblich durch die rückfließenden Restgasionen beeinflußt. - Der Transport der negativen Ionen mit einer magnetischen LEBT stellt kein wesentliches Problem dar, da eine hinreichende Anzahl an positiven Restgasionen für den raumladungs-kompensierten Transport vorliegt.
Die vorliegende Arbeit beschäftigt sich mit der Messung der Elektronen-Driftgeschwindigkeit in dem Gasgemisch Ne/CO2 (90% / 10 %). Durchgeführt wurde sie zur Optimierung der Spurendriftkammer des ALICE-Projektes am CERN. Mit dem Aufbau zur Driftgeschwindigkeitsmessung läßt sich eine Genauigkeit von 1‰ erzielen. Untersucht wurden mit diesem Anspruch die Abhängigkeiten von der Temperatur, von CO2 Konzentrationsänderungen sowie von Stickstoffzugabe. Für die genaue Messung der Driftgeschwindigkeit wurde eine kleine Driftkammer gebaut. Die Ionisation des Gases erfolgt mit Hilfe eines UV-Lasers, dessen Strahl zunächst aufgeweitet, und dann geteilt wird. Der Abstand der so erhaltenen zwei Laser-Strahlen wird mit Hilfe von zwei präzisen Doppelblenden definiert. Zur Kontrolle der Gaszusammensetzung und -qualität wurde eine Gasanalysestation zusammengestellt. Die aufgenommenen Daten werden über ein ADC-System auf einem Computer gespeichert. Damit können in der Analyse die Driftgeschwindigkeitsdaten mit den Gasdaten zeitgleich ausgewertet werden. Das wird u.a. für die Korrektur der Daten auf den momentanen Druck und die Temperatur des Gases benötigt. Die Driftgeschwindigkeit wurde bei Feldstärken von 100 - 900 V/cm in Schritten von 100 V/cm gemessen. Die Spurendriftkammer des ALICE-Experimentes soll bei einer Feldstärke von 400 V/cm arbeiten. Die dafür gemessenen Ergebnisse sind: Temperaturabhängigkeit: Bei der erreichbaren Genauigkeit läßt sich über die Abhängigkeit der Driftgeschwindigkeit ve􀀀 von der Teilchenzahldichte N des Gases ve􀀀 = f(E/N) = f(E*T/P) keine weitere Temperaturabhängigkeit feststellen. Die relative Änderung der Driftgeschwindigkeit mit der Temperatur beträgt: Dv400 e􀀀 DT = 3.1 +- 0.23‰ /K CO2-Abhängigkeit: Die relative Änderung der Driftgeschwindigkeit mit dem CO2-Gehalt bei einer CO2- Konzentration um die 10% beträgt: Dv400 e􀀀;CO2 = -7.69 +- 0.39 Eine Erhöhung des CO2-Gehaltes um 1‰ (10.0% -> 10.1 %) führt also zu einer Herabsetzung der Driftgeschwindigkeit um ca. 7.7‰. N2-Abhängigkeit: Die relative Änderung der Driftgeschwindigkeit bei Stickstoffzugabe beträgt Dv400 e􀀀;N2 = - 1.14 +- 0.08 Eine Zugabe von 1‰ N2 zur Driftgasmischung führt damit zu einer Herabsetzung der Driftgeschwindigkeit um ca. 1.1‰ .
Durch die stetig zunehmende Implementierung von Informationssystemen in verschiedene Gesellschaftsbereiche gibt es in der Menschheitsgeschichte eine bisher noch nie dagewesene Entwicklung: ‚Kognitive Last’ kann dem Menschen durch technische ‚Denkzeuge’ sehr effektiv und effizient abgenommen werden. Dadurch können „typisch menschliche Bereiche wie Kreativität, Solidarität, Innovationsfähigkeit, Mitmenschlichkeit, Kommunikationsfähigkeit“ beim Einzelnen gefördert und entwickelt werden, wie es bisher nur bei ganz wenigen Menschen in einer Gesellschaft möglich war. „D. h. das Gehirn gewinnt - zumindest im Prinzip - völlig neue Freiheiten, nachdem es die kognitive Last abgeworfen und an die Computer übergeben hat. Diese Freiheit gilt es - insbesondere im Bildungswesen - zu nutzen!" Doch wird in der heutigen deutschen Schule und Hochschule nicht ‚Homo sapiens informaticus’ qualifiziert, „sondern den auf Abwicklung aller kognitiven Tätigkeiten im Gehirn trainierten Homo sapiens sapiens“. Früher oder später sieht dieser viele der mühsam erlernten kognitiven Leistungen durch technische Produkte in der realen Welt erfüllt (z.B. durch Arithmetik-Software), an die er sich nach seiner Ausbildung durch Fortbildung oder ‚learning by doing’ anzupassen versucht. In der Informationsgesellschaft wird der kompetente Umgang mit Neuen Medien als Schlüsselqualifikation gesehen, die es in jeglicher Ausbildung zu erwerben gilt. Um diese zu entwickeln reicht es jedoch nicht aus, Schulen mit entsprechender Technik auszustatten. Medienkompetente Schüler setzen den medienkompetenten Lehrer voraus. Aus diesem Grund wird einer entsprechenden Lehrerbildung eine Schlüsselrolle zur frühen und breiten Vermittlung von Medienkompetenz in der Gesellschaft zugeschrieben. Dazu müssen wiederum die Ausbilder der Lehrer selbst medienkompetent und die Bildungseinrichtungen mit Neuen Medien ausgestattet sein. Mit vorliegender Arbeit soll die von verschiedenen Bereichen der Gesellschaft gestellte Forderung, Neue Medien in der Bildung einzusetzen, nachvollzogen und auf ihre tatsächliche Implementierung in der derzeitigen Lehrerbildung untersucht werden. Dazu werden exemplarisch die Ergebnisse der Befragung einer kleinen Gruppe kaufmännischer Referendare herangezogen. Im Rahmen dieser Arbeit wird darauf verzichtet, eine ausführliche Darstellung unterschiedlicher Formen des multimedialen und telekommunikativen Lernens (Teleteaching, Lernsoftware etc.) vorzunehmen. Auf lernformenspezifische Aspekte wird, falls notwendig, an entsprechender Stelle eingegangen. Wirkungen, die Neue Medien auf Schulentwicklung, Bildungsinstitutionen als Kompetenzzentren und einhergehende Aspekte der Personalentwicklung haben, werden nicht systematisch untersucht.
In den Anwendungsbereichen der Mixed Reality (MR) werden die reale und die virtuelle Welt kombiniert, so dass ein Eindruck der Koexistenz beider Welten entsteht. Meist wird dabei die reale Umgebung durch virtuelle Objekte angereichert, die dem Anwender zusätzliche Informationen bieten sollen. Um die virtuellen Objekte richtig zu positionieren, muss die reale Umgebung erkannt werden. Diese Erkennung der realen Umgebung wird meist durch Bestimmung und Verfolgung von Orientierung und Positionierung der realen Objekte realisiert, was als Tracking bezeichnet wird und einen der wichtigsten Bestandteile für MR-Anwendung darstellt. Ohne die exakte Ausrichtung von realen und virtuellen Objekten, geht die Illusion verloren, dass die virtuellen Objekte Teil der realen Umgebung sind und mit ihr verschmelzen. Markerkombination Das markerbasierte Tracking ist ein Verfahren, das die Bestimmung der Positionierung von realen Objekten durch zusätzliche Markierungen in der realen Umgebung ermöglicht. Diese Markierungen können besonders gut durch Bildanalyseverfahren extrahiert werden und bieten anhand ihrer speziellen Form Positionierungsinformationen. Der Einsatz dieser Trackingtechnologie ist dabei denkbar einfache und kostengünstig. Ein breiter Anwendungsbereich ist durch den kostengünstigen Einsatz dieser Technologien gegeben, allerdings ist das Erstellen von MR-Anwendungen fast ausschließlich MR-Spezialisten vorbehalten, die über Programmierfertigkeiten und spezielle Kenntnisse aus dem MR-Bereich besitzen. Diese Arbeit beschreibt die Entwicklung und Umsetzung der Konzepte, die einem Personenkreis, der lediglich über geringe Kenntnisse von MR-Technologien und deren Anwendung verfügt, den kostengünstigen und einfachen Einsatz von markerbasierten Trackingtechnologien ermöglicht. Die im Rahmen der Arbeit durchgeführte Analyse verweist auf die problematischen Anwendungsfälle des markerbasierten Trackings, die durch die Verdeckung von Markern zustande kommen, in der Beschränkung der Markeranzahl begründet sind, oder durch die Schwankung der Trackingangaben entstehen. Diese Problembereiche sind bei der Entwicklung berücksichtigt worden und können mit Hilfe der entwickelten Konzepte vom Autor bewältigt werden. Das Konzept der Markerkategorien ermöglicht dabei den Einsatz von angepassten Filterungstechniken. Die redundante Markerkombination behebt das Verdeckungsproblem und eliminiert Schwankungen durch das Kombinieren von mehreren Trackinginformationen. Die Gütefunktion ermöglicht die Bewertung von Trackinginformationen und wird zur Gewichtung der Trackingangaben innerhalb einer Markerkombination genutzt. Das Konzept der Markertupel ermöglicht eine Wiederverwendung von Markern, durch den Ansatz der Bereichsunterteilung. Die Konzepte sind in der AMIRE-Umgebung vollständig implementiert und getestet worden. Zum Abschluss ist rückblickend eine kritische Betrachtung der Arbeit, in punkto Vorgehensweise und erreichter Ergebnisse durchgeführt worden.
Diese Arbeit hat einen Überblick über das IMS Learning Design und die damit verbundenen Spezifikationen gegeben und aktuelle Bestrebungen einer Adaption untersucht. Das IMS Learning Design bietet die Grundlage für die Gestaltung pädagogischer Frameworks für die Wiederverwendung von einzelnen Aktivitäten bis hin zu ganzen Kursen. Einmal erstellter Content kann auf diese Weise für unterschiedliche Zielgruppen und Lernumgebungen angeboten werden (create once deliver many times). Vgl. Hummel, H. (2004), S. 111. Gleichzeitig kann durch die didaktische Gestaltung von Lehr-/ Lerneinheiten der Mehrwert eines Lernszenarios für die Teilnehmer erhöht werden, da eine teilnehmerfokussierte Wissensübermittlung möglich gemacht wird. Dies beruht jedoch prinzipiell auf den pädagogischen Fähigkeiten des Autors eines Kurses. Im Forschungsbereich Geisteswissenschaften wird zu diesem Thema noch einiges zu untersuchen sein, was die Gestaltung pädagogischer Lehr-/ Lerneinheiten betrifft, da e-Learning-Kurse aus pädagogischer Sicht nicht mit Präsenzveranstaltungen gleichzusetzen sind. Die Verwendung von Standards im Bereich e-Learning ist sowohl für Kunden als auch für die Anbieter von Learning Management Systemen profitabel. Während Kunden die Möglichkeit bekommen aus einer Vielzahl von Anbietern zu wählen, die Standardschnittstellen anbieten, wächst für Anbieter der Kundenkreis, an den ihre Produkte verkauft werden können. Der Adaptionsprozess und die Forschung bezüglich des IMS LD steckt aber noch in den Anfängen. In diesem Zusammenhang wird eine verstärkte Öffentlichkeitsarbeit notwendig sein, um die Potentiale und das Know How bezüglich dieser Spezifikation zu vermitteln, und so den Adaptionsprozess voranzutreiben. Die Integration des Learning Designs in bestehende Spezifikationspakete wie z.B. SCORM würde die Akzeptanz und die Adaption auf dem Markt für e-Learning-Produkte möglicherweise erhöhen, vernachlässigt jedoch die Auseinandersetzung mit der eigentlichen Spezifikation. Die Integration weiterer Spezifikationen in das Learning Design ist derzeit noch problematisch, da hierfür einerseits rechtliche Grundlagen ungeklärt sind (IMS LIP, PAPI) und anderseits das technische Zusammenspiel der Interpreter noch nicht realisiert wurde. Das IMS LD ist eine große Chance für die Durchsetzung einheitlicher e-Learning- Konzepte. Es bietet einen Ansatz für die standardisierte Gestaltung von e-Learning-Systemen, der bis dato häufig nur durch Customizing (create one deliver once) gelöst werden konnte.
Vortrag an der "Die Lebendigkeit kritischer Gesellschaftstheorie", einer Arbeitstagung aus Anlass des 100. Geburtstages von Theodor W. Adorno, die am 4. - 6. Juli 2003 an der Johann Wolfgang Goethe-Universität in Frankfurt am Main statfand. Koordiniert von Prof. Dr. Andreas Gruschka und Prof. Dr. Ulrich Oevermann. Die Tagungsbeiträge können auch auf CD (je CD ein Vortrag) oder als DVD (alle Vorträge im MP3-Format) käuflich erworben werden. S.a. "Die Lebendigkeit der kritischen Gesellschaftstheorie", herausgegeben von Andreas Gruschka und Ulrich Oevermann. Dokumentation der Arbeitstagung aus Anlass des 100. Geburtstages von Theodor W. Adorno. Büchse der Pandora 2004, ISBN 3-88178-324-5
In hac lacrimarum valle. Adornos Stellung zur Metaphysik in ihrem Stande einer mataphysica deiecta
(2004)
Eröffnungsvortrag der "Die Lebendigkeit kritischer Gesellschaftstheorie", einer Arbeitstagung aus Anlass des 100. Geburtstages von Theodor W. Adorno, die am 4. - 6. Juli 2003 an der Johann Wolfgang Goethe-Universität in Frankfurt am Main statfand. Koordiniert von Prof. Dr. Andreas Gruschka und Prof. Dr. Ulrich Oevermann. Die Tagungsbeiträge können auch auf CD (je CD ein Vortrag) oder als DVD (alle Vorträge im MP3-Format) käuflich erworben werden. S.a. "Die Lebendigkeit der kritischen Gesellschaftstheorie", herausgegeben von Andreas Gruschka und Ulrich Oevermann. Dokumentation der Arbeitstagung aus Anlass des 100. Geburtstages von Theodor W. Adorno. Büchse der Pandora 2004, ISBN 3-88178-324-5
In the last decade, much effort went into the design of robust third-person pronominal anaphor resolution algorithms. Typical approaches are reported to achieve an accuracy of 60-85%. Recent research addresses the question of how to deal with the remaining difficult-toresolve anaphors. Lappin (2004) proposes a sequenced model of anaphor resolution according to which a cascade of processing modules employing knowledge and inferencing techniques of increasing complexity should be applied. The individual modules should only deal with and, hence, recognize the subset of anaphors for which they are competent. It will be shown that the problem of focusing on the competence cases is equivalent to the problem of giving precision precedence over recall. Three systems for high precision robust knowledge-poor anaphor resolution will be designed and compared: a ruleset-based approach, a salience threshold approach, and a machine-learning-based approach. According to corpus-based evaluation, there is no unique best approach. Which approach scores highest depends upon type of pronominal anaphor as well as upon text genre.
Assessing enhanced knowledge discovery systems (eKDSs) constitutes an intricate issue that is understood merely to a certain extent by now. Based upon an analysis of why it is difficult to formally evaluate eKDSs, it is argued for a change of perspective: eKDSs should be understood as intelligent tools for qualitative analysis that support, rather than substitute, the user in the exploration of the data; a qualitative gap will be identified as the main reason why the evaluation of enhanced knowledge discovery systems is difficult. In order to deal with this problem, the construction of a best practice model for eKDSs is advocated. Based on a brief recapitulation of similar work on spoken language dialogue systems, first steps towards achieving this goal are performed, and directions of future research are outlined.
Robuste Anaphernresolution
(2004)
Die zunehmende Bedeutung des Internets für den Informationstransfer stellt Bibliotheken vor eine neue Herausforderung. Es stellt sich die Frage, in welcher Weise Bibliotheken auf diese Entwicklung reagieren können. Um dieser Frage nachzugehen, hat die Senckenbergische Bibliothek in Frankfurt eine Studie in Auftrag gegeben, die anhand einer bundesweiten Befragung das aktuelle Informationsverhalten wie auch den aktuellen Informationsbedarf von Biologen in Deutschland ermittelt hat. Die Befragung wurde im November 2003 durchgeführt. Biologen aus verschiedenen Tätigkeitsbereichen wurden nach Kenntnis, Nutzung und Wichtigkeit von konventionellen und neuen Informationsangeboten bzw. quellen befragt. Insgesamt haben 1582 Biologen an der Befragung teilgenommen. Die Ergebnisse sollen dazu beitragen, das Angebot der Sondersammelgebiete der Senckenbergischen Bibliothek den aktuellen Bedürfnissen ihrer Nutzer anzupassen und bei Bedarf ein zentrales Informationsportal für biologische Literatur- und Fachinformation aufzubauen, das den Erwartungen der Nutzer entspricht.
Eine bedeutende Stelle der betrieblichen Funktionen nimmt die Beschaffung der Ware am Markt ein. Die Organisation des Beschaffungswesens ist dabei integraler Bestandteil der Unternehmensstrategie und führung. Die Beschaffung im engeren Sinne umfasst dabei den Einkauf von Anlagegütern, Roh-, Hilfs- und Betriebsstoffen, Fertigwaren sowie von Dienstleistungen (z. B. Transportleistungen) und Rechten (z. B. Lizenzen aus Patenten). Die Beschaffung ist neben der Produktions- und Absatzfunktion einer der Hauptbereiche betrieblicher Planung und Leistungserstellung [Bichler/Krohn 2001]. Die Hauptaufgabe des Einkaufs im Industrieunternehmen besteht in der Beschaffung von Materialen und Teilen nach den von den zuständigen Fachabteilungen vorgegebenen Qualitätsvorschriften, zu günstigen Konditionen und zum richtigen Zeitpunkt, wodurch die termingerechte Produktion sicher gestellt werden kann. Eine weiterführende Aufgabe des Einkaufs besteht in einer Analyse des Beschaffungsmarktes sowie in der Aufbereitung und Weitergabe von Informationen an den Vertrieb. Es sind die Hersteller auf dem Markt zu suchen und zu katalogisieren, welche die entsprechenden Materialien in gleich bleibender Qualität und zu günstigen Preisen liefern können [Bichler/Krohn 2001]. Die Organisation des Einkaufsprozesses stellt einen bedeutenden Problemfokus für die Unternehmensleitung dar. Gegenstand dieser Untersuchung ist die Fragestellung, wie sich Einkaufgenossenschaften im Bibliothekswesen optimal bilden sollen. Die Frage der Optimalität muss dazu zunächst präzisiert werden und wird vor dem Hintergrund verschiedener Zielsetzungen näher diskutiert. Einkaufsgenossenschaften und verbünde finden sich in der Praxis immer häufiger und stellen probate Mittel dar, die Kosten für den Bezug von nötigen Betriebsmaterialen nachhaltig zu senken. Im Sektor der wissenschaftlichen Informationsversorgung können seit einigen Jahren im Bereich der elektronischen Informationsressourcen ebenfalls Einkaufsverbünde in Form von Bibliothekskonsortien beobachtet werden. Ziel dieser Genossenschaften ist es, gemeinsam Lizenzen für elektronische Informationen zu erwerben. Die derzeitige Bezugspraxis zeigt, dass Konsortien überwiegend regional ausgerichtet sind und weniger auf thematischer Ebene agieren. Auch die Größe sowie Nachfragestruktur und intensität finden weitestgehend noch keine Beachtung. Diese Arbeit untersucht Vor- und Nachteile von Einkaufgenossenschaften und diskutiert verschiedene Entscheidungsmodelle zur Bestimmung einer optimalen Konsortialstruktur vor dem Hintergrund der derzeitig gegebenen Marktstrukturen im Sektor der wissenschaftlichen Informationsversorgung.
This study analyses the labour market effects of fixed-term contracts (FTCs) in West Germany by microeconometric methods using individual and establishment level data. In the first part of the study the role of FTCs in firms’ labour demand is analysed. An econometric investigation of the firms’ reasons for using FTCs focussing on the identification of the link between dismissal protection for permanent contract workers and the firms’ use of FTCs is presented. Furthermore, a descriptive analysis of the role of FTCs in worker and job flows at the firm level is provided. The second part of the study evaluates the short-run effects of being employed on an FTC on working conditions and wages using a large cross-sectional dataset of employees. The final part of the study analyses whether taking up an FTC increases the (permanent contract) employment opportunities in the long-run (stepping stone effect) and whether FTCs affect job finding behaviour of unemployed job searchers. Firstly, an econometric unemployment duration analysis distinguishing between both types of contracts as destination states is performed. Secondly, the effects of entering into FTCs from unemployment on future (permanent contract) employment opportunities are evaluated attempting to account for the sequential decision problem of job searchers.
Die vorliegende Studie hat die Häufigkeit familiärer Tumorhäufungen in Familien von Patienten mit kolorektalen Karzinomen und klinische Kriterien untersucht, die mit dem vermehrten Auftreten von Tumoren in diesen Familien assoziiert sind. Die Bedeutung von klinischen Diagnosekriterien zur Erfassung familiärer Häufigkeiten von Tumoren wurde analysiert. Dabei zeigte sich, dass die klassischen Diagnosekriterien im Alltag keine Bedeutung haben (die Amsterdam-Kriterien werden kaum erfüllt). Dass sich andererseits familiäre Tumorhäufungen mit einfachen klinischen Kriterien in hohem Ausmaß erfassen lassen, dazu zählt als wichtiges Kriterium: • Ein weiterer betroffener Patient mit Tumorleiden in der Familien im Diagnosealter <= 55 Jahre, • die Vertikale Transmission HNPCC-typischer Tumore Bei Anwendung dieser Kriterien können nahezu 2/3 der Familiären Cluster erkannt werden. Die Kombination von Kriterien, wie etwa „Diagnosealter des Patienten <= 50 Jahre mit Angehörigen mit Karzinom im Diagnosealter <= 50 Jahre“, sowie die Kombination „Diagnosealter des Patienten <= 50 Jahre und die Vertikale Transmission HNPCC-typischer Karzinome“ verbessert die Erkennung von Familien mit Tumorhäufungen nicht. Das Tumorspektrum in den so definierten Familien entspricht dem des HNPCC. Das legt den Schluss nahe, dass es sich um eine abortive Form des HNPCC oder aber um ein molekulargenetisch differentes, aber in der Manifestation mit dem HNPCC überlappendes Syndrom handeln könnte. Ob bei den so definierten Familien eine präventive Diagnostik erfolgreich ist, bedarf weiterer Studien. Solange kein einfaches molekulargenetisches Verfahren leicht und kostengünstig zur Verfügung steht, sind diese Anamnesekriterien für den klinischen Alltag und für die betroffenen Familien von außerordentlicher Bedeutung.
Die Thrombozytenaktivierung, die PLA-Bildung via CD62, die Leukozytenaktivierung und die entzündliche Aktivität am Endothel nehmen in der heutigen pathophysiologischen Vorstellung der peripheren Atherosklerose und ihrer Entstehung eine zentrale Rolle ein. In dieser Querschnittstudie wurden die PLA-Bildung und Marker der Plättchen-, Leukozyten- und Endothelaktivierung (PAC-1, CD62, Mac-1 und sICAM-1) bei 44 Patienten mit peripherer arterieller Verschlusskrankheit unter Therapie mit ASS (n=17), Clopidogrel (n=12), ihrer Kombination (n=8) oder ohne Therapie (n=7) und bei einer Kontrollgruppe, bestehend aus gesunden Probanden (n=9), untersucht. Die Messungen wurden mittels Flowzytometrie im Vollblut ohne (baseline) und nach in vitro Stimulation mit ADP oder TRAP und eines Immunoassays durchgeführt. Die CD62-Expression zeigte sich bei unbehandelten und mit ASS behandelten Patienten ohne und nach Stimulation signifikant höher als bei mit Clopidogrel oder mit einer Kombination aus ASS und Clopidogrel behandelten Patienten. Gleiches galt für die PLA-Bildung (Monozyten-Leukozyten-Aggregate). Die Mac-1-Expression zeigte sich in den mit TRAP oder ADP stimulierten Proben unter einer Kombina-tionstherapie aus ASS und Clopidogrel gegenüber Patienten ohne oder mit ASS Monotherapie signifikant reduziert. Die sICAM-1-Plasmakonzentrationen waren bei gesunden Probanden und bei antiaggregatorische behandelten Patienten signifikant niedriger als bei unbehandelten Patienten. Die Werte unterschieden sich dabei zwischen den verschiedenen antiaggregatorischen Therapien nur unwesentlich. Dies ist die erste Studie, die zeigt, dass die PLA-Bildung bei Patienten mit pAVK vermehrt ist und unter einer Therapie mit Clopidogrel gemindert wird.
In der vorliegenden Arbeit wird das Wachstums- und Zelltodverhalten von Tumoren des zentralen Nervensystems untersucht. Des Weiteren wird die Expression verschiedener Apoptose-assoziierter Faktoren in den Präparaten analysiert und mit Normalkontrollen verglichen. Es zeigt sich, dass Apoptose von Tumorzellen aller untersuchter Hirntumore und Malignitätsgrade vollzogen werden kann. Die Rate apoptotischer Zellen ist jedoch sehr variabel und korreliert nicht mit dem Malignitätsgrad der Tumore. Auch besteht keine Korrelation zwischen der Apoptose- und der Proliferationsrate. Die Ergebnisse legen insgesamt nahe, dass die Apoptoserate nicht als Marker für die Malignität von Tumoren des zentralen Nervensystems verwendet werden kann. Auch unter Einbeziehung Apoptose-assoziierter Faktoren ist eine Gradifikation der Tumore hinsichtlich der Malignität nicht möglich. So unterscheiden sich z.B. atypische (WHO-II) und anaplastische (WHO-III) Meningiome quantitativ und qualitativ nicht signifikant voneinander. Es können ebenfalls keine signifikanten Unterschiede hinsichtlich der Expression der untersuchten Apoptose-assoziierten Faktoren, sowie der Apoptose- und Proliferationsraten zwischen Medulloblastomen und primitiven neuroektodermalen Tumoren (PNETs) festgestellt werden. Dies spricht dafür, dass sich diese Tumore lediglich bezüglich ihrer Lokalisation im zentralen Nervensystem unterscheiden. Die Analyse der Apoptose-assoziierten Faktoren zeigt, dass alle untersuchten Faktoren grundsätzlich in allen untersuchten Tumoren vorkommen, während die Normalkontrollen diese Faktoren nicht exprimieren. Der Vollzug der Apoptose findet jedoch nicht in diesem Maße statt, da die Apoptoserate der Tumore (markiert durch TUNEL) stets wesentlich geringer ist als die Expressionsraten der Apoptose-assoziierten Faktoren. Es ist davon auszugehen, dass entdifferenzierte Tumorzellen entweder nur begrenzt in der Lage sind, ihr apoptotisches „Selbstzerstörungsprogramm“ in Gang zu setzen und zu Ende zu führen, oder, dass apoptosehemmende Mechanismen greifen. Um so interessanter wäre es, durch therapeutische Intervention Apoptose zu initiieren. Die Analyse der einzelnen Apoptose-assoziierten Faktoren liefert Hinweise darauf, an welchen Stellen des apoptotischen Systems eine solche Intervention ansetzen könnte: Die hochmalignen WHO-IV-Tumore zeigen eine signifikante Hochregulation der Effektor-Caspasen-3 und -6. Die physiologischen Aktivierungsmechanismen dieser Caspasen z.B. durch Caspase-2 und TNFalpha scheinen in diesen hochmalignen Tumoren jedoch weniger eine Rolle zu spielen, da diese Faktoren hier nur in geringem Ausmaß exprimiert werden. Jedoch könnten modifizierte, per se aktive Caspase-3- und -6-Moleküle eine interessante therapeutische Option zur Behandlung maligner Tumore des zentralen Nervensystems darstellen. Zu beachten ist aber unter anderem, dass z.B. Glioblastome auch geringe Expressionsraten apoptotischer Faktoren im peritumoralen, mikroskopisch nicht infiltrierten Normalgewebe zeigen. Dies könnte für eine peritumorale Dysfunktion des Hirngewebes sprechen. Welche Rolle dies bei der Behandlung mit Apoptose-stimulierenden Agenzien spielt und wie spezifisch die Anwendung solcher Stimulanzien für Tumorgewebe wären, muss Gegenstand weiterer Studien sein. Die untersuchten WHO-II- und –III-Tumore zeigen eine Hochregulation vor allem von Faktoren des extrinsischen Apoptoseweges (z.B. TNFalpha). Die Expressionsraten von TNFalpha korrelieren signifikant mit dem WHO-Grad der untersuchten Tumore. Interessante therapeutische Optionen könnten hier zum einen die Aktivierung des extrinsischen Apoptoseweges über TNFalpha sein, zum anderen könnte man versuchen, eine direkte Aktivierung über modifizierte Effektor-Caspasen herbeizuführen. Insgesamt existieren verschiedene mögliche Angriffsorte innerhalb des apoptotischen Netzwerkes der Zelle für eine thepeutische Intervention bei Tumoren des zentralen Nervensystems. Die Komplexität des Kaskade-artigen Systems legt nahe, dass eine therapeutische Intervention möglichst an dessen Ende erfolgen sollte, um möglichst viele Stör- und Hemmfaktoren zu umgehen.
Die meisten nanopartikulären Ansätze im Bereich der Arzneiformenentwicklung befinden sich am Anfang der klinischen Evaluation, sodass das wirkliche Potenzial nanotechnologischer Produkte sich erst in den kommenden Jahren abzeichnen wird. Die Zusammenführung von „Drug-Targeting“ und „sustained release“ mit nanotechnologischer Entwicklung könnte in Zukunft zu einem Fortschritt in der Medizin beitragen. Auf dem Gebiet der Antisense-Oligonukleotid (ASO)-Therapie stellt der ASOTransfer in Zielzellen eine entscheidende Hürde dar. ASO benötigt, um im Körper an den Wirkort zu gelangen, einen zuverlässigen Träger, der vor dem Abbau in physiologischen Milieu schützt, den Transport über extra- und intrazelluläre Barrieren im Körper gewährleistet und die ASO zielgerichtet an den Wirkort bringt. Der Einbau von ASO in kolloidale Trägersysteme wie Nanopartikel vermittelt eine effiziente Aufnahme in Zellen bei gleichzeitigem Schutz vor abbauenden Enzymen im Körper. Des Weiteren kann eine gezielte Aufnahme in Zielzellen erreicht werden, die normalerweise nicht auftritt. Bisherige Trägersysteme bestanden meist aus Nanopartikeln von synthetischen Materialien, die entweder die ASO an der Oberfläche adsorbiert oder in der Partikelmatrix inkorporiert hatten. Als Trägermaterialien wurden oft Polyalkylcyanoacrylate verwendet. Sie sind aufgrund ihrer negativen Ladung und Hydrophobizität nicht geeignet ohne Zugabe von Hilfsstoffen, welche in höheren Konzentrationen toxisch wirken, anionische hydrophile Substanzen wie ASO zu adsorbieren. Außerdem besteht bei Nanopartikeln mit adsorbierten ASO die Gefahr, dass es bei einer intravenösen Gabe zu einer Desorption der ASO kommt und somit ASO die Zielzellen nicht in verpackter Form erreicht. Im Rahmen dieser Arbeit wurden NP auf Basis von humanem Serumalbumin (HSA) als Trägersystem für ASO entwickelt. Durch Oberflächenmodifikation dieser Trägersysteme wurde eine Kopplung von anti-HER2 Antikörper ermöglicht und ein AK-vermitteltes Drug-Targeting erreicht. HSA als natürliches Makromolekül zeichnet sich durch geringe Toxizität und gute Biodegradierbarkeit aus. Ein weiterer Vorteil besteht darin, dass ein Wirkstoff mit vorhandenen Bindungsstellen im HSA-Molekül Wechselwirkungen eingehen kann, was eine erfolgreiche Einbindung gewährleistet. Zusätzlich eignen sich aus HSA hergestellte NP aufgrund funktioneller Gruppen an der Partikeloberfläche für die Kopplung von Antikörpern und ermöglichen somit eine zielgerichtete Arzneistofftherapie. Die entwickelten Trägersysteme wurden hinsichtlich kolloidaler Parameter wie Teilchengröße, Oberflächenladung, ASOBeladungseffizienz, Stabilität in physiologischen Medium und ihrem Vermögen, einen ASO-Effekt zu erzielen, in Zellkultur evaluiert. 4.1 Optimierung der Beladung von NP mit ASO Zunächst wurden HSA-NP hergestellt, bei denen die Beladung durch Inkorporieren des ASO in die Partikelmatrix erfolgte. Die Evaluierung des Desolvatationsprozesses ergab eine Abhängigkeit der ASO-Beladung vom zugesetzten Desolvatationsmittel Ethanol. Eine Mindestmenge eines 1,8-fachen Überschusses an Ethanol ist für die vollständige Desolvatation des HSA und damit für die Einbindung des daran adsorbierten ASO erforderlich. Ebenso beeinflusste die Quervernetzung der Partikel die ASO-Beladungseffizienz. Je mehr Glutaraldehyd zugesetzt wurde, desto stabiler waren die NP. Nimmt die Menge des Glutaraldehyds von 40% auf 200% zu, löste sich um so weniger ASO während der Waschschritte aus der Partikelmatrix heraus. Jedoch hat das Ausmaß der Quervernetzung einen entscheidenden Einfluss auf die Biodegradierbarkeit des Partikelsystems. Zu stark quervernetzte NP (Quervernetzung von 200%) können von intrazellulären Enzymen nicht mehr abgebaut werden, infolge dessen gelangt das eingebundene ASO nicht zu seinem Wirkort ins Zytoplasma. Im Folgenden wurde versucht über die Einführung einer permanenten kationischen Ladung (EDC/Cholamin-Reaktion) im HSA-Molekül ein Trägerpolymer mit höherer Beladungskapazität im Vergleich zu nativem HSA zu etablieren. Ein geringer Anteil von kationisiertem HSA (cHSA) in der HSA-Partikelmatrix reichte aus, um die ASOBeladungseffizienz um ein 2,5-faches signifikant zu steigern. Das Ziel der Oberflächenmodifikation der HSA-NP war eine Positivierung des Zetapotentials, um die Bindung negativ geladener Wirkstoffe wie ASO über elektrostatische Wechselwirkungen zu ermöglichen. Die Umsetzung der HSA-NP mit EDC und Cholamin führte zu einer deutlichen Verschiebung des Zetapotentials von ca. –20,0 mV in den positiven Bereich (+38,6 mV). Durch die Inkubation mit ASO konnten so große Menge an ASO effizient an die Partikeloberfläche (NP+) gebunden werden. Ein Vergleich dieser Ergebnisse zeigte, dass die Beladung mit ASO in der Reihenfolge von Albumin-NP (HSA-NP) mit einer Beladungseffizienz von 7,6 µg ASO / mg NP zu Nanopartikeln, die in der Partikelmatrix inkorporierten Anteil an kationisiertem Albumin enthielten (cHSA-NP) mit 18,2 µg ASO / mg NP, zu Oberflächen-kationisierten Nanopartikeln (NP+) mit 100 µg ASO / mg NP signifikant zunahm. 4.2 Mit ASO-beladene NP in der Zellkultur HSA-NP wurden von allen verwendeten Brustkrebszell-Linien gut vertragen. Nach Zellaufnahme der HSA-NP wurden bei niedriger Quervernetzung (40%) die Partikel gut intrazellulär abgebaut und das ASO in das Zytoplasma freigesetzt. Es konnte im CLSM gezeigt werden, dass die ASO-Freisetzung innerhalb von 24 h zunahm. Alle Versuche mittels den entwickelten ASO-beladenen Trägersystemen einen Antisense Effekt nachzuweisen schlugen fehl. Da die Beladung der HSA-NP nicht weiter erhöht werden konnte, richtete sich ein neuer Ansatz auf eine verbesserte Aufnahme der NP über einen Rezeptor-vermittelten Mechanismus. 4.3 Antikörper-vermittelte Anreicherung von NP in Zielzellen Die Anwendung von monoklonalen Antikörpern mit einer Spezifität gegenüber Tumorzellen ist eine relativ neue und spannende Modalität in der Krebstherapie. Eine der vielversprechenden Zielstrukturen für eine solche Immunotherapie stellt der HER2-Membranrezeptor dar, dessen Überexpression mit einer schlechten Prognose assoziiert ist. HER2 ist ein Produkt des Proto-Onkogens erbB2, das für einen 185 kDa Transmembrantyrosinkinase Wachstumsfaktorrezeptor kodiert. Dieser Rezeptor ist in normalem Gewebe bei Erwachsenen nur geringfügig exprimiert [Press et al., 1990], aber ist bei ungefähr 30% der Patienten mit humanem Magenkarzinom, Lungen- und Brustkrebs überexprimiert. Gegenwärtig dient HER2 als Tumormarker für die zielgerichtete Behandlung mit dem humanisierten anti-HER2 AK Trastuzumab (Herceptin®) von Patientinnen bei metastasierendem Brustkrebs. Jedoch können bessere Ergebnisse erreicht werden, wenn Trastuzumab in Kombination mit anderen Zytostatika verabreicht wird. Antikörper haben bei alleiniger Gabe eine ausreichende Antitumoraktivität, aber sie können auch konjugiert mit Zytostatika sowie Toxinen und Radionukliden, genutzt werden, um diese zu den Tumoren bringen. Im Prinzip kann die Trägereigenschaft von Antikörpern gesteigert werden, wenn ein Antikörper an ein Arzneistoffreservoir, wie Nanopartikel oder Liposomen geknüpft ist. Der Vorteil dieses innovativen Ansatzes für eine zellspezifische Anreicherung im Vergleich zu herkömmlichen Biokonjugaten ist, dass eine höhere Arzneistoffträgerkapazität mit einer verbesserten Spezifität für eine zielgerichtete Pharmakotherapie kombiniert werden kann. Wegen seiner erhöhten Expression in Tumorzellen, seiner extrazellulären Verfügbarkeit und seiner Fähigkeit nach Antikörperbindung internalisiert zu werden, stellt HER2 eine geeignete Zielstruktur für die Tumortherapie mit zellspezifischen Nanopartikeln dar. Das Ziel dieser Arbeit war es, die Funktion Antikörpermodifizierter Protein-basierter Nanopartikel zu untersuchen und eine spezifische Aufnahme in HER2-überexprimierende Zell-Linien zu verbessern. Ein spezifisches Targeting wurde in verschiedenen Krebszell-Linien mit unterschiedlichen HER2- Expressionsleveln durch FACS-Analyse bewiesen. Die Versuche beinhalteten Inhibitionsexperimente durch Vorinkubation mit Trastuzumab, um die Selektivität der Bindungsstellen auf der Zelloberfläche zu unterstreichen. Die zelluläre Aufnahme dieser Nanopartikel, ebenso wie die zelluläre Verteilung, konnte im CLSM beobachtet werden. Diese ermutigenden Ergebnisse heben den potenziellen Wert Antikörper-modifizierter Nanopartikel für eine spezifische Anreicherung in Tumorzellen hervor. Anti-HER2-NP binden effizient an HER2-überexprimierende Zellen (85%) und werden anschließend internalisiert. Im Anschluss wurde die Beladung von ASO in HSA-NP mit den erhaltenen Erkenntnissen Antikörpermodifizierter HSA-NP kombiniert. Zunächst wurde die Freisetzung von farbmarkierten ASO aus AK-modifizierten HSA-NP in SK-Br-3- und MCF7-Zellen untersucht. Durch die spezifische Aufnahme der AK-modifizierten HSA-NP gelangt bereits innerhalb der ersten Stunde deutlich mehr ASO in die Zelle. Die Zellaufnahme und Freisetzung in das Zytosol der Zelle ist abhängig vom HER2- Protein auf der Zelloberfläche und nimmt über 24 h stark zu. SK-Br-3-Zellen reichern das farbmarkierte ASO stärker als die MCF7-Zellen an. Wirksame ASOKonzentrationen können in SK-Br-3-Zellen mit einer sehr geringen Partikelkonzentration von nur 50 µg anti-HER2-NP/ml erzielt werden, während in MCF7- Zellen eine weit aus höhere Partikelkonzentration notwendig ist. Da die HER2- überexprimierenden Zellen, die für einen Antisense-Testung zur Verfügung standen, sich nicht für den Nachweis eines Antisense-Effektes eigneten, konnte die entwickelte Kombination von ASO-beladenen AK-modifizierten Albumin- Nanopartikeln nicht weiter getestet werden. In Kombination mit einem in die Nanopartikel inkorporierten Arzneistoff wird eine wirksame intrazelluläre Arzneistoffabgabe erwartet. Die Anwendung Antikörpermodifizierter Nanopartikel kann Arzneistoff-Trägereigenschaften mit einer zielgerichteten Tumortherapie kombinieren. Diese neue Generation von immunospezifischen Nanopartikeln sollte auf jeden Fall noch weiter im Einzelnen untersucht werden, um die Wirksamkeit dieser Arzneistoffträgersysteme unter in vitro und in vivo Bedingungen zu belegen.
Genetisch prädisponierende Faktoren und äußere Einflussfaktoren haben eine wesentliche ätiopathogenetische Bedeutung bei der multiplen Sklerose. Zahlreiche Fall-Kontroll-Studien und eine zunehmende Anzahl von Kohorten-Studien wurden zur Aufdeckung äußerer Risikofaktoren durchgeführt. Dennoch bleibt bis heute die Ätiologie der multiplen Sklerose weiterhin rätselhaft. In der vorliegenden Fall-Kontroll-Studie wurden Daten von 538 MS-Patienten, die im Laufe einer Langzeitstudie zur multiplen Sklerose in Südhessen von 1979 bis 1998 mittels eines ausführlichen Interviews befragt wurden, mit den Daten von 102 ebenfalls durch Interview befragten stationär chirurgischen Kontrollpersonen verglichen. Die Studie bezog sich hauptsächlich auf Einflüsse in der Kindheit und Jugend. Im Jahre 1998 wurden 102 Patienten (68 Frauen, 34 Männer), die in der Mehrzahl zur Durchführung einer Appendektomie, Thyreoidektomie, Herniotomie oder Cholezystektomiein der Chirurgischen Klinik des Evangelischen Krankenhauses Elisabethenstift in Darmstadt stationär behandelt wurden, während ihres stationären Aufenthaltes befragt. Ausgeschlossen waren Patienten mit malignen Erkrankungen, Autoimmunerkrankungen und multimorbide, schwer kranke Patienten. Alle Kontrollpersonen wurden ausschließlich durch den Autor befragt. Von 1979 bis 1998 wurden insgesamt 538 multiple Sklerose-Patienten des Areals Südhessen, die zwischen 1938 und 1978 geboren wurden, ebenfalls mittels Fragebogen erfasst (364 Frauen, 174 Männer). Die meisten Befragungen erfolgten durch ein und denselben Untersucher (K. Lauer). Erfragt wurden zahlreiche Expositionen im Sinne der Hypothesengenerierung aus folgenden Bereichen: Kindliche Infektionen, ausgewählte internistische Erkrankungen, Traumata, Operationen und Anästhesien, Medikamente, Zahnstatus, Ernährung, Zigarettenkonsum, Wohn- und Sanitärverhältnisse, multiple Sklerose in Familie und Umgebung sowie Sozialstatus. In der bivariaten Auswertung wurden für jede Variable die Odds Ratio (OR) und das 95%- Konfidenzintervall (KI) errechnet und der p-Wert wurde mit dem Chi2-Test bzw. mit dem zweiseitigen Fisher-Test ermittelt. Hierzu wurde das Statistikprogramm Epi Info 6.0 verwendet. Für die multivariate Auswertung wurde eine schrittweise logistische Regressionsanalyse mit jeweiliger Elimination einer Variablen bis zum Signifikanzniveau (p X 0,05) vorgenommen. In die multivariate Analyse gingen alle signifikanten Variablen der bivariaten Auswertung (p X 0,05) sowie Geschlecht und Geburtsjahr ein. Die Variable „Tetanusimpfung“ wurde nicht mit einbezogen. Primäre Nachteile der vorliegenden Fall-Kontroll-Studie sind die unterschiedlichen Befragungszeiträume und Interviewer bei den Fällen und Kontrollen, weiterhin die Tatsache, dass der Fragebogen nur eine Reliabilität für eine eingeschränkte Zahl von Variablen bei den MS-Fällen und eine unbekannte Validität aufweist. Alter und Geschlecht wurden durch die Einbeziehung in die multivariate Auswertung kontrolliert. Bei der bivariaten Auswertung der Daten aller MS-Patienten und Kontrollpersonen waren die Variablen „Masern“, „Masern R 6 Jahre“, „Keuchhusten“, „oft Angina“, „Aether-/Chloroformnarkose“, „Karies“, „Konsum tierischer Fette“, „Hausschlachtung“, „Konsum pflanzlicher Fette“, „MS in der Familie“, „Kohleheizung“, „Kontakt zu Mäusen“ sowie „Kontakt zu Ratten“ mit einem signifikant erhöhten MS-Risiko assoziiert. Für das Vorhandensein von MS im Bekanntenkreis zeigte sich eine grenzwertig signifikante positive Assoziation. Die Variablen „Windpocken“, „Nasennebenhöhlenentzündung“ (Sinusitis), „Darmwürmer“ (Helminthosis), „>5 Zahnfüllungen“, „Polio-Impfung“, „Tetanus-Impfung“, „Diphtherie-Impfung“, „Konsum vieler Eier“ und „Abwasserentsorgung über Klärwerk“ waren signifikant invers mit MS assoziiert; für „Scharlach“, „Hypothyreose“ und „Abwasserentsorgung über ausgebaute Kanalisation“ ergab sich eine grenzwertig signifikante negative Assoziation. Außerdem erfolgten getrennte bivariate Auswertungen für die Subgruppen „weibliche MS-Patienten“, „männliche MS-Patienten“, „MS-Patienten mit schubförmigem Krankheitsbeginn“ und „MS-Patienten mit primär chronisch progredienter Verlaufsform“ mit den jeweiligen Kontrollpersonen. In den multivariaten Auswertungen ergaben sich für die Variablen „pflanzliche Fette“, „tierische Fette“, „Masern“ (bei Frauen), „Mäuse“, „MS in Familie“ (bei MS-Patienten mit schubförmigem Krankheitsbeginn) und „Kohleheizung“ positive Korrelationen zur multiplen Sklerose. Negativ korrelierend waren „Diphtherie-Impfung“, „Sinusitis“ und „viele Eier“ (bei Frauen). Der vermehrte Konsum tierischer Fette bei den MS-Kranken steht in Einklang mit zahlreichen Untersuchungen, während die gefundene Häufung von Pflanzenfett vorerst nicht erklärt ist. Zahlreiche andere Studien bestätigen auch das Vorhandensein einer multiplen Sklerose in der Familie als Risikofaktor. Ein erhöhtes Risiko für Mäusekontakte und Kohleheizung sollte in weiteren Untersuchungen überprüft werden. Für den bei den MS-Kranken gefundenen, selteneren Befall mit Würmern deutet sich eine biologische Plausibilität über die vermehrte TH2-Zellantwort bei Wurmbefall an. Zum Auftreten von Sinusitiden, das in der eigenen Studie seltener bei den Fällen war, liegen kontroverse Befunde bisheriger Untersuchungen vor. Ein protektiver Einfluss der Diphtherieimpfung wurde ebenfalls von anderen Untersuchern gefunden und sollte weiter überprüft werden. Letztendlich ist in der vorliegenden Arbeit eine Selektions-Verzerrung des MS-Risikos durch die ländliche Wohnortgröße, die nicht kontrolliert werden konnte, nicht auszuschließen, so dass eine zunächst vorsichtige Interpretation am Platze ist.
Katheterverschluß des Vorhofseptumdefektes unter besonderer Berücksichtigung der Langzeitergebnisse
(2004)
Zwischen 5/93 und 12/1999 wurde bei 166 Patienten mit einem ASD vom Sekundum-Typ und bei 178 Patienten mit persistierendem Foramen Ovale versucht, den intreratrialen Defekt transfemoral zu verschließen. Dies gelang bei 156 Patienten mit ASD (Erfolgsquote 94%) und bei allen Patienten mit PFO. Dabei wurden ASDOS-, Buttoned Device-, Angelwing-, CardioSeal- , Amplatzer- , Starflex-, und Helex-Okkluder verwendet. In dieser Arbeit sollen die Akutergebnisse und insbesondere der Langzeitverlauf nach diesen Verschlüssen dokumentiert werden. Das Alter der 115 weiblichen und 51 männlichen Patienten mit ASD betrug im Mittel 47,1 ± 17 (13 – 77) Jahre, das der 97 weiblichen und 91 männlichen Patienten mit PFO 46 ± 13 (17 – 75) Jahre. Die Defektgröße der ASD im transösophagealen Echokardiogramm betrugen 14,1 ± 6,7 (3,4 - 29,4) mm (n=117). Mittels Ballonpassage gemessen betrugen sie 20,6 ± 5,3 (6 – 35) mm (n=150), der Stretched diameter betrug 17,6 ± 4,7 (7 – 29) mm (n=97). Die Defektgröße der PFO betrug 12,3 ± 3,3 (4 – 24) mm (Ballonpassage n=173) bzw. 8,9 ± 3,1 (3 – 20) mm (Stretched diameter n=122). Bei 130 Patienten (78,3%) mit ASD gelang der Verschluß im ersten Versuch. Bei 9 (5,4%) waren mehrere Versuche in einer Sitzung nötig, bei 6 (3,6%) führte erst eine zweite Sitzung zum Erfolg. Bei 6 (4,6%) wurde ein zweiter Okkluder implantiert. Insgesamt konnten 156 Patienten (94%) erfolgreich transfemoral behandelt werden. Bei 10 Patienten (6 %) gelang der transfemorale Verschluß nicht. Der Verschluß des PFO war bei allen Patienten erfolgreich. Bei 179 der 188 Patienten (95,2%) gelang der Verschluß im ersten Versuch. Bei 4 Patienten (2,1%) waren mehrere Versuche in einer Sitzung nötig, bei 2 Patienten (1,1%) führte erst die zweite Sitzung zum Erfolg. Bei 2 Patienten (1,1%) wurde aufgrund von Restshunt ein zweiter Okkluder implantiert. Der Nachbeobachtungszeitraum betrug im Mittel bei den ASD-Patienten 23,7 und bei den PFO-Patienten 21,3 Monate. Bei den 101 ASD-Patienten, bei denen sowohl vor, als auch nach dem Eingriff das Shuntvolumen bestimmt wurde, sank das Verhältnis von Qp/Qs signifikant von 2 ± 0,5 auf 1,1 ± 0,3 (p<0,001). Im TEE war 6 Monate nach dem Defektverschluß (n=121) bei 77,7% der Patienten kein Shunt mehr feststellbar, bei 8,3% war ein sehr kleiner Shunt (<2 mm) und bei 14,1% ein Shunt >2 mm vorhanden. Jedoch hatten 51,9% der Patienten, bei denen ein Restshunt vorlag, mehr als einen Defekt. Es traten in den ersten 6 Monaten folgende Komplikationen auf: Embolie bei Vorhofflimmern (n=1), Dislokation des Okkluders (mit operativer Entfernung) (n=1), Perforation des Vorhofs durch den Schirm (n=1), retroperitoneale Blutung (n=1), Synkopen bei älterer Patientin (n=1). Die Komplikationsrate betrug 7,7%. Im Langzeitverlauf gab es folgende Komplikationen: Mitralinsuffizienz (n=1), Dislokation des Okkluders (n=2), Hirnstamminsult bei intaktem Okkluder ohne Restshunt (n=1), Hörsturz (n=1), Thrombus (n=1). Die Komplikationsrate betrug 1,6% pro Jahr. Bei den Patienten mit PFO ereigneten sich in den ersten 6 Monaten an Komplikationen Rezidivinsulte (n=3), davon 1 mit Dislokation des Okkluders und Infektionen (n=1). Die Rate an Komplikationen betrug in dieser Zeit 4,3% pro Jahr. Die Rate an Rezidiven betrug 3,2%. Im Langzeitverlauf zeigten sich an Komplikationen Rezidivinsulte bei intaktem Okkluder ohne Restshunt (n=2) und Blutungen (n=1). Die Rezidivrate betrug im gesamten postinterventionellen Verlauf 1,5% pro Jahr.
Gewalt in der Schule
(2004)
We modify the concept of LLL-reduction of lattice bases in the sense of Lenstra, Lenstra, Lovasz [LLL82] towards a faster reduction algorithm. We organize LLL-reduction in segments of the basis. Our SLLL-bases approximate the successive minima of the lattice in nearly the same way as LLL-bases. For integer lattices of dimension n given by a basis of length 2exp(O(n)), SLLL-reduction runs in O(n.exp(5+epsilon)) bit operations for every epsilon > 0, compared to O(exp(n7+epsilon)) for the original LLL and to O(exp(n6+epsilon)) for the LLL-algorithms of Schnorr (1988) and Storjohann (1996). We present an even faster algorithm for SLLL-reduction via iterated subsegments running in O(n*exp(3)*log n) arithmetic steps.
Let G be a Fuchsian group containing two torsion free subgroups defining isomorphic Riemann surfaces. Then these surface subgroups K and alpha-Kalpha exp(-1) are conjugate in PSl(2,R), but in general the conjugating element alpha cannot be taken in G or a finite index Fuchsian extension of G. We will show that in the case of a normal inclusion in a triangle group G these alpha can be chosen in some triangle group extending G. It turns out that the method leading to this result allows also to answer the question how many different regular dessins of the same type can exist on a given quasiplatonic Riemann surface.
Im Rahmen dieser Diplomarbeit wurde eine Methode entwickelt,im dreidimensionalen Raum den Strahlverlauf geladener Teilchen durch ein stationäres elektromagnetisches Feld unter Berücksichtigung der elektrischen Eigenfelder zu bestimmen. Weiterhin wurde gezeigt, wie sich die Genauigkeit der Bahnintegration durch Einführung verbesserter Feldinterpolationsmethoden und verschiedener Integrationsmethoden erhöhen läßt. Dabei zeigte sich, dass die Wahl einer geeigneten Methode zur Feldinterpolation wichtiger ist als die zur Bahnintegration. Die entwickelten Methoden wurden in einer (in der Sprache Java programmierten) Applikation umgesetzt und verwendet, um die Separation von Elektronen aus einem H - Ionenstrahl dreidimensional zu simulieren.
The large conductance voltage- and Ca2+-activated potassium (BK) channel has been suggested to play an important role in the signal transduction process of cochlear inner hair cells. BK channels have been shown to be composed of the pore-forming alpha-subunit coexpressed with the auxiliary beta-1-subunit. Analyzing the hearing function and cochlear phenotype of BK channel alpha-(BKalpha–/–) and beta-1-subunit (BKbeta-1–/–) knockout mice, we demonstrate normal hearing function and cochlear structure of BKbeta-1–/– mice. During the first 4 postnatal weeks also, BKalpha–/– mice most surprisingly did not show any obvious hearing deficits. High-frequency hearing loss developed in BKalpha–/– mice only from ca. 8 weeks postnatally onward and was accompanied by a lack of distortion product otoacoustic emissions, suggesting outer hair cell (OHC) dysfunction. Hearing loss was linked to a loss of the KCNQ4 potassium channel in membranes of OHCs in the basal and midbasal cochlear turn, preceding hair cell degeneration and leading to a similar phenotype as elicited by pharmacologic blockade of KCNQ4 channels. Although the actual link between BK gene deletion, loss of KCNQ4 in OHCs, and OHC degeneration requires further investigation, data already suggest human BK-coding slo1 gene mutation as a susceptibility factor for progressive deafness, similar to KCNQ4 potassium channel mutations. © 2004, The National Academy of Sciences. Freely available online through the PNAS open access option.
Dendritic cells (DC) are known to present exogenous protein Ag effectively to T cells. In this study we sought to identify the proteases that DC employ during antigen processing. The murine epidermal-derived DC line Xs52, when pulsed with PPD, optimally activated the PPD-reactive Th1 clone LNC.2F1 as well as the Th2 clone LNC.4k1, and this activation was completely blocked by chloroquine pretreatment. These results validate the capacity of XS52 DC to digest PPD into immunogenic peptides inducing antigen specific T cell immune responses. XS52 DC, as well as splenic DC and DCs derived from bone marrow degraded standard substrates for cathepsins B, C, D/E, H, J, and L, tryptase, and chymases, indicating that DC express a variety of protease activities. Treatment of XS52 DC with pepstatin A, an inhibitor of aspartic acid proteases, completely abrogated their capacity to present native PPD, but not trypsin-digested PPD fragments to Th1 and Th2 cell clones. Pepstatin A also inhibited cathepsin D/E activity selectively among the XS52 DC-associated protease activities. On the other hand, inhibitors of serine proteases (dichloroisocoumarin, DCI) or of cystein proteases (E-64) did not impair XS52 DC presentation of PPD, nor did they inhibit cathepsin D/E activity. Finally, all tested DC populations (XS52 DC, splenic DC, and bone marrow-derived DC) constitutively expressed cathepsin D mRNA. These results suggest that DC primarily employ cathepsin D (and perhaps E) to digest PPD into antigenic peptides.
Background: The neurophysiological and neuroanatomical foundations of persistent developmental stuttering (PDS) are still a matter of dispute. A main argument is that stutterers show atypical anatomical asymmetries of speech-relevant brain areas, which possibly affect speech fluency. The major aim of this study was to determine whether adults with PDS have anomalous anatomy in cortical speech-language areas. Methods: Adults with PDS (n = 10) and controls (n = 10) matched for age, sex, hand preference, and education were studied using high-resolution MRI scans. Using a new variant of the voxel-based morphometry technique (augmented VBM) the brains of stutterers and non-stutterers were compared with respect to white matter (WM) and grey matter (GM) differences. Results: We found increased WM volumes in a right-hemispheric network comprising the superior temporal gyrus (including the planum temporale), the inferior frontal gyrus (including the pars triangularis), the precentral gyrus in the vicinity of the face and mouth representation, and the anterior middle frontal gyrus. In addition, we detected a leftward WM asymmetry in the auditory cortex in non-stutterers, while stutterers showed symmetric WM volumes. Conclusions: These results provide strong evidence that adults with PDS have anomalous anatomy not only in perisylvian speech and language areas but also in prefrontal and sensorimotor areas. Whether this atypical asymmetry of WM is the cause or the consequence of stuttering is still an unanswered question. This article is available from: http://www.biomedcentral.com/1471-2377/4/23 © 2004 Jäncke et al; licensee BioMed Central Ltd. This is an Open Access article distributed under the terms of the Creative Commons Attribution License (http://creativecommons.org/licenses/by/2.0), which permits unrestricted use, distribution, and reproduction in any medium, provided the original work is properly cited.
Background: In rat, deafferentation of one labyrinth (unilateral labyrinthectomy) results in a characteristic syndrome of ocular and motor postural disorders (e.g., barrel rotation, circling behavior, and spontaneous nystagmus). Behavioral recovery (e.g., diminished symptoms), encompassing 1 week after unilateral labyrinthectomy, has been termed vestibular compensation. Evidence suggesting that the histamine H3 receptor plays a key role in vestibular compensation comes from studies indicating that betahistine, a histamine-like drug that acts as both a partial histamine H1 receptor agonist and an H3 receptor antagonist, can accelerate the process of vestibular compensation. Results: Expression levels for histamine H3 receptor (total) as well as three isoforms which display variable lengths of the third intracellular loop of the receptor were analyzed using in situ hybridization on brain sections containing the rat medial vestibular nucleus after unilateral labyrinthectomy. We compared these expression levels to H3 receptor binding densities. Total H3 receptor mRNA levels (detected by oligo probe H3X) as well as mRNA levels of the three receptor isoforms studied (detected by oligo probes H3A, H3B, and H3C) showed a pattern of increase, which was bilaterally significant at 24 h post-lesion for both H3X and H3C, followed by significant bilateral decreases in medial vestibular nuclei occurring 48 h (H3X and H3B) and 1 week post-lesion (H3A, H3B, and H3C). Expression levels of H3B was an exception to the forementioned pattern with significant decreases already detected at 24 h post-lesion. Coinciding with the decreasing trends in H3 receptor mRNA levels was an observed increase in H3 receptor binding densities occurring in the ipsilateral medial vestibular nuclei 48 h post-lesion. Conclusion: Progressive recovery of the resting discharge of the deafferentated medial vestibular nuclei neurons results in functional restoration of the static postural and occulomotor deficits, usually occurring within a time frame of 48 hours in rats. Our data suggests that the H3 receptor may be an essential part of pre-synaptic mechanisms required for reestablishing resting activities 48 h after unilateral labyrinthectomy.
Western cultures have witnessed a tremendous cultural and social transformation of sexuality in the years since the sexual revolution. Apart from a few public debates and scandals, the process has moved along gradually and quietly. Yet its real and symbolic effects are probably much more consequential than those generated by the sexual revolution of the sixties. Sigusch refers to the broad-based recoding and reassessment of the sexual sphere during the eighties and nineties as the "neosexual revolution". The neosexual revolution is dismantling the old patterns of sexuality and reassembling them anew. In the process, dimensions, intimate relationships, preferences and sexual fragments emerge, many of which had submerged, were unnamed or simply did not exist before. In general, sexuality has lost much of its symbolic meaning as a cultural phenomenon. Sexuality is no longer the great metaphor for pleasure and happiness, nor is it so greatly overestimated as it was during the sexual revolution. It is now widely taken for granted, much like egotism or motility. Whereas sex was once mystified in a positive sense - as ecstasy and transgression, it has now taken on a negative mystification characterized by abuse, violence and deadly infection. While the old sexuality was based primarily upon sexual instinct, orgasm and the heterosexual couple, neosexualities revolve predominantly around gender difference, thrills, self-gratification and prosthetic substitution. From the vast number of interrelated processes from which neosexualities emerge, three empirically observable phenomena have been selected for discussion here: the dissociation of the sexual sphere, the dispersion of sexual fragments and the diversification of intimate relationships. The outcome of the neosexual revolution may be described as "lean sexuality" and "self-sex".
Background: Common warts (verrucae vulgares) are human papilloma virus (HPV) infections with a high incidence and prevalence, most often affecting hands and feet, being able to impair quality of life. About 30 different therapeutic regimens described in literature reveal a lack of a single striking strategy. Recent publications showed positive results of photodynamic therapy (PDT) with 5-aminolevulinic acid (5-ALA) in the treatment of HPV-induced skin diseases, especially warts, using visible light (VIS) to stimulate an absorption band of endogenously formed protoporphyrin IX. Additional experiences adding waterfiltered infrared A (wIRA) during 5-ALA-PDT revealed positive effects. Aim of the study: First prospective randomised controlled blind study including PDT and wIRA in the treatment of recalcitrant common hand and foot warts. Comparison of "5-ALA cream (ALA) vs. placebo cream (PLC)" and "irradiation with visible light and wIRA (VIS+wIRA) vs. irradiation with visible light alone (VIS)". Methods: Pre-treatment with keratolysis (salicylic acid) and curettage. PDT treatment: topical application of 5-ALA (Medac) in "unguentum emulsificans aquosum" vs. placebo; irradiation: combination of VIS and a large amount of wIRA (Hydrosun® radiator type 501, 4 mm water cuvette, waterfiltered spectrum 590-1400 nm, contact-free, typically painless) vs. VIS alone. Post-treatment with retinoic acid ointment. One to three therapy cycles every 3 weeks. Main variable of interest: "Percent change of total wart area of each patient over the time" (18 weeks). Global judgement by patient and by physician and subjective rating of feeling/pain (visual analogue scales). 80 patients with therapy-resistant common hand and foot warts were assigned randomly into one of the four therapy groups with comparable numbers of warts at comparable sites in all groups. Results: The individual total wart area decreased during 18 weeks in group 1 (ALA+VIS+wIRA) and in group 2 (PLC+VIS+wIRA) significantly more than in both groups without wIRA (group 3 (ALA+VIS) and 4 (PLC+VIS)): medians and interquartile ranges: -94% (-100%/-84%) vs. -99% (-100%/-71%) vs. -47% (-75%/0%) vs. -73% (-92%/-27%). After 18 weeks the two groups with wIRA differed remarkably from the two groups without wIRA: 42% vs. 7% completely cured patients; 72% vs. 34% vanished warts. Global judgement by patient and by physician and subjective rating of feeling was much better in the two groups with wIRA than in the two groups without wIRA. Conclusions: The above described complete treatment scheme of hand and foot warts (keratolysis, curettage, PDT treatment, irradiation with VIS+wIRA, retinoic acid ointment; three therapy cycles every 3 weeks) proved to be effective. Within this treatment scheme wIRA as non-invasive and painless treatment modality revealed to be an important, effective factor, while photodynamic therapy with 5-ALA in the described form did not contribute recognisably - neither alone (without wIRA) nor in combination with wIRA - to a clinical improvement. For future treatment of warts an even improved scheme is proposed: one treatment cycle (keratolysis, curettage, wIRA, without PDT) once a week for six to nine weeks. © 2004 Fuchs et al; licensee German Medical Science. This is an Open Access article: verbatim copying and redistribution of this article are permitted in all media for any purpose, provided this notice is preserved along with the article's original URL : http://www.egms.de/en/gms/volume2.shtml
We present an overview of the mathematics underlying the quantum Zeno effect. Classical, functional analytic results are put into perspective and compared with more recent ones. This yields some new insights into mathematical preconditions entailing the Zeno paradox, in particular a simplified proof of Misra's and Sudarshan's theorem. We empahsise the complex-analytic structures associated to the issue of existence of the Zeno dynamics. On grounds of the assembled material, we reason about possible future mathematical developments pertaining to the Zeno paradox and its counterpart, the anti-Zeno paradox, both of which seem to be close to complete characterisations. PACS-Klassifikation: 03.65.Xp, 03.65Db, 05.30.-d, 02.30.T . See the corresponding presentation: Schmidt, Andreas U.: "Zeno Dynamics of von Neumann Algebras" and "Zeno Dynamics in Quantum Statistical Mechanics"
We study the quantum Zeno effect in quantum statistical mechanics within the operator algebraic framework. We formulate a condition for the appearance of the effect in W*-dynamical systems, in terms of the short-time behaviour of the dynamics. Examples of quantum spin systems show that this condition can be effectively applied to quantum statistical mechanical models. Furthermore, we derive an explicit form of the Zeno generator, and use it to construct Gibbs equilibrium states for the Zeno dynamics. As a concrete example, we consider the X-Y model, for which we show that a frequent measurement at a microscopic level, e.g. a single lattice site, can produce a macroscopic effect in changing the global equilibrium. PACS - Klassifikation: 03.65.Xp, 05.30.-d, 02.30. See the corresponding papers: Schmidt, Andreas U.: "Zeno Dynamics of von Neumann Algebras" and "Mathematics of the Quantum Zeno Effect" and the talk "Zeno Dynamics in Quantum Statistical Mechanics" - http://publikationen.ub.uni-frankfurt.de/volltexte/2005/1167/
Synthese von modifizierten Nukleotiden und modifizierten Oligodesoxynukleotiden zur DNA-Analytik
(2004)
1.) Entwicklung eines Verfahrens zum Nachweis von Wechselwirkungen zwischen Sondenmolekülen und Targetmolekülen auf einem Sonden-Array Innerhalb des Projektes sollte ein Verfahren entwickelt werden, dass zum Nachweis von Wechselwirkungen zwischen Sondenmolekülen und Targetmolekülen auf Sonden-Arrays genutzt werden kann. Der prinzipielle Aufbau dieses Testsystems wird in der vorliegenden Arbeit beschrieben. Einer der entscheidenden Schritte zur Entwicklung dieses Verfahrens, ist die Einführung einer selektiv spaltbaren Bindung innerhalb der DNA. Die von uns hierfür präferierte Bindung ist die 5´-O-P-S-3´ Bindung. Das erste zu realisierende Ziel bestand damit in der Synthese der entsprechend 5´-Thio-modifizierten Amidite. Die Synthese von 4,4´-Dimethoxytriphenylmethanthiol, als alternative Schwefel-Quelle und gleichzeitig temporäre 5´-Schutzgruppe stellt den Schlüsselschritt der erfolgreichen Synthese dar. Mit Hilfe dieser Strategie gelingt es, die entsprechend benötigten modifizierten Amidite in zufriedenstellender Ausbeute herzustellen. Durch die Anwendung eines modifizierten Synthesezyklus ist die Synthese eines entsprechend Schwefel-modifizierten Modelloligodesoynukleotids möglich. Mit Hilfe dieser Verbindung wurde die erwünschte Spaltung der 5´-O-P-S-3´ Bindung mit Silbernitrat in Lösung und an verschiedenen Oberflächen (Chip, Biacore-Chip und Magnetic Beads) untersucht. 2.) Punktmutationsdetektion durch festphasenvermittelte Single Nucleotide Primer Extension (SNuPE) und MALDI-MS Ziel dieses Projektes war die Entwicklung eines neuen, elektrophoresefreien Verfahrens zur Detektion von bekannten Punktmutationen mittels fester Phase und der MALDI-Massenspektrometrie. Hierfür wird zunächst ein synthetisches Oligodesoxynukleotid, welches später als Primer fungiert, über einen photolytisch spaltbaren Linker an eine feste Phase gebunden. Dessen Oligodesoxynukleotid-Sequenz wird dabei so ausgewählt, daß sie komplementär zur Zielsequenz einer mutierten DNA ist und direkt vor der zu detektierenden Punktmutation endet. Durch eine enzymatische Polymerasereaktion wird der Primer dann um eine Base, die entweder komplementär zur korrekten DNA oder zur Mutation ist, verlängert. Das Reaktionsprodukt kann dann direkt mittels MALDI-MS photolytisch von der festen Phase getrennt und analysiert werden. Die Masse des Reaktionsproduktes ist festgelegt durch den erfolgten Einbau einer von vier Nukleobasen und gibt daher unmittelbar Auskunft über das Vorhandensein einer Punktmutation. Zunächst sollte die prinzipielle Durchführbarkeit des Projekts erarbeitet werden. Wesentliche Vorteile dieser neuen Methode im Vergleich zu bestehenden Verfahren wären der außerordentlich geringe Zeitaufwand und die unmittelbare Detektion ohne Label. Das hier entwickelte Konstrukt gestaltete sich allerdings für die Anwendung als ein Standardanalyseverfahren zu komplex, da für die Detektion von Punktmutationen aussagekräftigere und einfachere Verfahren bereits zur Verfügung stehen, der hier beobachtete Spaltungs-mechanismus wirft jedoch einige Fragen auf. Für einen Einsatz als photolabiles Trägermaterial ist dieses Konstrukt jedoch ebenfalls zu kompliziert. 3.) Verknüpfungsreaktionen von Acetal-geschützten Oligodesoxynukleotiden mit Hydrazin-modifizierten Derivaten Die effektive Konjugation von modifizierten Oligodesoxynukleotiden und Hydrazin-Derivaten durch die Verwendung einer 5´-Acetalfunktion konnte hier durch die Verwendung eines aromatischen Phosphitylierungsreagenz gezeigt werden. Das hergestellte 5´-Acetal-modifizierte Oligodesoxynukleotid fungiert hier als ein maskiertes 5´-Aldehyd. Der Einsatz des maskierten Acetals weist gegenüber dem reaktiven Aldehyd-Derivat mehrere Vorteile auf: es ist lagerstabil, gut handhabbar und stabil gegenüber den Bedingungen der Oligodesoxynukleotid-Synthese. Ein aromatisches Acetal-geschützte Oligodesoxynukleotid kann in einer Eintopfreaktion mit einem entsprechenden Hydrazin-Derivat umgesetzt werden. Das verwendete Hydrazin-Derivat muß jedoch als Hydrochlorid oder als Trifluoracetat eingesetzt werden. Die Reaktion erfolgt in wässriger methanolischer Lösung durch den Zusatz von Natriumacetat, dieses katalysiert die Reaktion. Durch den Einsatz von Methanol als Lösungsmittel kann der Reaktionsansatz direkt mit Hilfe der HPL-Chromatographie gereinigt werden. Die Umsetzung des Acetal-modifizierten Oligodesoxynukleotids wurde mit verschiedenen Hydrazinen durchgeführt. Die mit den Hydrazinen erreichten Ausbeuten übersteigen bei weitem (Ausnahme Biotin) die der entsprechenden Aktivester. Vorallem das Arbeiten in wässriger Lösung erleichtert die Synthese und die Aufreinigung. Hiermit steht eine 5´-Modifikation zur Verfügung, die eine Konjugation mit Hydrazin-Derivaten in sehr guten Ausbeuten ermöglicht.
In der medizinischen Praxis in Deutschland ist Klassifikation als essentieller Bestandteil der Dokumentation in vielen Bereichen durch gesetzliche Regelungen vorgeschrieben. Über diesen gesetzlich determinierten Rahmen hinaus können durch Klassifikation vergleichbar gemachte Informationen als Basis neuer wissenschaftlicher Erkenntnisse herangezogen werden und weiterhin helfen, bestehende Lehrmeinungen zu evaluieren. Ein Blick auf die im medizinischen Umfeld vorhandene organisatorische Realisierung der Klassifikation zeigt, daß diese in der Regel von medizinisch qualifiziertem Fachpersonal neben der eigentlichen Tätigkeit durchgeführt wird. Eine Klassifikation vorhandener Dokumentationen im Sinne einer Erschließung zusätzlicher wertvoller Informationsquellen über den gesetzlichen Mindestumfang hinaus scheitert somit häufig an der organisatorisch bedingten Überlastung der eingesetzten Mitarbeiter. Eine Unterstützung medizinischer Klassifikation in der Praxis durch den geeigneten Einsatz von Informationstechnologie (IT) erscheint somit sinnvoll und wünschenswert. Im Rahmen der vorliegenden Arbeit wird ein entsprechender Ansatz in Form eines entwickelten Prototypen (XDIAG) vorgestellt und evaluiert. Der entwickelte Prototyp realisiert ein IT-gestütztes leitbegrifforientiertes Verfahren zur automatischen Kodierung von Diagnosen auf Basis vorliegender medizinischer Freitexte. Die hierbei realisierten Ansätze und Verfahren folgen den Vorschlägen von Herrn D. Schalck und sind somit das Resultat langjähriger intensiver und praxisnaher Beschäftigung mit Fragen medizinischer Freitextverarbeitung und Klassifikation. Die besondere Vorgehensweise verleiht dem vorgestellten Prototypen den Charakter einer Heuristik. In Abgrenzung zu zahlreichen bestehenden Verfahren erfolgt eine konsequente Reduktion der Komplexität der eingesetzten Algorithmen und Stammdaten durch einen Verzicht auf eine tiefgreifende linguistische Analyse der zur Kodierung vorgelegten Texte. Durch diesen Verzicht kann auf die Verwendung einer Grammatik und somit auf die Verwendung komplexer Stammdaten verzichtet werden. Als Stammdatenbasis werden vielmehr Datenbestände verwendet, die entweder besonders leicht zu pflegen sind oder aber ohnehin permanent im Rahmen von Langzeitprojekten gepflegt werden. An dieser Stelle spielt insbesondere der ICD10-Diagnosen-Thesaurus mit seiner umfassenden und besonders praxisorientierten Begriffsmenge eine wichtige Rolle. In Erweiterung bestehender Verfahren bietet der vorgestellte Prototyp darüber hinaus die Möglichkeit, mehrere medizinische Diagnosen im Rahmen eines Satzes zu kodieren. Weiterhin können dem Benutzer interaktiv qualifizierte Fehlerhinweise mit dem Ziel einer verbesserten Kodierung bereitgestellt werden. Als Ergebnis der Evaluation des realisierten Prototypen läßt sich festhalten, daß die hierbei eingesetzten Verfahren helfen können, eine synergistische Brücke zwischen praktischer Medizin, medizinischer Verwaltung und medizinischer Forschung zu schlagen, wenn sie an der richtigen Stelle und mit der richtigen Motivation eingesetzt werden.
Das Lupus-Antikoagulans ist mit einem deutlich erhöhten Risiko für arterielle und venöse Thrombosen assoziiert, so dass ihr Nachweis im Labor von großer klinischer Relevanz ist. Bei den meisten bisher verfügbaren Testsystemen sind Sensitivität und Präzision häufig unbefriedigend, und es kann zu falsch positiven Testergebnissen durch Heparin oder orale Antikoagulantien kommen. Ziel dieser Arbeit war es daher, einen präzisen, sensitiven und spezifischen Test zum optimierten Nachweis des Lupus-Antikoagulans zu entwickeln. Hierzu wurde ein auf der aPTT basierendes vollautomatisches Testprinzip entwickelt, bei dem Mischungen eines lupussensitiven und eines lupusinsensitiven aPTT-Reagenzes mit Patientenplasma oder Normalplasma hergestellt wurden. Die Ergebnisangabe erfolgte in Form einer Ratio, bei der jeweils die beiden Ratios des Patienten– und Normalplasmas nochmals in Relation gesetzt werden. Es wurden 99 Blutspender, 10 Patienten unter einer intravenösen, therapeutischen Behandlung mit unfraktioniertem Heparin, 19 oral antikoagulierte Patienten, sowie 5 Patienten mit Hämophilie A und 15 Patienten mit Antiphospholipid-Syndrom mit dem neuen Testsystem untersucht. Für die Präzision innerhalb einer Messreihe und von Tag zu Tag ergaben sich Varianzkoeffizienten von 1,5 – 1,9%. Der Mittelwert + 2SD der Ratio lag für die 99 Blutspender bei 1,07 und diente als Cutoff. Ein negatives Testergebnis zeigten alle mit Heparin oder oralen Antikoagulantien behandelten Patienten (Spezifität: 100%), 1/5 Patienten mit Hämophilie A reagierte positiv (80%), dieser hatte jedoch eine Faktor VIII Hemmkörper entwickelt. Von den 15 Patienten mit einem definitiven Antiphospholipid-Syndrom wiesen 13 eine erhöhte Ratio auf (Sensitivität: 87%). Somit ermöglicht dieses neu entwickelte Testsystem vollautomatisch einen präzisen, sensitiven und spezifischen Nachweis des Lupus-Antikoagulans.
Für ein Assessment Center zur Auswahl von Versicherungs-Außendienstmitarbeitern wurde geprüft, ob Beobachterexperten und Beobachternovizen zu ähnlichen oder zu unterschiedlichen Schlussfolgerungen über die Teilnehmer kommen. Eine ähnliche Schlussfolgerung sollte dabei Indikator dafür sein, dass ein Beobachtertraining (hier: Verbesserung der Beobachterexpertise durch wenigstens einmalige Teilnahme an einem AC als Beobachter) ohne Auswirkungen bleibt. Verglichen wurden die Ergebnisse dieser Beobachtergruppen mit dem AC-Leiter als "Oberexperten" und der AC-Assistenz. Im Rahmen der vorliegenden Untersuchung wurden die Daten von 37 AC mit insgesamt 267 Kandidaten und 171 Beobachtern in zwei unterschiedlichen Datensätzen überprüft. Es konnte nachgewiesen werden, dass sowohl Experten wie auch Novizen eine hohe Übereinstimmung mit der Gesamtrangfolge über die Teilnehmer hatten; hinsichtlich der übungsbezogenen und der merkmalsbezogenen mittleren Korrelationen sowie der mittleren Korrelationen innerhalb der einzelnen Übungen wurden kaum signifikante Unterschiede zwischen den einzelnen Beobachtergruppen festgestellt. Aus diesem Grunde kann geschlossen werden, dass die Teilnahme an einem AC als Beobachter nicht notwendigerweise die Beobachterexpertise verbessert. Angesichts der hohen Übereinstimmung der Beobachtergruppen mit der Gesamtrangfolge über die Teilnehmer kann geschlossen werden, dass für den vorliegenden einfachen AC-Typ verbunden mit der spezifischen Art der Ergebnisgewinnung der Verzicht auf ein Beobachtertraining nicht notwendigerweise eine Verschlechterung der AC-Ergebnisse bedeutet.
Bei den Non-Hodgkin Lymphomen (NHL) handelt es sich um eine heterogene Gruppe von Erkrankungen, die mit Strahlen- und Chemotherapie behandelt werden können. Im Frühstadium lassen sich mit der Bestrahlung Heilung erzielen, im forgeschrittenen Stadium und bei Rückfällen sind aber, zumindest bei den niedrigmalignen Lymphomen, keine Heilung mehr durch Chemotherapie und Strahlentherapie möglich. Ein neuartiger Therapieansatz erscheint nun möglich mit der Anwendung des ersten monoklonalen Antikörpers in der Hämatologie. Rituximab ist ein chimärer monoklonaler Antkörper mit humanen konstanten IgG1- und Kappa-Regionen und variablen Regionen eines Maus-Antikörpers gegen das CD20-Antigen, das von fast allen B-Zellen und auch den meisten Lymphomzellen exprimiert wird Rituximab richtet sich daher auch gegen normale, nicht maligne B-Zellen, schädigt aber nicht die Stammzellen, die wiederum für die Neubildung von B-Zellen zuständig sind. Die Wirkung des Antikörpers beruht dabei auf verschiedenen Mechanismen der Indukation von Apoptose sowie auf einer direkten Zytotoxizität. Rituximab besitzt bereits in der Anwendung als Monotherapie eine erhebliche antitumorale Aktivität. Die bisherigen Studien belegen, daß Rituximab als Monotherapie gegen B-Zell-Lymphome wirksam ist, diese aber auch nicht dauerhaft heilen kann. Daher stellt sich die Frage nach dem kombinierten Einsatz von Rituximab mit konventionellen Chemotherapien. Die grundsätzlich verschiedenartigen Wirkungs-, Toxizitäts- und Resistenzmechanismen sprechen für eine derartige Therapiekombination. In in vitro durchgeführten Versuchsreihen konnten syneristische Effekte der Kombination aus Chemotherapie und Rituximab beobachtet werden. Insbesondere scheint Rituximab einen chemotherapie- sensiblisierenden Effekt zu haben. in einer randomisierten Studie von Hiddemann et al. konnte die Überlegenheit von einer Polychemotherapie CHOP plus Rituximab gegenüber CHOP allein demonstriert werden. Die Remissionsrate war für die Kombinationstherapie CHOP plus Rituximab signifikant höher im Vergleich für CHOP alleine. Der Vorteil für die Kombination aus CHOP plus Rituximab war bei den Mantelzell-Lymphomen noch ausgeprägter. In unserer Arbeitsgruppe untersuchten wir in einer im Jahre 2000 initiierten Phase-II-Studie die Kombination von Bendamustin plus Rituximab bei Patienten mit fortgeschrittenen progredienten rezidivierten oder refraktären niedrigmalignen oder Mantelzell-Lymphomen. Ein anderes Therapieschema, welches bei diesen Lymphomentitäten in einer Studie geprüft wurde, war die Kombination aus Cladribin und Mitoxantron plus Rituximab. Bei hochmalignen wurde die Kombination aus Rituximab plus Gemcitabin, Oxaliplatin und Bendamustin untersucht. Ziel und Gegenstand dieser retrospektiven Untersuchung war, die eigenen Ergebnisse im Kontext mit anderen Studienergebnissen zu bewerten und diskutieren. 139 Patienten mit therapierefraktärem oder rezidiviertem Non-Hodgkin-Lymphom sind im Zeitraum von 1999 bis 2003 mit einer Rituximab-haltigen Chemotherapie behandelt worden. Das ORR lag für die einzelnen Lymphomentitäten wie folgt: - Follikulärs Lymphom: 89% - Mantelzell-Lymphom: 37% - Immunozytom : 84% - Diffus-großzelliges B-NHL: 64% Im Median dauerte die Remission für die jeweilige Erkrankung: - Follikulärs-Lymphom: 12,8 Monate - Mantelzell-Lymphom: 8,5 Monate - Immunozytom: 11,6 Monate - Diffus-großzelliges B-NHL : 10,2 Monate Die Ansprechraten lagen dabei für das prognostische ungünstige Mantelzell-Lymphom bei 37%, für die indolenten Lymphomentitäten Immunozytom und follikulären Lymphom bei 84% respektive 89%. Bei den hochmalignen Diffus-großzelligem B-NH Lymphomen konnte eine Remissionsrate von 64% erzielt werden. Die kürzeste Remissionsdauer war beim Mantelzell-Lymphom, die längste war beim follikulären Lymphom. Diese Therapieergabnisse erscheinen verbessert im Vergleich zu den etablierten Chemotherapieresultaten und vergleichbar mit internationalen Literatur publizierten Daten. Bei der Durchführung der Therapien mit Rituximab plus Chemotherpie konnte keine klinische relevante erhöhte Toxizität beobachtet werden. Die Patienten haben die Behandlung mit Antikörper Rituximab gut toleriert. nur 1,4% der Patienten (2 von 141) mussten die Behandlung mit Rituximab abbrechen. Ob die Verbesserung der Ansprechraten, die wir in unserer Studie in der retrospektiven Auswertung beobachtet haben, auch zu einer Verlängerung der Überlebenswahrscheinlichkeit und zu einer Verbesserung der Prognose dieser Krankheitsentitäten führen wird, ist noch nicht abschließend geklärt und muss erst noch in größeren prospektiven Studien geklärt werden.
In der vorliegenden Arbeit wird ein Curriculum zur Beugung vorgestellt, welches sich in ein Kerncurriculum und Erweiterungsmodule gliedert. Das Kerncurriculum geht von einer systematischen Erarbeitung von Erscheinungsreihen aus, zunächst in Form von Freihandversuchen. Dabei werden periodische Strukturen vor das Auge gehalten und durchblickt. Erst in einem zweiten Schritt treten entsprechende komplexere Versuchsaufbauten hinzu. Der Zusammenhang zwischen den durchblickten oder durchleuchteten periodischen Strukturen und den Konfigurationen der Beugungsbilder wird im Konzept optischer Wege beschrieben. Optische Wege werden dazu operational definiert und als geometrische Ordnungselemente eingeführt, die dem Zusammenhang zwischen den jeweils wirksamen räumlichen Bedingungen und den auftretenden Erscheinungen immanent sind. Den methodischen Rahmen des Kerncurriculum bildet damit eine phänomenologische Vorgehensweise - insbesondere, weil die optischen Wege nicht als ein Vorstellungskomplex gefasst werden, den man zur ursächlichen Erklärung eines Phänomens heranziehen kann. In einem Erweiterungsmodul des Curriculums wird im Einzelnen ausgeführt, wie es durch dieses methodische Vorgehen schon bei der Thematisierung der Beugung möglich ist, die holistischen Eigenschaften der Quantentheorie anzulegen und vorzubereiten. Dadurch kann der Übergang von der Beugung zur Quantentheorie in einem einheitlichen methodischen Rahmen erfolgen und eine vertikale Vernetzung der Unterrichtsinhalte unterstützen. Entsprechend dem von ERB und SCHÖN ausgearbeiteten Lichtwegkonzept bekommt auch beim Konzept optischer Wege das FERMAT-Prinzip eine zentrale Stellung. Es wird in der vorliegenden Arbeit räumlich formuliert. Im zentralen Thema des Kerncurriculums, der Beugung am Gitter, reichen in Erweiterung des FERMAT-Prinzips dann zwei Bedingungen aus, die man an die optischen Wege stellen muss, um diese Beugungserscheinungen umfassend zu beschreiben. Auch komplexe Zusammenhänge, wie beispielsweise die Invarianz des Beugungsbildes unter Translationen des Gitters, sind so anschaulich zu erklären. Das Beugungsbild eines Gitters tritt in der Brennebene einer Linse auf. Da es invariant unter Translationen des Gitters ist, darf auch ein Abstand zwischen Gitter und Linse gewählt werden, welcher größer als deren Brennweite ist. Je nach Stellung eines Schirms hinter der Linse erhält man so entweder das Beugungsbild oder das Abbild des Gitters. Eine Darstellung beider Situationen im Konzept optischer Wege lässt den Zusammenhang zwischen Beugungs- und Abbild sehr deutlich hervortreten und macht Experimente zur optischen Filterung unmittelbar verständlich. Die in diesem Rahmen eingeführte kontextuale Abbildung rundet das Kerncurriculum ab und arbeitet die Gesamtheit der wirksamen Bedingungen besonders heraus. Gleichzeitig gelingt es, Eigenschaften der FOURIER-Transformation auf einer elementaren Ebene zu behandeln. In einem der Erweiterungsmodule werden die Beugungsbilder bei Rotationen eines Gitters untersucht. Dabei treten Beugungsbilder in Form von Kegelschnitten auf. Es wird gezeigt, wie die schon im Kerncurriculum in Erweiterung des FERMAT-Prinzips formulierten beiden Bedingungen an die optischen Wege sich weiterhin als tragfähiger Beschreibungsansatz erweisen. Dabei können Elemente der Festkörperphysik anschaulich eingeführt werden – hier sind es die LAUE-Kegel. In einem anderen Erweiterungsmodul schließen sich eine anschauliche Herleitung des reziproken Gitters und der EWALD-Kugel an. Das Erweiterungsmodul, welches den Übergang zur Quantentheorie thematisiert, geht von der Beugung am Doppelspalt aus und sieht dort die Einführung des Zeigerformalismus vor. Der Kontrast zur phänomenologischen Vorgehensweise des Kerncurriculums ermöglicht eine saubere Unterscheidung zwischen den optischen Wegen als immanenten Ordnungselementen und den Zeigern als abstrakten Symbolen, die Wellenfunktionen repräsentieren. Methodendiskussionen werden so unterstützt. Im Zentrum des Moduls steht die Besprechung von Welcher- Weg-Experimenten. Die kontextuale Abbildung im Konzept optischer Wege führt dabei, wie oben bereits erwähnt, ohne methodischen Bruch auf das Superpositionsprinzip der Quantentheorie. Die schulische Erprobung des Kerncurriculums und einiger Erweiterungsmodule ergab schließlich, dass die operationale Definition der optischen Wege und die Formulierung von Kriterien an diese optischen Wege zur Beschreibung der Beugung es ermöglicht, durch tragfähige Begriffe bei den Schülern ein Bewusstsein für Zusammenhänge zwischen Teilinhalten des Unterrichtes zu wecken und die Beugung in eine Fülle optischer Erscheinungen zu integrieren. Der Übergang vom Experiment zu abstrakten Lerninhalten wird dann durch den Unterricht deutlich und generiert ein hohes Methodenbewusstsein.
A fundamental work on THz measurement techniques for application to steel manufacturing processes
(2004)
The terahertz (THz) waves had not been obtained except by a huge system, such as a free electron laser, until an invention of a photo-mixing technique at Bell laboratory in 1984 [1]. The first method using the Auston switch could generate up to 1 THz [2]. After then, as a result of some efforts for extending the frequency limit, a combination of antennas for the generation and the detection reached several THz [3, 4]. This technique has developed, so far, with taking a form of filling up the so-called THz gap . At the same time, a lot of researches have been trying to increase the output power as well [5-7]. In the 1990s, a big advantage in the frequency band was brought by non-linear optical methods [8-11]. The technique led to drastically expand the frequency region and recently to realize a measurement up to 41 THz [12]. On the other hand, some efforts have yielded new generation and detection methods from other approaches, a CW-THz as well as the pulse generation [13-19]. Especially, a THz luminescence and a laser, originated in a research on the Bloch oscillator, are recently generated from a quantum cascade structure, even at an only low temperature of 60 K [20-22]. This research attracts a lot of attention, because it would be a breakthrough for the THz technique to become widespread into industrial area as well as research, in a point of low costs and easier operations. It is naturally thought that a technology of short pulse lasers has helped the THz field to be developed. As a background of an appearance of a stable Ti:sapphire laser and a high power chirped pulse amplification (CPA) laser, instead of a dye laser, a lot of concentration on the techniques of a pulse compression and amplification have been done. [23] Viewed from an application side, the THz technique has come into the limelight as a promising measurement method. A discovery of absorption peaks of a protein and a DNA in the THz region is promoting to put the technique into practice in the field of medicine and pharmaceutical science from several years ago [24-27]. It is also known that some absorption of light polar-molecules exist in the region, therefore, some ideas of gas and water content monitoring in the chemical and the food industries are proposed [28-32]. Furthermore, a lot of reports, such as measurements of carrier distribution in semiconductors, refractive index of a thin film and an object shape as radar, indicate that this technique would have a wide range of application [33-37]. I believe that it is worth challenging to apply it into the steel-making industry, due to its unique advantages. The THz wavelength of 30-300 ¼m can cope with both independence of a surface roughness of steel products and a detection with a sub-millimeter precision, for a remote surface inspection. There is also a possibility that it can measure thickness or dielectric constants of relatively high conductive materials, because of a high permeability against non-polar dielectric materials, short pulse detection and with a high signal-to-noise ratio of 103-5. Furthermore, there is a possibility that it could be applicable to a measurement at high temperature, for less influence by a thermal radiation, compared with the visible and infrared light. These ideas have motivated me to start this THz work.
Die chemische Analyse von 17 abundanten Nordseeschwammarten zeigte, dass die Metabolitenzusammensetzung und -konzentration standortbedingt nur geringfügig schwanken. Den Großteil der Schwammmetaboliten bilden mittelpolare bis polare Substanzen ohne UV-Absorption. Allgemein scheinen in Nordseeschwämmen aromatische und olefinische Verbindungen seltener vorzukommen als in tropischen Arten. Die Chemie der einzelnen Nordseeschwämme ist oft ähnlich und wird von kleinen, stickstoffhaltigen Molekülen dominiert. Ubiquitär verbreitete, vermutlich phylogenetisch alte Substanzen wie Inosin, Allantoin, Homarin und Trigonellin wurden in zahlreichen untersuchten Arten nachgewiesen. Trigonellin und Homarin üben, wie für andere marine Organismen bereits dokumentiert, auch in den Nordseeschwämmen Schutzfunktion gegen Konkurrenten und Fouling-Organismen aus. Die identifizierten Verbindungen weisen darauf hin, dass den mit dem Aminosäure- und Purinstoffwechsel verbundenen Biosynthesewegen eine große Bedeutung in der Naturstoffsynthese der untersuchten Schwammarten zukommt. Diese Vermutung wird dadurch untermauert, dass auch die Bildung von Imidazolen (aus Phakellia ventilabrum isoliert) aus Histidin eng mit dem Purinstoffwechsel verbunden ist. Durch den Abbau von Histidin können wiederum Substanzen entstehen, die als Methyldonatoren in Frage kommen (methylierte Verbindungen, vgl. Pachymatisma johnstonia). Biologische Aktivität wurde anhand von Biotests zur antilarvalen, cytotoxischen, antibakteriellen, enzyminhibitorischen und bewuchshemmenden Wirkung in Extrakten der untersuchten Nordseeschwämme nachgewiesen. Dabei zeigten alle Schwammarten Effekte in mehr als einem Biotest. Diese Untersuchungen bestätigen das Vorkommen biologisch aktiver Substanzen in Schwämmen kaltgemäßigter Habitate und widerlegen damit die Latitudinalhypothese. Unabhängig von der geographischen Breite sind Schwämme weltweit einem selektiven Druck ausgesetzt, der die Entwicklung biologisch aktiver Metaboliten begünstigt. Die Art der Selektionsfaktoren scheint jedoch habitatbedingt unterschiedlich zu sein. Während in wärmeren Gewässern vor allem Prädatoren (Fische) das Überleben der Schwämme beeinflussen, sind in kälteren Gebieten Aufwuchsorganismen und Bakterien von entscheidender Bedeutung. Diese Annahme wird durch die Beobachtung der assoziierten Organismen ebenso unterstützt, wie durch die Tatsache, dass in allen untersuchten Nordseeschwammarten (Esperiopsis fucorum, Phakellia ventilabrum, Leucosolenia complicata, Cliona celata, Pachymatisma johnstonia) Bakterien nachgewiesen werden konnten. Neben den ökologischen Beobachtungen bekräftigt auch die starke antibakterielle Wirkung der Schwammmetaboliten diese Hypothese. Während Toxizität seltener beobachtet wurde, zeigten viele Schwämme auch enzyminhibitorische Wirkung. Zusammenhänge zwischen biologischer Aktivität und morphologischen bzw. taxonomischen Kriterien, Lebensweise, Habitatcharakteristika oder assoziierten Organismen waren nicht durch Clusteranalysen aufzudecken. Es konnten jedoch Unterschiede im Metabolitengehalt und der Art der assoziierten Organismen zwischen langlebigen, großen Kieselschwammarten und kleineren, saisonal wachsenden Kalkschwämmen hervorgehoben werden. Leucosolenia compl icata (Calcarea) ist sowohl qualitativ als auch quantitativ relativ metabolitenarm, biologisch sehr aktiv und mit einer großen Zahl an Bakterien assoziiert. Die Mikroorganismen scheinen für diese Art von größerer Bedeutung zu sein als bei den untersuchten Demospongiae. Einige Kieselschwämme (z.B. Cliona celata, Phakellia ventilabrum) sind besonders metabolitenreich, enthalten weniger Bakterien und verfügen ebenfalls über biologisch aktive Substanzen. Um diese Beobachtungen in einem ökologischen Zusammenhang zu sehen, sind eingehendere Studien, wie sie mit Pachymatisma johnstonia durchgeführt wurden, notwendig. Die Isolierung der Hauptmetaboliten von Pachymatisma johnstonia führte zur Identifizierung der methylierten Substanzen Betain, N,N,N-Trimethyl-ß-alanin, L-6-Bromohypaphorin und dem Pyridinalkaloid Trigonellin. Anhand verschiedener biologischer Tests konnte ein Einblick in die Wirkungsweise und Funktion der aktiven Metaboliten gewonnen werden. Die Aminosäure L-6-Bromohypaphorin und eine noch nicht identifizierte Substanz zeigten starke Enzyminhibition gegenüber einer Protein-Tyrosin-Kinase. L-6-Bromohypaphorin wurde im Pinacoderm unbewachsener Individuen in einer höheren Konzentration nachgewiesen als in Schwämmen mit Bryozoenbewuchs, und spielt demnach vermutlich bei der Abwehr von Fouling-Organismen eine Rolle. Bakterien wurden als Produzenten der aktiven Substanzen ausgeschlossen. Eine Abgabe der Metaboliten nach außen ist eher unwahrscheinlich. Die Extrakte von P. johnstonia zeigten starke antibakterielle Wirkung mit einer Breitbandaktivität, vor allem gegen marine Bakterien. Welche Substanzen für diese Effekte verantwortlich sind, ist nicht bekannt. Eine Hälterung von P. johnstonia war möglich. Ebenso wie Cliona celata passte sich der Schwamm an veränderte abiotische und biotische Faktoren an. Verletztes Gewebe wurde regeneriert und Hauptmetaboliten weiter produziert. Die Synthesetätigkeit von P. johnstonia schwankte, die biologische Aktivität blieb über neun Monate hinweg erhalten. Durch eine Optimierung der Hälterungsbedingungen könnte die Naturstoffproduktion vermutlich konstant gehalten werden. Mit P. johnstonia wurde somit ein gutes Beispiel für die Interaktion zwischen Naturstoffchemie, Ökologie und pharmakologischem Potential bzw. biotechnologischer Nutzbarkeit geliefert. Bedingt durch das Ziel der Arbeit, einen Überblick über die Chemie und biologische Aktivität der Nordseeschwämme zu gewinnen, wurde weniger Augenmerk auf die Isolierung neuer Strukturen gelegt. Im Zuge von intensiveren Studien wäre eine Optimierung der chemischen Methodik anzustreben. Die Aufklärung der in geringerer Konzentration vorkommenden Substanzen könnte hilfreich sein, um den ersten Eindruck der Metabolitenzusammensetzung zu überprüfen. Außerdem wird aufgrund der Biotestergebnisse die Existenz zahlreicher biologisch aktiver Substanzen, vor allem antibiotischer Wirkstoffe, vermutet, deren Isolierung eine Herausforderung darstellt. Besonders interessant ist in diesem Zusammenhang auch die Tatsache, dass bisher sämtliche medizinisch genutzten Antibiotika aus Mikroorganismen stammen, Schwämme aber weltweit über ein hohes antibiotisches Potential verfügen. Dadurch stellt sich erneut die Frage, ob Schwämme tatsächlich selbst in der Lage sind, wirksame Substanzen zu produzieren. Diese Ungewissheit zusammen mit der Tatsache, dass alle aus den Nordseeschwämmen isolierten und identifizierten Verbindungen aus Stoffwechselwegen stammen, die bisher als für Mikroorganismen typisch beschrieben wurden, bietet interessante Ansatzmöglichkeiten für weitere Untersuchungen. Auch wenn Schwämme zu den am besten untersuchten Organismen in der marinen Naturstoffchemie zählen, ist das Wissen im Bereich der chemischen Ökologie noch begrenzt. Um mehr über die Beziehung zwischen Schwämmen und ihrer belebten Umwelt zu erfahren und die Rolle der Naturstoffe dabei aufzudecken, müssen geeignete Untersuchungsmethoden bzw. Biotests etabliert werden. Abbildung 4.1 soll die Bedeutung der Schwämme für ihren Lebensraum und den Menschen hervorheben und die komplexen Zusammenhänge, welche durch die Wirkung der Naturstoffe vermittelt werden, verdeutlichen. Häufig werden Schwämme als primitive Organismen beschrieben, da sie sich durch das Fehlen eines Nervensystems und anderer Organe von höheren Tieren unterscheiden. Tatsächlich sind diese Lebewesen aber hochentwickelte Spezialisten. Optimal an eine sessile Lebensweise angepasst, bewohnen sie seit Millionen von Jahren erfolgreich vor allem marine Habitate in großer Artendiversität und Abundanz. Aufgrund der Produktion von aktiven Metaboliten zur Abwehr schädlicher Organismen stellen die Schwämme aus menschlicher Perspektive eine wertvolle Ressource dar. Nicht nur aus diesem Grund sollten wir Ihnen mit Respekt begegnen und versuchen, die (Naturstoff-)forschung nachhaltig zu betreiben, die Beeinträchtigung der Tiere auf ein vertretbares Maß zu reduzieren und ihren Lebensraum zu schützen.
The Kochen-Specker theorem has been discussed intensely ever since its original proof in 1967. It is one of the central no-go theorems of quantum theory, showing the non-existence of a certain kind of hidden states models. In this paper, we first offer a new, non-combinatorial proof for quantum systems with a type I_n factor as algebra of observables, including I_infinity. Afterwards, we give a proof of the Kochen-Specker theorem for an arbitrary von Neumann algebra R without summands of types I_1 and I_2, using a known result on two-valued measures on the projection lattice P(R). Some connections with presheaf formulations as proposed by Isham and Butterfield are made.
Das größte Problem bei der Erstellung von MR-Anwendungen besteht darin, dass sie meistens durch Programmierung erstellt werden. Daher muss ein Autor spezielles Fachwissen über MR-Technologie und zumindest allgemeine Programmierkenntnisse mitbringen, um eine MR-Anwendung erstellen zu können. Dieser Erstellungsprozess soll mit Hilfe von MR-Autorensystemen, die derzeit auf dem Markt existieren und in der Forschung entwickelt werden, vereinfacht werden. Dies war ein Grund, warum diese Arbeit sich zum Ziel erklärte, zu überprüfen, inwieweit die Erstellung von MRAnwendungen durch Einsatz von MR-Autorensystemen vereinfacht wird. Ein weiteres Hauptziel war die Erstellung einer repräsentativen MR-Anwendung, die in dieser Arbeit als MR-Referenzanwendung bezeichnet wird. Sie sollte vor allem bei weiteren Entwicklungen als Vorlage dienen können und auf Basis von standardisierten Vorgehensmodellen, wie das Wasserfallmodell, erstellt werden. Ganz wichtig war es noch im Rahmen dieser Arbeit zu bestätigen, dass standardisierte Vorgehensmodelle auf MR-Anwendungen übertragbar sind. Um diese Ziele zu erreichen, sind in dieser Arbeit viele Schritte befolgt worden, die jeweils als Teilziele betrachtet werden können. Die MR-Referenzanwendung , die im Rahmen dieser Arbeit erstellt wurde, sollte mit Hilfe eines MR-Autorensystems umgesetzt werden. Um das richtige MRAutorensystem dafür auszusuchen, wurden im Rahmen einer Analyse fakultative und obligatorische Anforderungen an MR-Autorensysteme definiert, worin auch Funktionen identifiziert wurden, die ein solches System bereitstellen sollte. Das Anbieten einer Vorschau ist ein Beispiel für diese Funktionen, die bei der Erstellung von MR-Anwendungen eine essentielle Rolle spielen können. Die obligatorischen Anforderungen sind welche, die jedes Softwaresystem erfüllen soll, während die fakultativen das Ziel der Verbesserung von Autorensystemen verfolgen. Mit Hilfe der Analyse wurde ein Vergleich zwischen bekannten MR-Autorensystemen gezogen, dessen Ergebnis AMIRE als ein für die Ziele dieser Arbeit geeignetes MR-Autorensystem identifizierte. Für die MR-Referenzanwendung , die ähnliche Funktionen aufweisen sollte wie andere typische MR-Anwendungen wurden Funktionen, Anwendungsfälle und Design der Oberfläche spezifiziert. Diese Spezifikation wurde unabhängig von dem ausgesuchten Autorensystem durchgeführt, um darin analog zur Software-Technik das Augenmerk auf fachliche und nicht auf technische Aspekte zu legen. Um ans Ziel zu gelangen, wurde die MR-Referenzanwendung durch AMIRE realisiert, jedoch musste zuvor ihre Spezifikation auf dieses MR-Autorensystem überführt werden. Bei der Überführung wurde die Realisierung aus technischer Sicht betrachtet, das heißt es wurden verschiedene Vorbereitungen, wie die Auswahl der benötigten Komponenten, die Planung der Anwendungslogik und die Aufteilung der Anwendung in verschiedenen Zuständen, durchgeführt. Nach der gelungenen Realisierung und beispielhaften Dokumentation der MRReferenzanwendung konnte die Arbeit bewertet werden, worin die erzielten Resultate den Zielen der Arbeit gegenübergestellt wurden. Die Ergebnisse bestätigen, dass mit AMIRE die Entwicklung einer MR-Anwendung ohne Spezialwissen möglich ist und dass diese Arbeit alle ihrer Ziele innerhalb des festgelegten Zeitrahmens erreicht hat.
In dieser Arbeit wurde die Produktion von Omega und Anti-Omega Hyperonen in zentralen Pb+Pb-Kollisionen bei 40 A GeV am CERN SPS mit dem NA49 Experiment untersucht. Der in dieser Arbeit verwendete Datensatz wurde während einer 4 wöchigen Strahlzeit 1999 aufgenommen. Dabei wurden 579446 Zentrale (7.2 % des totalen Wirkungsquerschnitts) Ereignisse, bei zwei verschiedenen Polarit aten (std+ und std-), aufgezeichnet. Die Omega Produktion bei 40 A GeV wird mit Messungen bei anderen Energien verglichen, um damit die Energieabhangigkeit der Omega Produktion zu untersuchen. Das Experiment NA49 erlaubt genaue Messungen in einem weiten Akzeptanzbereich. Man misst die Zerfallstochter des Omegas und die Zerfallstochter des Omegas mit hochauflösenden TPCs. Mehrfach seltsame Teilchen (Theta, Omega) werden durch ihre Zerfallstopologie identifiziert. Es wurden verschieden Qualitatskriterien verwendet, um den kombinatorischen Untergrund zu reduzieren. NA49 hat nur eine endliche geometrische Akzeptanz und kann deshalb nicht den ganzen Phasenraum abdecken. Außerdem wurden verschiedene Qualitatskriterien verwendet, um ein akzeptables Signal zu Untergrund Verhaltnis zu erhalten. Da es wegen der Akzeptanz und der Qualitatskriterien zu Verlusten kommt, muss man darauf korrigieren. Dies macht man mittels einer Simulation, in der man Omega Hyperonen simuliert. Die Omega Hyperonen werden uber drei Rapiditatseinheiten um den Bereich zentraler Rapiditat und mit Transversalimpulsen von 0.9 bis 2.4 GeV/c gemessen. Es wurde der Temperaturparameter des Omega Hyperons bei 40 A GeV bestimmt. Im Rahmen der Fehler ist der Temperaturparameter der 40 A GeV dem der 158 A GeV gleich. Betrachtet man den Temperaturparameter der Omegas als Funktion der Schwerpunktenergie, gibt es einen Anstieg des Temperaturparameters von SPS- zu RHIC-Energien. Es wurden jeweils die Multiplizitaten bei mittlerer Rapiditat für Omega und Anti-Omega bestimmt. Die Multiplizität vom Omega betragt 0.068 +- 0.020 (stat.) +- 0.019 (sys.) und vom Anti-Omega 0.027 +- 0.008 (stat.) +- 0.007 (sys.). Die Multiplizitaten bei mittlerer Rapiditat steigen für Omega und Anti-Omega mit der Schwerpunktenergie von SPS- zu RHIC-Energien. Die Ergebnisse stimmen mit den Messungen der NA57 Kollaboration überein. Bei 40 A GeV wurde erstmals eine Rapiditatsverteilung gemessen. Die daraus resultierende totale Multiplizitat fur Omega + Anti-Omega betragt 0.20 +- 0.03 (stat.) +- 0.04 (sys.). Mit steigender Schwerpunktenergie steigt die totale Multiplizität und die Rapiditätsverteilung wird breiter. Um den systematischen Fehler zu bestimmen, wurde eine Stabilität-Analyse des mt-Spektrums und der Rapiditatsverteilung durchgefuhrt. Der systematische Fehler der mt-Spektren betragt 18 % und der totalen Multiplizitat 21 %. Schaut man sich die Anregungsfunktion der Omega und Anti-Omega als Funktion der Schwerpunktenergie an, erkennt man, dass es eine leichte Energieabhängigkeit beim Anti-Omega / Pi-Minus ....
Die Arbeiten von Alexander Michailowitsch Lyapunov (1857-1918) waren der Anfangspunkt intensiver Erforschung des Stabilitätsverhaltens von Differentialgleichungen. In der vorliegenden Arbeit sollen Lyapunovfunktionen auf Zeitskalen in Bezug auf das Stabilitätsverhalten des homogenen linearen Systems x-delta = A(t)x untersucht werden.
In dieser Arbeit wurde die Pionenproduktion in C + C und Si + Si - Kollisionen bei 40A GeV und 158A GeV untersucht. Dazu wurden zwei vollkommen unterschiedliche Methoden, die dE/dx- Teilchenidentifizierung und die h- - Methode, bei der der Anteil von Nicht- Pionen simuliert wird, verwendet. Die Ergebnisse beider Methoden stimmen gut überein, die Differenz fließt in den systematischen Fehler ein. Für die Bestimmung der totalen Multiplizitäten und mittleren transversalen Massen wurde die h- - Methode aufgrund ihrer größeren Akzeptanz gewählt. Zusätzlich wurde für 40A GeV C + C eine zentralitätsabhängige Analyse der Pionenmultiplizitäten vorgenommen. Die Ergebnisse dieser Analyse sollten jedoch als vorläufig angesehen werden. Die Ergebnisse meiner Analyse wurden mit der von C. Höhne [14] bei 158A GeV verglichen, sie stimmen innerhalb der Fehler überein. Es wurden Modelle zur Simulation von Kollisionen (UrQMD, Venus) vorgestellt und angewandt, um die experimentellen Ergebnisse mit den Vorhersagen der Simulationen zu vergleichen. Ein weiteres Modell (Statistical Model of the Early Stage) wurde vorgestellt, welches die qualitative und anschauliche Interpretation der Daten erlaubt. Die Ergebnisse wurden als Energie- und Systemgrößenabhängigkeitsplots zusammen mit anderen NA49- Ergebnissen, Ergebnissen anderer Experimente und Simulationsvorhersagen gezeigt und diskutiert. Der Übergang von der Unterdrückung der Pionenproduktion in Pb+Pb - Kollisionen relativ zu p+p zu einer Erhöhung der Pionenproduktion bei niedrigen SPS-Energien wurde auch bei kleinen Systemen, C + C und Si + Si , beobachtet. Eine Interpretation der Pionenmultiplizitäten mit den Statistical Model of the Early Stage legt die Vermutung nahe, dass bereits bei 40A GeV C + C - Kollisionen Quark- Gluon- Plasma gebildet wird. Diese Vermutung muss allerdings durch die Betrachtung weiterer Observabler noch bestätigt werden.
The paper provides a comprehensive overview of the gradual evolution of the supervisory policy adopted by the Basle Committee for the regulatory treatment of asset securitisation. We carefully highlight the pathology of the new “securitisation framework” to facilitate a general understanding of what constitutes the current state of computing adequate capital requirements for securitised credit exposures. Although we incorporate a simplified sensitivity analysis of the varying levels of capital charges depending on the security design of asset securitisation transactions, we do not engage in a profound analysis of the benefits and drawbacks implicated in the new securitisation framework. JEL Klassifikation: E58, G21, G24, K23, L51. Forthcoming in Journal of Financial Regulation and Compliance, Vol. 13, No. 1 .
The Basel Committee plans to differentiate risk-adjusted capital requirements between banks regulated under the internal ratings based (IRB) approach and banks under the standard approach. We investigate the consequences for the lending capacity and the failure risk of banks in a model with endogenous interest rates. The optimal regulatory response depends on the banks' inclination to increase their portfolio risk. If IRB-banks are well-capitalized or gain little from taking risks, then they will increase their market share and hold safe portfolios. As risk-taking incentives become more important, the optimal portfolio size of banks adopting intern rating systems will be increasingly constrained, and ultimately they may lose market share relative to banks using the standard approach. The regulator has only limited options to avoid the excessive adoption of internal rating systems. JEL Klassifikation: K13, H41.
We develop an estimated model of the U.S. economy in which agents form expectations by continually updating their beliefs regarding the behavior of the economy and monetary policy. We explore the effects of policymakers' misperceptions of the natural rate of unemployment during the late 1960s and 1970s on the formation of expectations and macroeconomic outcomes. We find that the combination of monetary policy directed at tight stabilization of unemployment near its perceived natural rate and large real-time errors in estimates of the natural rate uprooted heretofore quiescent in inflation expectations and destabilized the economy. Had monetary policy reacted less aggressively to perceived unemployment gaps, in inflation expectations would have remained anchored and the stag inflation of the 1970s would have been avoided. Indeed, we find that less activist policies would have been more effective at stabilizing both in inflation and unemployment. We argue that policymakers, learning from the experience of the 1970s, eschewed activist policies in favor of policies that concentrated on the achievement of price stability, contributing to the subsequent improvements in macroeconomic performance of the U.S. economy.
Recent evidence on the effect of government spending shocks on consumption cannot be easily reconciled with existing optimizing business cycle models. We extend the standard New Keynesian model to allow for the presence of rule-of-thumb (non-Ricardian) consumers. We show how the interaction of the latter with sticky prices and deficit financing can account for the existing evidence on the effects of government spending. JEL Klassifikation: E32, E62.
In a plain-vanilla New Keynesian model with two-period staggered price-setting, discretionary monetary policy leads to multiple equilibria. Complementarity between the pricing decisions of forward-looking firms underlies the multiplicity, which is intrinsically dynamic in nature. At each point in time, the discretionary monetary authority optimally accommodates the level of predetermined prices when setting the money supply because it is concerned solely about real activity. Hence, if other firms set a high price in the current period, an individual firm will optimally choose a high price because it knows that the monetary authority next period will accommodate with a high money supply. Under commitment, the mechanism generating complementarity is absent: the monetary authority commits not to respond to future predetermined prices. Multiple equilibria also arise in other similar contexts where (i) a policymaker cannot commit, and (ii) forward-looking agents determine a state variable to which future policy respond. JEL Klassifikation: E5, E61, D78
This paper analyzes the empirical relationship between credit default swap, bond and stock markets during the period 2000-2002. Focusing on the intertemporal comovement, we examine weekly and daily lead-lag relationships in a vector autoregressive model and the adjustment between markets caused by cointegration. First, we find that stock returns lead CDS and bond spread changes. Second, CDS spread changes Granger cause bond spread changes for a higher number of firms than vice versa. Third, the CDS market is significantly more sensitive to the stock market than the bond market and the magnitude of this sensitivity increases when credit quality becomes worse. Finally, the CDS market plays a more important role for price discovery than the corporate bond market. JEL Klassifikation: G10, G14, C32.
We characterize the response of U.S., German and British stock, bond and foreign exchange markets to real-time U.S. macroeconomic news. Our analysis is based on a unique data set of high-frequency futures returns for each of the markets. We find that news surprises produce conditional mean jumps; hence high-frequency stock, bond and exchange rate dynamics are linked to fundamentals. The details of the linkages are particularly intriguing as regards equity markets. We show that equity markets react differently to the same news depending on the state of the economy, with bad news having a positive impact during expansions and the traditionally-expected negative impact during recessions. We rationalize this by temporal variation in the competing "cash flow" and "discount rate" effects for equity valuation. This finding helps explain the time-varying correlation between stock and bond returns, and the relatively small equity market news effect when averaged across expansions and recessions. Lastly, relying on the pronounced heteroskedasticity in the high-frequency data, we document important contemporaneous linkages across all markets and countries over-and-above the direct news announcement effects. JEL Klassifikation: F3, F4, G1, C5
This paper analyzes banks' choice between lending to firms individually and sharing lending with other banks, when firms and banks are subject to moral hazard and monitoring is essential. Multiple-bank lending is optimal whenever the benefit of greater diversification in terms of higher monitoring dominates the costs of free-riding and duplication of efforts. The model predicts a greater use of multiple-bank lending when banks are small relative to investment projects, firms are less profitable, and poor financial integration, regulation and inefficient judicial systems increase monitoring costs. These results are consistent with empirical observations concerning small business lending and loan syndication. JEL Klassifikation: D82; G21; G32.