Refine
Year of publication
- 2002 (172) (remove)
Document Type
- Doctoral Thesis (172) (remove)
Language
- German (172) (remove)
Has Fulltext
- yes (172)
Is part of the Bibliography
- no (172)
Keywords
- Gaschromatographie (3)
- Genexpression (3)
- Authentizität (2)
- Gephyrin (2)
- Halbleiteroberfläche (2)
- Ionenkanal (2)
- Kontamination (2)
- Abmahnung (1)
- Abweichendes Verhalten (1)
- Allosterischer Effektor (1)
Institute
- Medizin (41)
- Biochemie und Chemie (37)
- Biowissenschaften (27)
- Pharmazie (20)
- Physik (15)
- Geowissenschaften (8)
- Informatik (4)
- Geschichtswissenschaften (3)
- Psychologie (3)
- Geographie (2)
Kontinuierlich hohe Stickstofffrachten der Elbe und weiterer Nordseezuflüsse haben die Internationale Nordseeschutzkonferenz (INK) Ende der 80er Jahre dazu veranlasst, eine 50%ige Reduzierung der N-Einträge in die Nordsee innerhalb von 10 Jahren zu beschließen. Diese Reduzierung wurde in diesem Zeitraum nicht erreicht. Für Oberflächengewässer wurde im Jahr 2001 zur Umsetzung der EU-Wasserrahmenrichtlinie in Bundesdeutsches Recht von der Länderarbeitsgemeinschaft Wasser (LAWA) in Zusammenarbeit mit dem Umweltbundesamt (UBA 2001d) eine Güteklassifikation für Nährstoffe erstellt, die einen Wert von 3 mg/l N für Oberflächengewässer festgelegt. Am Beispiel der mittleren Mulde, die kontinuierlich hohe Stickstoffkonzentrationen von durchschnittlich 6 mg N /l aufweist, wird deutlich, dass eine Reduzierung der N-Einträge zur Erzielung der geforderten Gewässergüte unabdingbar ist. Sowohl für die Meere als auch für die Oberflächengewässer ist eine Halbierung der N-Einträge eine umweltpolitische Notwendigkeit. Im Rahmen des Projektes „Gebietswasserhaushalt und Stoffhaushalt in der Lößregion des Elbegebietes als Grundlage für die Durchsetzung einer nachhaltigen Landnutzung“ wurden deshalb die Wasser- und Stickstoffflüsse im Einzugsgebiet der mittleren Mulde (2700 km²) flächendifferenziert erfasst, um die N-Eintragpfade zu quantifizieren und Maßnahmen zur Minderung der N-Frachten abzuleiten. ...
Die vorliegende Arbeit zur Theorie, Praxis und fremdsprachlichen Didaktik der Fachsprache der Chemie geht auf meine unterrichtspraktische Tätigkeit auf dem Gebiet Deutsch als Fremdsprache in fachsprachlich ausgerichteten Kursen der Dublin City University zurück, In der täglichen Praxis des Unterrichtens wurde mir zunehmend deutlich, dass neben den vielen Aspekten, die in der Fachsprachenforschung und in der Erforschung der fremdsprachlichen Fachsprachenvermittlung wohl dokumentiert sind, andere, wie Eva Hund es formuliert, in einen toten Winkel der Fachsprachenbetrachtung geraten sind, Dies betrifft sowohl den philosophischen Hintergrund, als auch semiotische und linguistische Fragen. Der erste, theoretische Teil der Arbeit dient dazu, diese Fragestellungen, soweit dies im Rahmen einer Arbeit wie der vorliegenden möglich und nötig ist, aufzuspannen und auf pragmatische Weise, also wiederum im Rahmen der Möglichkeiten und Notwendigkeiten, zu lösen. Im zweiten Teil der Arbeit werden vier Grundbegriffe der Chemie als Anhaltspunkte verwendet, um anhand von Texten, die im vorgegebenen Rahmen für die fremdsprachliche Ausbildung von Chemikern von größter Relevanz sind, sprachliche, textuelle, diskursive und kulturelle Strukturen in deutschsprachigen Chemietexten offen zu legen, die für Studierende mit der Ausgangssprache Englisch Unerwartetes, Überraschendes, Schwieriges, gerade deshalb aber auch Herausforderndes, Aufregendes, Neues bergen. Dies ist der Ausgangspunkt für den dritten Teil der Arbeit, in dem der Versuch unternommen wird, die Tiefenschichtungen eines an der Entwicklung der Gesamtpersönlichkeit der Studierenden orientierten und interessierten Unterrichtens in der Fremdsprache zu zeigen, wo es nicht nur um den Erwerb eines möglichst funktionalen und utilitären Fachsprachenwissens geht, sondern darum, die durch die Fremdsprachlichkeit eröffneten Möglichkeiten der Distanzierung und Perspektivierung zu nutzen. Im Folgenden werden die Inhalte der drei Teile ein wenig genauer erläutert. Der erste Teil der Arbeit nimmt sich des philosophischen, semiotischen und linguistischen Hintergrunds für die Beschäftigung mit der Chemie in ihrer Erscheinungsform als zu erlernende fremdsprachliche Fachsprache an. Zunächst werden die Positionen des wissenschaftlichen Realismus und Relativismus betrachtet. Dies ist insofern wichtig, als hier der Grund für das Verhältnis von Sprache und Welt oder, anders ausgedrückt, für das Verhältnis von Inhalt und Sprache gelegt wird, oder, in einer weiteren Ausformung, für das Verhältnis zwischen dem Denken und der Wirklichkeit. Die Intensität, mit der etwa in der (muttersprachlichen) Chemiedidaktik die Debatte darum geführt wird, wann, wie und unter welchen Umständen die Modellvorstellung in den Unterricht eingeführt werden soll, vermittelt einen Geschmack von der Bedeutsamkeit diesen Themenfeldes. Für diese Arbeit wird die Spannung zwischen Realismus und Relativismus insofern aufgelöst, als Elemente von beiden verwendet und dem Konzept der Lehrbarkeit untergeordnet werden. In einem zweiten Schritt wird in diesem Teil der Arbeit mit Hilfe des Bühlerschen Zeichenmodells (und einer Erweiterung durch Roman Jakobson) demonstriert, dass, im Gegensatz zu häufig wiederholten Vorstellungen von der Fachsprache als ausschließlich in Sachzusammenhängen verharrender Ausdrucksweise, was der Bühlerschen Referenzfunktion des Zeichens entspräche, auch das Verhältnis zwischen Sender und Zeichen (Ausdrucks- bzw. emotive Funktion) und zwischen Zeichen und Empfänger (appellative Funktion) nicht nur zwangsläufig in der Fachsprache verankert sind, sondern auch eine wichtige Rolle in ihr spielen. Diese Zusammenhänge haben sich u.a. auch deshalb im toten Winkel der Forschung verloren, weil die Forschungstätigkeit sich bisher vor allem auf die sogenannte Theoriesprache der Chemie ausgerichtet hat, während die Textsorten der Wissensvermittlung auf der tertiären Bildungsebene (Lehrbuch, Laborhandbuch, Vorlesungsskripten) weitgehend unerforscht geblieben sind. Dies wird in diesem Teil der Arbeit insbesondere anhand der Unsicherheit der Kategorisierung der Lehrtexte in gängigen fachsprachlichen Textsortenanlysen verdeutlicht. Ein weiteres Ergebnis der Beschäftigung mit Texten der Wissensvermittlung ist die Tatsache, dass die wissenschaftliche Allgemeinsprache (Terminologie in einemweiteren Sinne, im Gegensatz zur chemischen Nomenklatur) ins Zentrum der Aufmerksamkeit rückt. Damit rücken auch in der Fachsprachenforschung, insbesondere auf dem Feld der Naturwissenschaften, ansonsten weniger beachtete Elemente (wie die Verben), Ausdrucks weisen (wie Metaphern), Sichtweisen (Zweisprachigkeit der deutschen Chemieterminologie) und Verhaltensweisen (im kulturellen Zusammenhang) in den Vordergrund. Der erste Teil der Arbeit schließt mit einem Vergleich der englischen und der deutschen Fachsprache der Chemie ab, welcher der Tatsache, dass sich der hier zu Grund gelegte Unterricht der deutschen Fachsprache der Chemie in einer homogen englischsprachigen Umgebung abspielt, Rechnung trägt. Im zweiten Teil der Arbeit wird zunächst der Grundlagentext für die ihn ihm erfolgenden Analysen eingeführt. Es ist das zweibändige Praktikum in Allgemeiner Chemie, herausgegeben von Hanns Fischer, das für die Zwecke dieser Arbeit aus mehreren Gründen besonders gut geeignet scheint. Im weiteren Verlauf des zweiten Kapitels werden vier Grundbegriffe der Chemie besprochen, mit deren Hilfe weite Gebiete der Chemie erfasst werden können, ohne die Übersichtlichkeit zu verlieren. Bei der Besprechung dieser Begriffe werden anhand gelegentlicher Fallstudien aus studentischen Arbeiten die Schwierigkeiten verdeutlicht, mit denen sich nichtmuttersprachliche Leser von wissensvermittelnden Texten konfrontiert sehen. In diesen Fallstudien werden studentischen Annotationen (zu einem Universitätsskript) und studentische Übersetzungen als Fenster zum Fremdsprachenverständnis benutzt.1 Der erste der Begriffe ist Stoff (in Verbindung damit die Aggregatzustände), an dem verdeutlicht wird, wie unterschiedlich auch grundlegendste Begriffe der Chemie definiert werden können. Dies mündet in eine Diskussion des Definitionsbegriffs in der fremdsprachlichen Fachsprachendidaktik ein, und erfasst auch kulturelle Aspekte, insofern hier die Zweisprachigkeit der deutschen Chemiesprache ein Synonymenpaar zur Verfügung stellt, das jedoch bei genauerem Hinsehen Zwischentöne ermöglicht, die im englischen Gegenstück nichtverwirklicht werden können. Der zweite der Begriffe ist Atom (mit den verwandten Begriffen Ion und Molekül). Anhand dieser Begriffe werden die Teilchen vor Stellungen der Chemie aufgerollt und zugleich die mit ihnen assoziierten Modelle. Hier wird an Beispielen aus der Praxis der Chemiesprache deutlich, wie sehr die Sprache, mit welcher der Modellcharakter der Teilchenvorstellungen vermittelt wird, mit metaphemhaften Ausdrucksweisen durchsetzt ist. Der nächste Begriff ist Reaktion, in dem vom objekthaften Stoff und Atom zum Prozesshaften übergeleitet wird. In diesem Abschnitt wird die beim Stoffbegriff schon angesprochene Zweisprachigkeit der deutschen Chemiesprache anhand des Begriffspaars Reaktion - Umsetzung nocheinmal aufgegriffen, diesmal aber mit den damit verbundenen Lemschwierigkeiten für Studierende verbunden, Im Zusammenhang mit dem Grundbegriff Reaktion wird die chemietypische Komplementarität von Formel und Text genauer betrachtet. Der vierte und letzte Grundbegriff im praktischen Teil der Arbeit ist der Begriff Labor, in dem eine deutliche Zweiteilung unterschiedliche Aspekte der Fachsprachenvermittlung unterstreicht. Einerseits wird in einer ausführlichen Fallstudie zu studentischen Annotationen in einem typischen deutschen Universitätsskript gezeigt, auf welche Art eine solcher für das Studium essentieller Text (fremdsprachlich erfasst wird. Hier wird anhand einer einfachen statistischen Übersicht deutlich, welch eine wichtige Rolle im Verständnis dieser Textsorte die Verben spielen. Dieser Punkt erfährt anhand einer Analyse zu den Verben, die im Zusammenhang mit der Manipulation von Flüssigkeiten (offensichtlich eine der häufigsten mit dem Labor assoziierten Tätigkeiten) verwendet werden, aus einer anderen Perspektive Bestärkung. Insgesamt zeigt sich im Verlauf des zweiten Teils der Arbeit ein Fortschreiten von der theoretisch ausgerichteten Chemie (über den allumfassenden Stoffbegriff) hin zum praktischen, handwerklichen Aspekt des Chemie-Treibens (im Labor). Der dritte, didaktische Teil der Arbeit beginnt mit einer ausführlichen Begründung für die Zweckmäßigkeit aber auch bildungsmäßigen Sinnhafltigkeit eines fremdsprachlichen Fachsprachenunterrichts auf der tertiären Bildungsebene gegen eine Ansicht, dass für einen solchen Unterricht weder ein Bedarf noch ein Bedürfnis bestehe. Nach einer kurzen Einführung in die Rahmenbedingungen des fachsprachlichen Unterrichts im hier vorliegenden Zusammenhang wird die Brücke zum ersten Teil der Arbeit geschlagen, und es werden, anhand dreier Kompetenzen, die auf das Bühlersche Zeichenmodell zurückreflektieren, Vorschläge für den fachsprachlichen Fremdsprachenunterricht unterbreitet. Diese drei Kompetenzen sind namentlich die Fachkompetenz, die Sozialkompetenz und die Ich-Kompetenz, Ziel dieses dritten Teils ist es, die an der Dublin City University von Françoise Blin, Christine Appel und mir selbst entwickelten Module unter dem Titel German (French/Spanish) for Science and Technology, die für alle vier Studienjahre vorliegen, inhaltlich und fachlich zu unterfüttem.
Die Tricks und Schliche, mit denen Immobilienmakler arbeiten, um potentielle Interessenten über das Medium der Anzeigenwerbung zur Kontaktaufnahme zu bestimmen, sind äußerst vielfältig. Hierzu zählen zunächst die typischen Aufschneidereien, mit denen trickreich über die wirtschaftliche Bedeutung des Immobilienmaklers, seine Qualifikation und/oder Leistungsfähigkeit getäuscht wird; ferner Strategien, mittels derer die Maklereigenschaft des Inserenten verschleiert werden soll (sog. "maklerbezogene Irreführung"). Die Irreführungsgefahr ist in diesem Bereich besonders groß, weil eine Verifizierung der Werbeaussage für den Interessenten - wenn überhaupt - erst im Zuge einer ersten Kontaktaufnahme möglich ist. Entsprechendes gilt für Werbepraktiken, mit denen gezielt versucht wird, über vertragseingehungsrelevante Objektinformationen zu täuschen (sog. "objektbezogene Irreführung') Besonders auffällig ist in diesem Zusammenhang, daß Immobilienmakler - insbesondere was den Bereich der Preis- und Größenangaben angeht - häufig unzulässige Werbeangaben verwenden, die nicht nur besonders leicht zu überprüfen sind, sondern zudem auch völlig ungeeignet, etwaige Wettbewerbsvorteile auszulösen ("BagateUverstäße ~'). Überdies sind Werbestrategien auszumachen, mit denen - werbepsychologisch geschickt - versucht wird, potentielle Interessenten anzulocken, oder über gefühlsbetonte Appelle auf ihre Entscheidungsfreiheit absatzorientiert Einfluß zu nehmen. ... Ein Ende des "Absahnens durch Abmahnen" ist noch immer nicht in Sicht. Ungeachtet der Gesetzesänderungen in den Jahren 1986, 1994 und 2000 sind allein im Bereich der Immobilienwerbung derzeit ca. 15 Abmahn- und Gebührenvereine sowie weitere 17 (Schein-) Gewerbetreibende namentlich bekannt, die das Verfolgen von Wettbewerbsverstößen aktiv als Erwerbsquelle (Rechtsverfolgungskosten und Vertragsstrafen) betreiben; und die "Dunkelziffer" dürfte weitaus höher liegen! Genutzt, oder besser gesagt, ausgenutzt wird zu diesem Zweck in besonderem Maße das Abmahnverfahren, was insofern nicht weiter verwundert, als hier eine Darlegung der potentiellen Klagebefugnis ebenso wenig erforderlich, wie eine (gerichtliche) Prüfung - insbesondere auch was den Mißbrauchstatbestand angeht - vorgesehen ist. Besonders bemerkenswert ist in diesem Zusammenhang, daß sich die mißbräuchlichen Abmahnpraktiken fast ausschließlich gegen Bagatellverstöße (z.B. "ca.-Angaben", "Sonder- Afa", "Wfl/Nfl", etc.) richten, mithin gegen solche Wettbewerbsverstöße, die den Immobilienmaklern häufig in Unkenntnis oder aus bloßer Nachlässigkeit unterlaufen, den Schutzzweck des Wettbewerbsrechts nicht wirklich tangieren und (3) im Anzeigenteil leicht aufzuspüren und wegen ihrer Häufigkeit und Gleichartigkeit einfach zu verfolgen sind. ...
Die primäre Funktion der Haut ist die Abgrenzung des Körpers gegenüber der Umwelt, wodurch der Organismus vor destruktiven Einwirkungen (Xenobiotika, Mikroorganismen, UV-Licht) geschützt wird. Neben wichtigen sensorischen Funktionen ist die Haut außerdem beteiligt an der Regulation von Körpertemperatur sowie Wasserhaushalt und dient als wichtiges Sozialorgan. Da die Verletzung der Haut demnach schwerste Folgen für den Organismus hat, ist die Wundheilung ein essentieller Prozeß zur Aufrechterhaltung der Unversehrtheit der Haut. Der Prozeß der Wund heilung läßt sich in vier Phasen unterteilen (Koagulation, Entzündungsphase, Proliferationsphase, Remodellierungsphase), die zeitlich und räumlich überlappen (Moulin, 1995; Singer and Clark, 1999). ...
Die vorliegende Arbeit beleuchtete ein bisher in der Finanzwissenschaft weitgehend unbeachtetes Thema.: die Ausgaben für staatliches Personal. Der Fokus lag dabei auf den von den acht westdeutschen Flächenländern getätigten Ausgaben. Ziel war es, Gemeinsamkeiten und Unterschiede in der Entwicklung, der Höhe und der Struktur der Personalausgaben über einen Zeitraum von 26 Jahren, von 1970 bis 1996, herauszuarbeiten. Weiterhin wurden die insbesondere seit Mitte der neunziger Jahre verstärkten Aktivitäten der Länder zur Begrenzung bzw. dem effizienteren Einsatz der Personalausgaben untersucht. ...
Gegenstand dieser Arbeit war die Analyse der Komplexität von Kosten- und Erlösrechnungssystemen und ihrer Auswirkung auf die Auswahl geeigneter Instrumente für die EDV-gestützte Realisierung dieser Systeme, wobei insbesondere auf die bisherigen Ansätze der Datenbank- und Wissensuntersrutzung der Kosten- und Erlösrechnung eingegangen werden sollte. Das zweite Kapitel befaßt sich mit einer Analyse der Komplexität der in Deutschland am weitesten verbreiteten Kosten- und Erlösrechnungssysteme. Die Untersuchung der grundlegenden Gestaltungsmerkmale von Kosten- und Erlösrechnungssystemen auf ihre Komplexitätsrelevanz zeigte, daß einige Merkmale die Komplexität sehr stark beeinflussen, andere dagegen kaum, darunter auch in der betriebswirtschaftlichen Diskussion so wesentliche wie der verwendete Kostenbegriff. Den größten Einfluß auf die Komplexität von Kosten- und Erlösrechnungssystemen besitzen die Kosten- und Erlösstrukturierung sowie die Verarbeitungsarten, -methoden und -inhalte. Ein Vergleich der Grenzplankostenrechnung nach Kn.GER und FLAUT, stellvertretend Im überwiegend zweckmonistische Kostenrechnungssysteme, und der Einzelkostenrechnung nach RIEBEL als zweckpluralistischem Kosten- und Erlösrechnungssystem bezüglich der komplexitätsrelevanten Merkmale ergab eindeutige Unterschiede zwischen diesen Systemen. Während die Grenzplankostenrechnung polynomiale Platz- und Funktionskomplexitäten niedriger Grade (überwiegend quadratisch und nur im Rahmen der innerbetrieblichen Leistungsverrechnung kubisch) aufweist, treten in der Einzelkostenrechnung an mehreren entscheidenden Stellen exponentielle Komplexitäten auf. Die Analyse der Komplexität dieser beiden Kosten- und Erlösrechnungssystemen zeigt einen eindeutigen Zusammenhang zwischen vielseitiger Auswertbarkeit und der Komplexität eines Systems auf, der bei einer Beurteilung von Kosten- und Erlösrechnungssystemen berücksichtigt werden muß. Für die Gestaltung von Kosten- und Erlösrechnungssystemen bedeutet dies eine grundsätzliche Wahlmöglichkeit zwischen Systemen begrenzter Auswertbarkeit und niedriger Komplexität sowie Systemen mit größerer Auswertungsvielfalt, aber deutlich höherer Komplexität. Die Komplexität von Kosten- und Erlösrechnungssystemen ist jedoch nicht als eine Folge der Auswahl eines Rechnungssystems zu betrachten, sondern resultiert letztlich aus der Komplexität einer Unternehmung und ihrer Umwelt, die unterschiedlich detailliert abgebildet werden können. Da diese Komplexitäten in Zukunft eher noch zunehmen werden, ist grundSätzlich mit einem Trend zu universelleren und komplexeren Systemen zu rechnen. Die Erweiterung der Grenzplankostenrechnung hin zu größerer Komplexität sowie die Entwicklung neuerer Ansätze wie der Prozeßkostenrechnung bestätigen beide diesen Trend. Für die weitere Untersuchung wird vorausgesetzt, daß die Grenzplankostenrechnung und die Einzelkostenrechnung die entgegengesetzten Enden eines Komplexitätsspektrums von Kosten- und Erlösrechnungssystemen bilden und daher auch das Spektrum der Anforderungen an die Instrumente zu ihrer EDV-Implementierung begrenzen. Unter einer Anzahl von neueren Entwicklungen in der EDV wurden daher zwei Konzepte ausgewählt, die zur Behandlung verschiedener Aspekte der Komplexität geeignet sind: Datenbanksysteme zur Behandlung der Platzkomplexität und Wissenssysteme zur Behandlung der Funktionskomplexität. Im folgenden werden die Erfahrungen, die bei der Realisierung von Datenbank- und Wissenssystemen für die Kosten- und Erlösrechnung gemacht wurden, unter dem Gesichtspunkt der Komplexität von Kosten- und Erlösrechnungssystemen bewertet. Bei der Betrachtung von Datenbanksystemen ist zu berücksichtigen, daß sich im Laufe der Zeit zwei unterschiedliche Anwendungstypen herauskristallisiert haben: konventionelle Datenbankanwendungen, die den herkömmlichen Paradigmen von Datenbanksystemen entsprechen, und neuere Datenbankanwendungen, die z.T. wesentlich höhere Anforderungen stellen und so die Entwicklung neuer Datenbanksysteme erforderlich machten. Beide Systeme der Kosten- und Erlösrechnung eignen sich grundSätzlich als Datenbankanwendungen, d.h. sie rechtfertigen den Einsatz von Datenbanksystemen zur Verwaltung ihrer Datenmengen. Während die Grenzplankostenrechnung aber den konventionellen Datenbankanwendungen zuzurechnen ist, weist die Einzelkostenrechnung bereits wesentliche Merkmale neuerer Datenbankanwendungen auf. Im Gegensatz zu Datenbanksystemen sind die Anforderungen an Wissenssysteme und ihre Eigenschaften sehr unpräzise, z.T. sogar widersprüchlich formuliert. Auf der Basis der gängigen Eigenschaftskataloge erscheint die Kosten- und Erlösrechnung nicht als typische Wissenssystemanwendung. Trotzdem wurden bereits mehrere Wissenssysteme für Kosten- und Erlösrechnungsprobleme (Abweichungsanalyse, Betriebsergebnisanalyse, Bestimmung von Preisuntergrenzen, konstruktionsbegleitende Kalkulation und Teilprobleme der Prozeßkostenrechnung) realisiert, von denen jedes einige der Eignungskriterien für Wissenssystemanwendungen erfüllt. Die behandelten Beispiele für Wissenssysteme im Rahmen der Kosten- und Erlösrechnung basieren überwiegend auf der Grenzplankostenrechnung. Es ist daher anzunehmen, daß die Einzelkostenrechnung auf Grund ihrer höheren Komplexität weitere Anwendungsprobleme für Wissenssysteme enthält. Insgesamt sind jedoch die Unterschiede zwischen der Grenzplankostenrechnung und der Einzelkostenrechnung im Hinblick auf den Einsatz von Wissenssystemen wesentlich weniger ausgeprägt als dies für den Einsatz von Datenbanksystemen der Fall war. Nachdem beide Systeme der Kosten- und Erlösrechnung sowohl als Datenbankanwendungen geeignet sind als auch Anwendungsprobleme für Wissenssysteme aufweisen, ist auch die Verbindung von Wissenssystemen und Datenbanksystemen in Betracht zu ziehen. Daher wurde im Anschluß die jeweiligen Vor- und Nachteile von Datenbank- und Wissenssysteme gegenübergestellt. Die Vorteile von Datenbanksystemen liegen auf den maschinennäheren Ebenen, auf denen die Vorkehrungen für Datenschutz, Datensicherung, reibungslosen Mehrbenutzerbetrieb sowie die effiziente Ausführung der Operationen geschaffen werden. Die Vorteile von Wissenssystemen liegen in der größeren Mächtigkeit der Problemlösungskomponente, der Wissenserweiterungskomponente und der Erklärungskomponente. Ein neueres Beispiel für eine Zusammenarbeit von Datenbank- und Wissenssystemen ist die Auswertung eines speziell für derartige Zwecke angelegten Data Warehouse durch das Data Mining sowie andere Analysesysteme. Ein Data Warehouse stimmt in wesentlichen Merkmalen mit der Grundrechnung der Einzelkostenrechnung überein und zeigt, daß eine Grundrechnung auf der Basis heutiger EDV -Systeme realisierbar ist. Zur Auswertung einer Datenbank dieser Größe sind spezielle Analysesysteme notwendig. Für standardisierte Auswertungen eines Data Warehouse wurden OLAP-Systeme entwickelt, deren Operationen Verallgemeinerungen mehrdimensionaler Deckungsbeitragsrechnungen sind. Bei nicht standardisierbaren Auswertungen empfiehlt sich dagegen der Einsatz von Wissenssystemen, für den das Data Mining ein Beispiel liefert. Diese Kombination von Datenbanksystem, konventionellen und Kl-Auswertungen erscheint für eine Verwendung in der Kosten- und Erlösrechnung bestens geeignet. Das vierte Kapitel befaßt sich mit Ansätzen zur Strukturierung von Daten- und Wissensbasen, die bei Datenbanksystemen als Datenmodelle, bei Wissenssystemen als Wissensrepräsentationstechniken bezeichnet werden. Dabei wurde der Unterteilung des dritten Kapitels gefolgt und zwischen konventionellen und neueren Datenmodellen sowie Wissensrepräsentationstechniken unterschieden. Die Betrachtung des Relationenmodells als Vertreters der konventionellen Datenmodelle ergab, daß es für die Grenzplankostenrechnung völlig ausreicht. Die Erfahrungen mit der Realisierung einer Grundrechnung auf der Basis des Relationenmodells haben dagegen gezeigt, daß seine syntaktischen und semantischen Mängel zu weitgehenden Vereinfachungen beim Schemaentwurf zwingen, die wiederum die Operationen der Auswertungsrechnungen unnötig komplizieren. Aus der Vielzahl semantischer und objektorientierter Datenmodelle, die für neuere Datenbankanwendungen entwickelt wurden, hat sich trotz Unterschieden in Details eine Anzahl von Konzepten herauskristallisiert, die den meisten dieser DatenmodelIe gemeinsam sind. Mit Hilfe dieser Konzepte sind die Probleme, die bei der Verwendung des Relationenmodelis auftraten, vermeidbar. Im Grunde sind daher fast alle semantischen und objektorientierten Entwurfsmodelle zur ModelIierung einer Grundrechnung geeignet. Wichtig ist jedoch,daß die Grundrechnung auch mit einem Datenbanksystem realisiert wird, dem eines dieser Datenmodelle zugrunde liegt, da bei einer Transformation auf ein relationales Datenmodell wesentliche Entwurfsüberlegungen - und damit der größte Teil des Vorteils,den semantische und objektorientierte Entwurfsmodelle bieten -, verloren gehen. Zur Realisierung einer Grundrechnung erscheinen objektrelationale Datenbanksysteme am besten geeignet, da sie einerseits objektorientierte Konzepte mit mächtigen und komfortablen Anfragesprachen verbinden und andererseits aufwärtskompatibel zu den weitverbreiteten relationalen Datenbanksystemen sind. Da sich die objektorientierten Datenmodelle als für die Modellierung einer Grundrechnung geeignet erwiesen haben, wurden unter dem Gesichtspunkt der Verbindung von Datenbank- und Wissenssystemen nur objektorientierte Wissensrepräsentationstechniken in Betracht gezogen. Zwischen semantischen und objektorientierten Datenmodellen einerseits und objektorientierten Wissensrepräsentationstechniken, vor allem semantischen Netzen und Frames, andererseits bestehen weitgehende Übereinstimmungen. Daher können z.B. framebasierte Wissenssysteme direkt auf objektorientierten Datenbanksystemen realisiert werden. Inzwischen werden aber auch objektorientierte Programmiersprachen wie C++ oder Smalltalk zur Implementierung von Wissenssystemen verwendet, von denen die objektorientierte Sprache C++ am geeignetsten erscheint, da die meisten objektorientierten und objektrelationalen Datenbanksysteme eine C++-Schnittstelle aufweisen. Abschließend ist daher festzustellen, daß das Paradigma der Objektorientierung, das in Entwurfssprachen, Datenmodellen, Wissensrepräsentationstechniken und Programmiersprachen wesentliche Einflüsse ausgeübt hat, für die Realisierung der datenbankgestützten Grundrechnung eines zweckpluralistischen Kosten- und Erlösrechnungssystems wie der Einzelkostenrechnung sowie darauf aufbauender Auswertungsrechnungen, die z.T. als Wissenssysteme realisiert werden, wesentliche Vorteile besitzt. Über die adäquatere ModelIierung der Strukturen hinaus entsteht durch den Einsatz objektorientierter Techniken zum Entwurf und zur Implementierung aller System teile ein möglichst homogenes System, das nicht zusätzlich zu der inhärenten Komplexität noch weitere Probleme durch ungeeignete Darstellungskonzepte oder schlechte Abstimmung schafft.
Lipidartige Formulierungen zur Verbesserung der Bioverfügbarkeit schwer löslicher Arzneistoffe
(2002)
In dieser Arbeit wurde anhand der zwei schwerwasserlöslichen Modellsubstanzen EMD 57033 und Danazol untersucht, inwieweit sich (schwerpunktmäßig halbfeste) lipidartige Hilfsstoffe zur Verbesserung der Wirkstofffreigabe aus der Arzneiform eignen, um dadurch eine im Vergleich mit einer Standardrezeptur erhöhte Bioverfügbarkeit zu erhalten.
Der Einsatz verschiedenster Substanzen, die die affektive, emotionale oder körperliche Befindlichkeit verändern, ist so alt wie die Menschheit selbst. Rauschmittel im weitesten Sinn werden seit alters her zur Linderung oder Heilung von Krankheiten, bei rituellen Zusammenkünften, zur Bewußtseinsveränderung oder -erweiterung oder einfach als Genußmittel eingesetzt. Als "grundlegende Funktionsbereiche des Drogengebrauchs" werden allgemein "religiöse, medizinische, hedonistische, soziale, kompensatorische, ökonomische und politische" genannt (Blätter, 1995, 279). Im Rahmen einer mehrjährigen Tätigkeit als Sozialpädagogin in einer Jugend- und Drogenberatungsstelle im "Drogenbrennpunkt" Frankfurt hatte ich Gelegenheit festzustellen, daß zumindest bei Heroinkonsumenten in Deutschland soziale und kompensatorische Aspekte gegenüber den anderen genannten Faktoren offensichtlich im Vordergrund stehen. Die häufig gehörte Einschätzung, es handele sich bei Drogenabhängigen um hedonistisch orientiertes "arbeitscheues Gesindel", das sich auf Kosten der Allgemeinheit einen "schönen Lenz mache", erweist sich spätestens dann als falsch, wenn man Gelegenheit erhält, Einblick in ihren hektischen und nicht selten auch mittelbar oder unmittelbar lebensbedrohlichen Alltag zu nehmen. ...
Orotracheale Keimverschleppung während der Umintubation und bei verschiedenen Tracheotomietechniken
(2002)
Langzeitbeatmete Patienten sind häufig von nosokomialen Pneumonien betroffen. Für diese Patienten stehen zur Optimierung des Airwaymanagement verschiedene Techniken zur Verfügung. In der vorliegenden Studie wurden diese Techniken (nasale Umintubation, konventionelle Tracheotomie und perkutane Tracheotomie einschließlich GWDF, PDT und TLT) auf eine Keimverschleppung aus den oberen in die unteren Atemwege untersucht. Bei insgesamt 200 Patienten erfolgte ein mikrobiologisches Monitoring durch Gewinnung von Rachen- und Trachealabstrichen am Morgen des Eingriffs und am darauffolgenden Tag. Abweichend hiervon wurde in der Gruppe der nasotracheal umintubierten Patienten statt eines Rachenabstrich ein Nasenabstrich gewonnen. Die Proben wurden mikrobiologisch hinsichtlich eines Wachstums von Bakterien bzw. Pilzen untersucht. Zur Differenzierung wurden bei jedem Isolat die biochemischen Eigenschaften und das antibiotische Resistenzverhalten erhoben. Die Eingriffe wurden im Mittel am 3. Tag (Umintubation), 8. Tag (konventionelle Tracheotomie und GWDF), 9. Tag (TLT) und 10. Tag (PDT) des Aufenthalts auf der Intensivstation durchgefiihrt. Bei 155 von 200 Patienten (77,5 %) gelang ein positiver Erregernachweis im Rachen- bzw. Nasenabstrich, bei 143 von 200 Patienten (71,5%) ein positiver Erregernachweis im Trachealsekret. Die am häufigsten isolierten Erreger waren S. aureus, Acinetobacter sp., Pseudomonas sp., Stenotrophomonas maltophilia und Candida sp.. Bezogen auf alle Erregernachweise (n = 859) funden sich in 165 Fällen grampositive Erreger (19,2 %), in 403 Fällen granmegative Erreger (46,9 %) und in den restlichen 291 Fällen Pilze (33,8 %). In der Gruppe der nasotracheal umintubierten Patienten kam es bei 10 von 40 Patienten (25,0 %) zu einem positiven postinterventionellen Nachweis eines Erregers im Trachealsekret, der vor der Intervention nur im Nasenabstrich nachgewiesen wurde. In den restlichen Gruppen erfolgte dieser postinterventionelle Erregernachweis im Trachealsekret bei je 6 von 40 Patienten (15 %) in den Gruppen PDT und TLT, sowie bei je 7 von 40 Patienten (17,5 %) in den Gruppen konventionelle Tracheotomie und GWDF. Die von uns ermittelte Inzidenz von Keimbesiedlungen der oberen Atemwege (77,5 %) und der unteren Atemwege (71,5 %) entspricht der allgemeinen Inzidenz bei beatmeten Intensivpatienten. Der hohe Anteil von gramnegativen Erregern (46,9 %) ist Ausdruck eines Wechsel des Erregerspektrums in den gramnegativen Bereich bei schwerstkranken Patienten auf Intensivstationen. Die TLT scheint aufgrund einer im Vergleich zu den anderen Verfahren nicht erhöhten Inzidenz einer Keimverschleppung aus den oberen in die unteren Atemwege als infektionsepidemiologisch risikoarme Technik. Die nasotracheale Umintubation weist im Vergleich zu den anderen Verfahren eine höhere, aber statistisch nicht signifikante Inzidenz von Keimverschleppungen auf. Die Nase stellt aufgrund ihrer Keimbesiedlung ein wesentliches Erregerreservoir dar, das im Zusammenhang mit der nasotrachealen Umintubation hinsichtlich nosokomialer Pneumonien eine Rolle spielen könnte.
Proliferative Erkrankungen der Brust gehören zu den häufigsten Erkrankungen der Frau. Viele der Risiko- und Einflussfaktoren auf Brusterkrankungen stehen in engem Zusammenhang zu der endogenen oder exogenen Östrogenexposition. Da Steroidhormone eine proliferationsfördernde Wirkung auf das Epithel der Brustdrüse besitzen, wird ihnen eine Schlüsselfunktion bei der Pathogenese des Mammakarzinoms aber auch der benignen Brusterkrankungen zugeschrieben. Der Nachweis eines derartigen Zusammenhanges ist schwierig, da punktuelle Östrogenspiegelmessungen nicht die Langzeitexposition einer Frau darstellen und eine lange Latenzzeit zwischen Initiation und Erkrankungsmanifestation angenommen wird. Da Östrogen über eine vermehrte Produktion von ossären Wachstumsfaktoren und Zytokinen sowie über die direkte Stimulation von Osteoblasten auch eine anabole Wirkung am Knochen entfaltet, wurde die Bestimmung der Knochendichte als Indikator einer kumulativen Östrogenexposition postuliert. Während eine limitierte Zahl kontrollierter Studien, mit teilweise erheblichen methodischen Unterschieden bei der Bestimmung der Knochendichte, für Mammakarzinome sowohl erhöhte als auch erniedrigte Werte nachweisen konnten, finden sich bisher keine Untersuchungen über die Zusammenhänge zwischen Östrogen, Knochendichte und benignen Brusterkrankungen. Die vorliegende Fall-Kontroll-Studie untersucht daher an einem Kollektiv von 229 Frauen den Zusammenhang zwischen proliferativen Brustveränderungen und der Knochendichte, unter besonderer Berücksichtigung benigner Veränderungen. Eingeschlossen wurden 84 Frauen mit neu diagnostiziertem, histologisch gesichertem Mammakarzinom sowie 96 Frauen mit benigner Brusterkrankung. Als Kontrollgruppe dienten 49 Frauen ohne Erkrankungen der Brust. Die Knochendichtemessung wurde bei allen Probandinnen mittels Quantitativer Ultraschall-Osteodensitometrie (QUS) am Os calcaneus durchgeführt. Ermittelt wurden die Messparameter BUA (Breitband-Ultraschall-Abschwächung), SOS (Schalleitungsgeschwindigkeit) und SI (Stiffness-Index), welche die physikalischen Eigenschaften des Knochens, insbesondere seine Mineraldichte bestimmen. Weiterhin wurden mögliche Einfluss- und Risikofaktoren für die Entstehung proliferativer Brusterkrankungen (Alter, Gewicht, Menarchenalter, Menopausenalter, Gesamtstillzeit, Geburtenzahl, Östrogenexpositionszeit, Hormonersatz-therapie sowie familiäre Brustkrebsbelastung) mittels Fragebogen für alle Patientinnen erhoben. In unserer Studie wiesen die Karzinompatientinnen nach Altersadjustierung in allen Messparametern eine erhöhte Knochendichte im Vergleich zu den Patientinnen mit benignen Brusterkrankungen und den Kontrollen auf. Der Vergleich zwischen benignen Brusterkrankungen und den Kontrollen ergab hingegen keine Gruppenunterschiede bezüglich der Knochendichte. Um die Bedeutung weiterer östrogenabhängiger und -unabhängiger Faktoren zu untersuchen, führten wir Korrelationsanalysen zwischen unseren Messergebnissen und den erhobenen Risikofaktoren durch. Dabei konnte für die Parameter Alter, Menarchenalter, Hormonersatztherapie sowie die familiäre Karzinombelastung ein signifikanter Einfluss auf die Knochendichte nachgewiesen werden, wobei sich diesbezüglich keine Unterschiede zwischen den Karzinompatientinnen und den Patientinnen mit benignen Brusterkrankungen ergaben. Ein Erklärungsmodell für die Entstehung von benignen Brusterkrankungen ohne messbare Veränderung der Knochendichte könnte in der für diese Entität beschriebenen Imbalance zwischen relativ vermehrtem Östrogen bei vermindertem, proliferationshemmendem Gestagen bestehen. Weiter sind alternative und östrogenunabhängige Parameter mit Einfluss auf die Gewebe der Brust und des Knochens (z.B. Insulin-like-growth-factor I) zu diskutieren und bei zukünftigen Studien zu berücksichtigen. Die verwendete Methode der Quantitativen Ultraschall-Osteodensitometrie erreicht nach den Ergebnissen dieser Studie eine ausreichende Präzision und Reproduzierbarkeit und erscheint, nicht zuletzt aufgrund ihrer sehr geringen Kosten- und Patientenbelastung, für die Bearbeitung ähnlicher Fragestellungen empfehlenswert.
Simultaneingriffe in der Gefäßchirurgie : eine therapeutische Alternative zum zweizeitigen Eingriff?
(2002)
Immer wieder werden dem Chirurgen Patienten mit operationswürdigen Mehrfacherkrankungen begegnen. Die Operationsreihenfolge richtet sich zumeist nach dem Schweregrad der Erkrankungen. Zeitversetzte Einzeleingriffe werden präferiert. Das simultanoperative Vorgehen stellt insbesondere in der Gefäßchirurgie seltenst eine therapeutische Option dar. Aus Angst vor einem erhöhten Risiko für eine Wundheilungsstörung oder eine Protheseninfektion wird die Kombination einer gefäßchirurgischen Rekonstruktion und eines nicht gefäßchirurgischen Eingriffes vehement abgelehnt. Bereits 1987 haben Carstensen und Schreiber aufgefordert „in wissenschaftlichen Erhebungen und Untersuchungen den Risikoumfang zu erfassen, der bei simultan oder präventiv ausgeführten Operationen entsteht“ [37]. Diese Aufforderung erweist sich komplexer als sie auf den ersten Blick erscheint: der Entscheidungsprozeß für oder gegen eine simultane Operation lässt sich in Anbetracht der vielfältigen Komplikationen nicht auf den Vergleich der Komplikationshäufigkeit für eine Wundheilungsstörung und eine Protheseninfektion reduzieren, vielförmige Kombinationsvarianten gefäßchirurgischer Simultaneineingriffe verursachen ein inhomogenes Patientenkollektiv und die Vergleichbarkeit von Komplikationshäufigkeiten bei Simultaneingriffen zu zeitversetzten Einzeleingriffen ist nicht geklärt Für die vorliegende Untersuchung wurde jeder gefäßchirurgische Simultaneingriff retrospektiv erfasst, der zwischen dem 01. Januar 1992 und 31. Oktober 1997 erfolgte. Eine umfangreiche Dokumentation jeglicher Komplikation im postoperativen Verlauf ermöglichte eine umfassende Risikobeurteilung. Aortenchirurgische Simultaneingriffe kombiniert mit einem intraabdominellen Zweitbefund stellten das größte Teilkollektiv auch in dieser Untersuchung dar, so dass der postoperative Verlauf der aortenchirurgischen Simultaneingriffe zusätzlich an dem postoperativen Verlauf einer Kontrollgruppe aortenchirurgischer Einzeleingriffe gemessen wurde. Die Kontrollgruppe unterschied sich in ihrer Zusammensetzung nicht von den aortenchirurgischen Simultaneingriffen. Die Häufigkeit eines komplikationsbehafteten Verlaufes war in der Gruppe der gefäßchirurgischen Simultaneingriffe im Vergleich zu den publizierten Ergebnissen über gefäßchirurgische Einzeleingriffe nicht erhöht. Es bestand kein signifikanter Unterschied zwischen den aortenchirurgischen Simultaneingriffen und den aortenchirurgischen Einzeleingriffen im postoperativen Verlauf. Von allen Komplikationen, die dokumentiert wurden, bestand für die Nachblutung im Operationsgebiet des nicht gefäßchirurgischen Eingriffes, für die inguinale Fistel und für das Abdomen apertum im gesamten Kollektiv der gefäßchirurgischen Simultaneingriffe ein erhöhtes Risiko, ohne dass sich ein signifikanter Zusammenhang im Teilkollektiv der aortenchirurgischen Simultaneingriffe und der Kontrollgruppe nachweisen ließ. Hieraus wurde die Empfehlung abgeleitet, dass der Chirurg über das sonstige Maß hinaus intraoperativ auf ein sorgfältiges Vorgehen achten sollte. Das Auftreten von Wundheilungsstörungen und Protheseninfektion wurde durch ein simultanoperatives Vorgehen nicht gefördert. Für einige Komplikationen, wie zum Beispiel der peripheren Nervenschädigungen, war eine Aussage zum Risikopotential nicht vertretbar, weil Richtlinien zur Berechnung von Komplikationsraten bei Simultaneingriffen fehlen. Konträr zu anderen Publikationen war in der eigenen Untersuchung die Mortalität beim gefäßchirurgischen Simultaneingriff gegenüber der Mortalität des gefäßchirurgischen Einzeleingriffes erhöht, ohne dass ein Zusammenhang zum simultanoperativen Vorgehen nachweisbar war. Der perioperative Verlauf von gefäßchirurgischen Simultaneingriffen wurde häufiger durch Komplikationen erschwert, wenn der Patient älter als 70 Jahre war oder eine ASA-Klassifikation von Stufe IV oder höher vorlag. Ab dem 70. Lebensjahr wurden signifikant mehr letale Verläufe beobachtet. Für die ASA-Stufe IV und V bestand eine auffällige Abweichung der standardisierten Residuen, so dass ein Zusammenhang für den letalen Verlauf anzunehmen war. Aortenchirurgische Simultaneingriffe dauerten signifikant länger als aortenchirurgische Einzeleingriffe, ohne dass ein Zusammenhang zwischen dem postoperativen Verlauf und der Operationsdauer aufgezeigt wurde. Das Risiko für eine Komplikation war bei den nicht geplanten Simultaneingriffen höher als bei den geplanten Simultaneingriffen. Die Entscheidung für oder gegen einen Simultaneingriff ist ein multifaktorieller Prozess. Gefäßchirurgische Simultaneingriffe sollten primär bei Patienten indiziert werden, die jünger als 70 Jahre und in eine ASA-Stufe bis höchstens Klasse III eingestuft sind. Der Simultaneingriff soll geplant erfolgen und lediglich, wenn bei einem intraoperativ entdeckten Zweitbefund eine absolute Indikation vorliegt, ist der gefäßchirurgische Simultaneingriff vertretbar. Die retrospektive Untersuchung der eigenen Simultaneingriffe und die Literaturanalyse zeigte auf, dass das simultane Vorgehen eine therapeutische Alternative für Patienten mit einem Aortenaneurysma und einem intraabdominellen Zweitbefund, mit einer Stenose der A. carotis interna und der A. subclavia, mit einer Erweiterung der Aorta abdominalis und Stenose der A. renalis sowie mit arteriosklerotischen Veränderungen an unterschiedlichen Extremitätenarterien darstellt. Beim zeitgleichen Vorliegen eines abdominellen Aortenaneurysmas und einer Stenose der A. carotis interna soll zuerst die Desobliteration der A. carotis interna und im zeitlichen Intervall der aortenchirurgische Eingriff erfolgen. Der Kombinationseingriff an der A. carotis interna und einem Zweitorgan, speziell an der Schilddrüse, soll restriktiv wegen der Gefahr einer Nachblutung im Operationsgebiet des nicht gefäßchirurgischen Zweiteingriffes indiziert werden. Das simultane Vorgehen beim Vorliegen einer peripheren Arteriosklerose ist, bis auf die kombinierte Rekonstruktion zweier Extremitätenarterien, zu vermeiden. Der Simultaneingriff in der Gefäßchirurgie stellt für ein selektiertes Patientengut eine therapeutische Alternative dar. Abschließend wird betont, dass sich das Risiko, mit der ein unerwünschtes Ereignis in einer Gesamtmenge auftreten kann, durch eine Wahrscheinlichkeit quantifizieren lässt. Die Risikoeinschätzung ist jedoch nur eine Entscheidungshilfe. Die Entscheidung selbst muss individuell am Patienten getroffen werden.
Die Verfügbarkeit tierexperimentelle Leberzirrhosemodelle ist für das Studium der pathogenetischen Mechanismen, die zu einer fortschreitenden Fibrosierung der Leber führen, von entscheidender Bedeutung. Das gegenwärtige Wissen über die Ursachen der Fibrogenese und die mit der Leberzirrhose einhergehenden morphologischen, pathophysiologischen und pathobiochemischen Veränderungen beruht in großem Maße auf solchen Studien, wobei der Reproduzierbarkeit der Modelle sowie der Vergleichbarkeit der Versuchsergebnisse mit dem klinischen Bild der Leberzirrhose beim Menschen besonderes Gewicht zukommt. Männliche Wistar-Ratten wurden nach hilus- oder duodenumnaher, operierter Ligatur des Ductus choledochus über einen Zeitraum von 1. bis 4. Woche beobachtet. Die Ergebnisse wurden anschließend mit denen eines laparotomierten Rattenkollektivs ohne Ligatur des Ductus choledochus verglichen. Trotz der bekannten anatomischen Unterschiede zwischen dem Pankreas des Menschen und der Ratte ist die Gallengangsligatur ein geeignetes tierexperimentelles Modell zur Untersuchung cholestatisch bedingter Stoffwechselveränderungen. Die Gallengangsligatur rief eine rasch einsetzende extensive Gallengangsproliferation hervor, die zur Bildung neuformierter intralobulärer Gallengänge führte und mit einer ödematösfibrotischen Verbreiterung der Portalfelder, Parenchymnekrosen und periportaler Fibrosierung mit porto-portalen und porto-venösen Septenbildungen einherging. Die vorgelegte Arbeit leistet einen Betrag zum Verständnis der Pathogenese einer kompletten obstruktiven Cholestase. Es wurde am Modell der gallengangsligierten Ratte untersucht, in welcher Weise bzw. in welchem Ausmaß die NOS- Expression aller NOS- Synthase –Isoformen unter den Bedingungen einer obstruktiven Cholestase verändert ist. Dabei wurde die APAAP- Methode auf Paraffinschnitten mit verschiedenen spezifischen NOS- Antikörper angewendet. Nach Fixierung und Anfertigung der Paraffinschnitte folgte der Nachweis der Stickstoffmonoxidsynthasen (NOS) durch Immunhistochemie mit Antikörpern (APAAPMethode), die jeweils spezifisch für die neuronale- (NOS 1), die induzierbare- (NOS 2) oder die endotheliale (NOS 3) NO- Synthase waren. Im Epithel fand sich eine deutlich erhöhte Expression aller NOS- Isoformen unter cholestatisch chronisch entzündlichen Bedingungen. Zellen regulieren über NO ihre Stoffwechselvorgänge und sekretorische Funktionen und kommunizieren über dieses Molekül mit anderen Zellen. NO spielt zudem eine bedeutende Rolle bei der Regulation der unspezifischen Immunabwehr. NO kann durch drei Isoenzyme der NO-Synthase (nc, i-, und ec-NOS) in zahlreichen Zellen konstitutiv und/ oder induzierbar synthetisiert werden. Die Expression der NO- Synthase ist in der Literatur für verschiedene Organe belegt. Die NOS- Expression für die Strukturen der Lebern ist dabei in letzter Zeit zunehmend im Mittelpunkt gerückt. Die erwarteten signifikanten Unterschiede im Expressionsmuster der gesunden und gallengangsligierten Gruppe konnten in dieser Untersuchung bestätigt werden. In der vorliegenden Studie konnte dargelegt werden, dass in den Lebern unter physiologischen und pathophysiologischen Bedingungen alle bekannten NO-Synthasen-Isoformen enthalten sind, die NO in verschiedenen Strukturen und unterschiedlichem Umfang exprimieren, wobei allerdings kein signifikanter Unterschied im Expressionsmuster zwischen den NOS- Isoformen zu erbringen war. Es erfordert jedoch weitere Studien den genauen Mechanismus der diskutierten regulierenden Wirkungen noch eingehender zu erforschen. Stickstoffmonoxid (NO) ist ein wichtiger Mediator des Immunsystems. Die Synthese von NO, einem einfachen Radikal mit vielfältigen Funktionen in physiologischen und pathologischen Prozessen, stellt einen unspezifischen Mechanismus der Immunantwort dar. Es existieren zwei Isoenzyme, die NO synthetisieren. Die induzierbare Stickstoffmonoxid-Synthase (i-NOS) lässt sich nach Stimulation mit LPS und Zytokinen in verschiedenen Zellen nachweisen. Diese Zellen v.a Makrophagen setzen unter dem Einfluß von Zytokinen NO in sehr hohen Konzentrationen frei. Indem es mit Superoxidanionen zu dem stark toxischen Peroxynitrit reagiert, kann NO einen unspezifischen toxischen Effekt ausüben. Andererseits hat NO auch eine Schutzfunktion. In einem Sepsis-Modell an Ratten wirkt die Stimulation von iNOS hepatoprotektiv. Viele Autoren vergleichen die Synthese von NO durch die NOS mit einem zweischneidigem Schwert oder teilen NO eine duale Rolle zu, mit physiologisch in niedrigen Konzentrationen auftretenden wünschenswerten, essentiellen und hepatoprotektiven Effekten und in höheren Konzentration vorkommenden zytotoxischen, krankheitsauslösenden- oder vermittelnden destruierenden Effekten, so dass man bei der in Zukunft möglichen Entwicklung pharmakologisch wirksamer NOS- Inhibitoren oder NO Donatoren beides, heilsame Therapie und mögliche pathophysiologische Nebenwirkungen abgewogen werden müssen. Die Ergebnisse der vorliegenden Arbeit legen nahe, dass der Expression aller NOS-Synthase-Isoformen und der Bildung von Stickstoffmonoxid in Lebern eine zentrale Bedeutung für die sekundär cholestasebedingte Leberzirrhosen zukommt.
ATP ist ein weit verbreitetes Signalmolekül im ZNS. Seine Hauptfunktionen betreffen die präsynaptische Modulation der Transmitterfreisetzung und die schnelle exzitatorische Transmission. Die Aktivierung ionotroper P2X-Rezeptoren durch ATP beinhaltet den Einstrom von Kalzium in die Zelle. Unter pathologischen Bedingungen, wie bei Epilepsie oder Ischämie, ist die ATP-Freisetzung erhöht und könnte einen neuronalen Zelltod induzieren. Eine anhaltender Aktivierung von NMDA-Rezeptoren und der dadurch erhöhte Einstrom von Kalzium in die Zelle stellt dabei den primären Effektor der Neurotoxizität dar. Dieses, als Exzitotoxizität bezeichnete Phänomen, ist an vielen neurologischen Krankheiten beteiligt. In der vorliegenden Arbeit wurde die Wirkung von ATP und anderen Purin- und Pyrimidin-Nukleotiden und von Adenosin auf die Überlebensrate von Neuronen bei induzierter Toxizität in hippokampalen Primärkulturen untersucht. Neurotoxizität wurde durch die Applikation der Glutamat-Rezeptor-Agonisten NMDA (30 μM) oder Kainat (300 μM) und durch Applikation von KCl (30 mM) induziert. Purin- und Pyrimidin-Nukleotide wurden in verschiedenen Konzentrationen von 10 μM – 1000 μM koappliziert. Nach 24 Stunden wurde die Überlebensrate der Neurone mit der Methode des Neuronen-spezifischen zellulären ELISA quantifiziert. Applikation von NMDA reduzierte den Anteil lebender Zellen auf 56 ± 3%. Der NMDARezeptor-Antagonist MK-801 verhinderte die NMDA-induzierte Toxizität. Die Koapplikation von ATP (0,01-1 mM) schwächte die zytotoxischen Wirkung von NMDA konzentrationsabhängig ab. Die Purine ITP und GTP zeigten ebenfalls eine protektive Wirkung und reduzierten die NMDA-induzierte Toxizität, wohingegen die Pyrimidin-Nukleotide UTP und CTP keinen protektive Wirkung zeigten. Weitere getestete P2-Rezeptor-Agonisten, wie ADP, AMP, Adenosin, α,β-meATP, 2MeSATP, das Dinukleotid Ap4A, α,β-meADP und BenzoylATP waren unwirksam. Der P2-Rezeptor-Antagonist Reactive Blue 2 (100 μM) inhibierte die Wirkung von ATP. Suramin und PPADS (100 μM) verhinderten die protektive Wirkung von ATP nicht. Applikation von Kainat reduzierte den Anteil lebender Zellen auf 37 ± 0,3%. Der Antagonist CNQX (100 μM) verhinderte die Kainat-induzierte Toxizität. Weder ATP noch GTP zeigten eine protektive Wirkung nach Kainat-induzierter Toxizität. Dies steht im Gegensatz zu ihrer protektiven Wirkung nach NMDA-vermittelter Toxizität. Applikation von KCl reduzierte den Anteil lebender Zellen auf 61 ± 4%. Die Purin- und Pyrimidin-Nukleotide (1 mM) zeigten bei K+-Depolarisation ein völlig anderes Wirkungsspektrum als bei Applikation von NMDA: GTP > ITP > ATP > ADP > CTP > α,β-meATP > UTP > AMP. 2MeSATP, α,β-meADP, Ap4A, BenzoylATP und Adenosin veränderten die Überlebensrate der Zellen nach KCl-induzierter Toxizität nicht. Weder Suramin noch PPADS (100 μM) inhibierten die protektive Wirkung von ATP. Diese Ergebnisse lassen vermuten, daß die protektive Wirkung von ATP, GTP und ITP weder P2- noch Adenosin-Rezeptor-vermittelt war. Zudem schienen sie spezifisch für eine NMDARezeptor-vermittelte Toxizität, da ATP und GTP nach Kainat-Applikation keine Wirkung erzielten und die alleinige Applikation der verwendeten P2-Rezeptor-Agonisten und Antagonisten (Kontrollen) keine Wirkung auf das Überleben von Neuronen hatte. Deshalb wurde eine direkte Inhibition des NMDA-Rezeptors durch ATP postuliert. In einer Kooperationsarbeit führte Dr. Bodo Laube vom Max-Planck-Institut für Hirnforschung in Frankfurt am Main elektrophysiologische Messungen an Oozyten und hippokampalen Neuronen zur Bestätigung dieser Hypothese durch. ATP inhibierte in Oozyten NMDA-induzierte Einwärtsströme kompetitiv durch Bindung an die NR2B-Rezeptor-Untereinheit. ITP, GTP, AMP waren an dieser rekombinanten NR1/NR2BRezeptorkombination ebenso effektiv, wohingegen UTP, CTP, ADP und Adenosin nur schwache inhibitorische Wirkungen zeigten. In kultivierten hippokampalen Neuronen inhibierte ATP auch NMDA-induzierte Ströme, nicht jedoch Kainat-induzierte Ströme. Die Expression der beiden NMDA-Rezeptor-Untereinheiten NR1 und NR2B wurde durch immunzytochemische Untersuchungen in den hippokampalen Neuronen bestätigt. Die Resultate zeigten, daß ATP direkt NMDA-Rezeptoren mit einer bestimmten Untereinheitenzusammensetzung inhibierten. Zusammenfassend zeigen die Ergebnisse der vorliegenden Arbeit, daß ATP und andere Purinund Pyrimidin-Nukleotide durch Inhibition des NMDA-Rezeptors neuroprotektive Wirkungen vermitteln können. Dies ist eine neue Funktion von ATP zu der bereits beschriebenen direkten Aktivierung von postsynaptischen P2X-Rezeptoren und zu seiner Rolle als eine extrazelluläre Quelle des synaptischen Modulators Adenosin an glutamatergen Synapsen.
Drevermanns Name ist in der Geologie nicht mit bahnbrechenden Ideen und Theorien verknüpft. Er hat nicht seine gesamte Energie auf seine Forschungen gerichtet. Stattdessen seine - manchmal auch schwache - Kraft (vgl. 3.6.) auf die Lehre (bei der Senckenbergischen Naturforschenden Gesellschaft und Universität), die Aufklärung des Volkes (in Vorträgen und „Natur und Museum“) und vor allem auf sein Museumsengagement aufgeteilt. Schon in seinem zweiten Senckenberg-Jahr zeichnete sich das Engagement für die Museumskunde ab. Er arbeitete sicher in der ersten Zeit eher angeleitet, später freier planend und ergänzend für die Vollständigkeit der Sammlung. Und schon 1911 leidet Drevermann daran, daß er zu wenig Zeit für seine eigene Arbeit hat. Er bat am 10. Oktober 1911 den Anfang seiner „Dienststunden auf 9 statt um 8“ festzusetzen, also die „Anzahl reduzieren von 42 auf 36“ Stunden. Als Grund nannte er: „Während der Arbeitszeit im Museum ist es wegen der fortwährenden und vielseitigen Inanspruchnahme meiner Tätigkeit nicht möglich, zu eigener wissenschaftlichen Tätigkeit zu gelangen.“ Er schreibt weiter, daß er dadurch hofft, „länger am Abend arbeiten“ zu können. Schon damals zeigt sich sein offensichtlicher Zeitmangel für seine eigenen Forschungsarbeiten. Dies sollte ihn sein ganzes Leben begleiten. Als fast tragisch ist deswegen zu werten, daß er seine schon 1915 begonnene Arbeit über Placodus trotz großer Anstrengungen in 1930 und 1931 nicht mehr beenden kann. Als ausschlaggebend für den Wandel und für die Abkehr von der eigenen devonischen Forschung und den Beginn des enormen Museumsengagements darf die Schenkung des Diplodocus gewertet werden. Dieses Museumsexponat verlegte Drevermanns Forschungsschwerpunkt zu den fossilen Wirbeltieren, im speziellen den Dinosauriern und Artverwandten, und damit hin zu einem für Drevermann und damit für das Senckenberg-Museum noch heute erfolgreichen Museumsthema. Drevermann ging damit den Weg vom klassischen Devon-Paläontologen hin zum Museumswissenschaftler. In seinen Schaffensjahren zeigt sich sein Werdegang zum Agitator, er setzte die Akzente und arbeitete für seine Museumsvorstellungen. Dazu ein Zitat Drevermanns aus seiner frühen Veröffentlichung über die Meersaurier im Senckenberg-Museum (1914): „Das Streben unseres Museums nach einer möglichst vollständigen Vertretung aller wichtigen Typen des Tierlebens der Vorzeit ist am ersten bei den Meersauriern mit Erfolg gekrönt worden. Durch das wiederholte verständnisvolle Eingreifen mehrerer Gönner des Museums ist es gelungen, in einem Jahrzehnt eine Sammlung zu schaffen, auf die das Museum stolz sein kann.“ Drevermann deutet hier nur versteckt an, daß das angesprochene Jahrzehnt sein erstes im Senckenberg-Museum war. Mit Hilfe von Gönnern, deren Wohlwollen er in der Lage war sich zu verschaffen, gelang es ihm durch Täusche und Käufe diese Sammlung aufzubauen. Er wurde zur prägenden Persönlichkeit. Deswegen machte ihn die Senckenbergischen Naturforschende Gesellschaft zum ersten Geologieprofessor der jungen Frankfurter Universität. Ein Ergebnis seiner intensiven engagierten Arbeit: 1924 wird er zum geschäftsführenden Direktor des Senckenberg-Museums ernannt. Drevermann betrieb als Museumswissenschaftler eine populäre Wissenschaft. Die Beispiele dafür sind mannigfaltig: seine Texte in der Frankfurter Zeitung, das Entwickeln der Zeitschrift „Natur und Museum“ und seine Veröffentlichungen und Fragenbeantwortung hierin, seine vielen Reden, seine Radio-Aktivitäten. Das außerordentliche Engagement Drevermanns für „sein“ Museums-Periodikum zeigt dabei deutlich, wie er als Museumswissenschaftler agierte und nicht als forschender Naturwissenschaftler. Und er ist als Museumswissenschaftler erfolgreich, weil er besondere Qualitäten als Autor und Redner hat. Er beschreibt anschaulich - auch für den Laien - , aber wissenschaftlich genau. Beschäftigt hat sich Drevermann tatsächlich mit geologisch und paläontologischer Forschung nur sekundär. Er war nicht der Spezialist, sondern der Generalist - er verstand viele geologische und paläontologische Fragestellungen. Denn er war immer auf der Höhe des disziplinären Diskussionen – auch wenn er selbst nur einen geringen Beitrag an Lösungen dazu lieferte. Er selbst liest die Veröffentlichungen über die Forschungsarbeiten anderer, spricht in seinen Vorlesungen und Reden darüber, stellt Bücher vor, greift auch in die fachliche Diskussion ein mit Stellungnahmen und Essays, aber entfacht keine solche. Letzteres war nur einmal der Fall: bei seinen Vorstellungen über das Museum der Zukunft. Dieses Thema ist das eigentliche Vermächtnis Drevermanns.
Methoden zur Präparation und Charakterisierung von time dependent haze auf Siliziumoberflächen
(2002)
Zwischen der Herstellung von Siliziumwafern und ihrer weiteren Verarbeitung zu Halbleiterbauelementen liegt eine Zeitspanne, in welcher die Scheiben in Kunststoffboxen aufbewahrt werden. Während dieser Lagerung kann es zu einem Ansteigen der Oberflächenrauhigkeit kommen. Dieses Phänomen wird als Time Dependent Haze (TDH) bezeichnet und durch chemische Prozesse von Verunreinigungen auf der Siliziumoberfläche verursacht. Diese Kontaminationen entstammen dem Kunststoff der Transportboxen, der Reinraumluft oder den Chemikalien der naßchemischen Waferreinigung. Time Dependent Haze wurde künstlich hergestellt und charakterisiert. Die Präparationen erfolgten in verschiedenen Versuchsreihen mit organischen und anorganischen Verbindungen. Diese gezielten Kontaminationen erlauben Rückschlüsse auf Substanzen und Einflußgrößen, welche TDH verursachen. Nach einer Lagerungsperiode wurden die Siliziumoberflächen mittels Streulichtmessungen untersucht. Das Auftreten von Licht-Punkt-Defekten diente als Maßstab für die TDH-Bildung. Mit verschiedenen analytischen Methoden, insbesondere dem Rasterkraftmikroskop, wurde TDH in einem frühen Entstehungszustand untersucht. Präparationen mit flüchtigen organischen Verbindungen zeigten, daß solche Substanzen TDH erzeugten, die sowohl einen hohen Dampfdruck als auch eine gute Wasserlöslichkeit besitzen. Beide Eigenschaften sind notwendig, um über die Gasphase auf die hydrophile Oberfläche eines Wafers zu gelangen. Die Morphologie dieses TDH fiel sehr unterschiedlich aus. Im Fall der Präparation mit Aceton enstanden Partikel von wenigen Nanometern Durchmesser. Die gezielte Verunreinigung mit Tetrahydrofuran führte zu einem Kontaminationsfilm mit einer sehr geringen Mikrorauhigkeit. Anorganische Verbindungen wie beispielsweise Schwefelsäure, die in der Waferreinigung Verwendung findet, können bei fehlerhaften Reinigungsschritten TDH bilden. Unter dem Einfluß einer solchen Lösung, bestehend aus H2SO4/H2O2, entstanden sulfathaltige Kristallite, welche im Verlauf der Waferlagerung agglomerierten. Das gleiche Resultat ergab eine Präparation, bei der Siliziumwafer einer Atmosphäre aus Schwefeldioxid ausgesetzt waren. Sehr wahrscheinlich existieren die Kristallisationskeime bereits unmittelbar nach der Präparation. Aufgrund ihrer geringen Größe können diese von der Streulichtmessung nicht als Partikel erfaßt werden. Erst nach mehr monatiger Waferlagerung ist das Kristallwachstum soweit fortgeschritten, daß das untere Detektionslimit der Streulichtmethode erreicht wird und die Partikel als solche registriert werden können. Auf Wafern mit organischem TDH konnte Kupfer nachgewiesen werden. Dieses Metall ist als Verunreinigung im Reinstsilizium enthalten. Es diffundiert innerhalb der Lagerungsperiode zur Oberfläche und scheidet sich ab. Dort fungiert Kupfer als Nukleationszentrum für Kontaminanten und fördert auf diese Weise die TDH-Entstehung. Experimente mit mehreren Einflußgrößen, bei welchen Siliziumwafer verschiedenen Parametern gleichzeitig ausgesetzt waren, zeigten synergetische Effekte in Bezug auf die Bildung von Time Dependent Haze. Im Vergleich zu Präparationen mit nur einem Kontaminanten lag die Zahl der neu entstandenen Licht-Punkt-Defekte unerwartet hoch. Innerhalb dieser Versuchsmatrix hatten die Anwesenheit von Ammoniumsulfat und eine hohe Luftfeuchtigkeit einen deutlichen Einfluß auf die TDH-Entstehung. Die Siliziumoberfläche wird durch einzelne Substanzen aktiviert und die Abscheidung weiterer Kontaminationen dadurch erhöht. Eine nähere Untersuchung von TDH bestehend aus verschiedenen Kontaminanten erfolgte mit Hilfe des Pulsed Force Mode/AFM. Diese Methode ermöglicht anhand der Bestimmung der Adhäsion zwischen einer AFM-Meßspitze und der Oberfläche die Unterscheidung verschiedener Materialien mit der hohen Auflösung eines Rasterkraftmikroskops. Zu Beginn der Untersuchungen erfolgte eine Evaluation der Methode. Dabei zeigte sich, daß die Adhäsion unbeeinflußt von der Partikelgröße ist. Das Adhäsionssignal ist abhängig vom Radius der AFM-Spitze und von der umgebenden Luftfeuchtigkeit. Dieses Signal setzt sich zusammen aus der Oberflächenenergie des Materials und aus dem Wasser- und Kontaminationsfilm, welcher die Oberfläche bedeckt. Adhäsionsmessungen an kontaminierten Wafern zeigten außer der rasterkraftmikroskopischen Abbildung der Oberfläche zusätzliche Strukturen. Diese deuten auf das gleichzeitige Auftreten von TDH-Partikeln mit unterschiedlicher Zusammensetzung hin. Die Ergebnisse dieser Arbeit bestätigten ein bereits existierendes Modell zur Entstehung von Time Dependent Haze. Unter Berücksichtigung der neuen Erkenntnisse konnte dieses Modell erweitert werden.
Im Rahmen dieser Arbeit sollte ein Anti-PGE2-Antikörperfragment exprimiert werden, mit dem über NMR-Spektroskopie genauere Strukturdaten der Antikörperbindungsdomäne zu erhalten wären. Da Fab-, Fv- und scFv-Fragmente die Antigenbindungsstelle besitzen und sich gegenüber einem vollständigem IgG zusätzlich durch ihre geringere Größe auszeichnen, wurden die korrespondierenden Antikörperfragmente für diese Arbeiten gewählt. Ausgehend von einer etablierten Hybridom-Zelllinie konnten über cDNA-Synthese und Assembly-PCR die Gene für die Antikörperfragmente bereitgestellt werden. Zum Verifizieren von DNA-Sequenz und Bindungseigenschaften stand ein Anti-PGE2-Fab-Fragment früherer Arbeiten von Frau Dr. Ilse Zündorf zur Verfügung. Für Strukturuntersuchungen müssen relativ große Proteinmengen bereit gestellt werden, daher ist es notwendig, hohe Ausbeuteverluste durch Präzipitation, Degradierung, Aufreinigungsverluste u.a. zu vermeiden. Um zunächst eine möglichst gute Proteinexpression zu erhalten, wurde der Bakterienstamm Escherichia coli BL21DE3 und das pET-Expressionssystem gewählt. In diesem System war zu erwarten, dass die überexprimierten Antikörperfragmente unter den gewählten Bedingungen in Form unlöslicher Aggregate, sogenannter inclusion bodies, in den Zellen vorliegen werden. Die der Klonierung der VH-, Vk- und scFv-Gene folgende Expression der Proteine zeigte, dass es tatsächlich zur Bildung von inclusion bodies kommt. Die Vorteile dieser Aggregatbildung, wie hohe Proteinmenge, Proteaseunempfindlichkeit aufgrund der hohen Dichte sowie die hohe Homogenität, sollten für die Gewinnung nativer Antikörperfragmente genutzt werden. Hierfür konnte ein System etabliert werden, das im wesentlichen auf der Solubilisierung der Aggregate und der Reduktion falscher Disulfidbrücken mit anschließender Rückfaltung und Rekonstituierung der Disulfidbrücken beruht. Kritische Parameter, die den Rückfaltungsprozess beeinflussen, wurden untersucht. Hierunter fallen insbesondere die Zusammensetzung des Renaturierungssystems wie Pufferbedingungen, das Verhältnis von oxidierten zu reduzierten Glutathion und der Zusatz von sogenannten Faltungsenhancern, die Additiva. Für fast alle wesentlichen Punkte konnten Systemkomponenten etabliert werden, die für das scFv-Fragment eine nahezu vollständige Überführung der inclusion bodies in die lösliche Form erlauben. Auch eine Bindung an das Antigen Prostaglandin E2 konnte unter Anwendung von Radioimmunoassays gezeigt werden. Problematisch ist die Aufkonzentrierung der in niedriger Konzentration vorliegenden renaturierten scFv-Fragmente. Je stärker aufkonzentriert wird, desto stärker präzipitieren die scFv-Moleküle in der Ultrafiltrations- bzw. Zentrifugationsfiltereinheit. Antikörper und Antikörperframente sind ohne Frage eine sehr wichtige Molekülgruppe von molekularbiologischen und biochemischen Interesse, nicht nur in dieser Arbeitsgruppe. Im Rahmen einer möglichen Weiterführung dieser Arbeit müsste geklärt werden, ob das Präzipitationsverhalten der scFv-Fragmente eine inhärente Eigenschaft des Anti-PGE2 scFv ist, oder ob hier doch eine zumindest teilweise inkorrekte Faltung der Proteinkette vorliegt. Mögliche weitere Experimente könnten in der Variation des Linkers liegen oder das etablierte Verfahren an einem weiteren scFv-Fragment zu testen. Da die genannten Probleme bei der Aufkonzentrierung der Proteinlösung auftreten, sollten statt der angewandten Techniken alternative Methoden geprüft werden. Auch wäre es interessant zu sehen, ob sich ein z.B. kommerziell verfügbares scFv-Fragment, dessen Bindungseigenschaften bekannt sind, nach Denaturierung wieder in die native Form überführen lässt. Abschließend lässt sich sagen, dass die Herstellung von nativen Protein aus inclusion bodies viele Vorteile bietet, die für die Präparation größerer Proteinmengen nicht ungenutzt bleiben sollten.
Die kongenital gehörlose Katze (CDC, congenitally deaf cat) stellt ein geeignetes Tiermodell für angeborene Gehörlosigkeit dar [Heid et al., 1998]. Ihr fehlen jegliche auditorischen Eingänge, das zentrale Hörsystem ist naiv. Doch die Hörnervenfasern bleiben erhalten und sind elektrisch stimulierbar. Zur chronischen Elektrostimulation des Hörsystems werden den Tieren im Alter von etwa zwölf Wochen Stimulationselektroden in die Cochlea implantiert. Nach der Operation erhalten die Tiere einen speziell für sie entwickelten Signalprozessor, der Umgebungsgeräusche über ein Mikrofon aufnimmt und in geeigneter Weise an die Stimulationselektroden weiterleitet. Von diesem Zeitpunkt an werden die CDCs 24h pro Tag mit Schallsignalen versorgt. Das anfangs naive Hörsystem durchläuft von da an eine Reifung, die die CDCs schließlich zu komplexerer Schallanalyse als Leistung des zentralen Hörsystems befähigt [Klinke et al., 1999b]. Neurophysiologische Experimente können die angesprochene Reifung des Hörsystems nur zu einem festen Zeitpunkt darstellen. Das Ziel der vorliegenden Arbeit war die Entwicklung einer Methode, mit der sich diese Reifungsprozesse der CDC im zeitlichen Verlauf verfolgen lassen. Die funktionelle Kernspin- oder Magnet-Resonanz-Tomographie (functional magnetic resonance imaging, fMRI) ist ein geeignetes Untersuchungsverfahren, das die Darstellung cerebraler Aktivierungen zu verschiedenen Zeitpunkten der Entwicklung erlaubt, allerdings ist das in der Humanmedizin gängige Verfahren bislang nicht an kleinen Säugetieren anwendbar gewesen. Im Rahmen dieses Dissertationsprojektes wurde ein solches, für die fMRI an Katzen geeignetes Meß- und Stimulationssystems völlig neu entwickelt und erfolgreich zur Untersuchung der Kortexaktivierung unter elektrischer Stimulation der Katzen-Cochlea eingesetzt [Thierfelder et al., 2000]. Zunächst wurde gezeigt, daß die speziell für die chronische Implantation bei der CDC entwickelten Stimulationselektroden [Behrendt, 1999] sowohl mit der anatomischen wie auch der funktionellen MR-Bildgebung kompatibel sind. Zur Signalübertragung während der funktionellen Untersuchungen wurde eine elektro-optische Übertragungsstrecke aufgebaut, mittels der der Stimulus vom Signalgenerator zum Implantat geleitet wird. Im Gegensatz zu einer rein elektrischen Signalübertragung verhindert hierbei ein optisch isolierter Signalpfad die Einstreuung von externen Hoch-frequenzen aus dem Radioband. In Korporation mit der Firma Siemens wurde eine speziell an die Anatomie der Katze angepaßte Sende-/Empfangsspule entworfen und optimiert. Durch die dabei erzielte Minimierung des Probenvolumens wurde ein Gewinn von 80% des Signal-zu-Rausch- Verhältnisses gegenüber einer bis dahin verwendeten Oberflächenspule zur Untersuchung des Handgelenks erreicht. Um die Überlagerung des elektrischen Stimulus mit Störsignalen des MRT im Bereich des eigentlichen Implantats zu verhindern, wurde ein Triggermodul für die Übertragungsstrecke konzipiert und erfolgreich implementiert. Solche Störspannungen können in jeder Leiterschleife durch Spinanregungs- und Schichtauslese-Pulse induziert werden. Deshalb wurden die zur fMRI verwendeten Sequenzen so geändert, daß sie unmittelbar vor der Akquisition der zu untersuchenden Tomogramme ein Stimulations-Stop-Signal ausgeben. Dieses Stop-Signal wird von einer selbstentwickelten Controller-Einheit verwaltet, die den Umschaltvorgang von der Ruhe- auf die Stimulationsphase bzw. umgekehrt steuert. Auf der Basis theoretischer Abschätzungen und eigener Messungen erwies sich die gleichzeitige Durchführung von elektrischen Stimulationen der CDCs unter Cochlea-Implantat-typischen Bedingungen und Standard-fMRI-Untersuchungen als unbedenklich. Elektrische, thermische oder toxische Beeinträchtigungen konnten ausgeschlossen werden. Zur Untersuchung kortikaler Reifung naiver Hörsysteme wurde die kortikale Aktivität für ein Einzelexperiment an einem ertaubten Tier und im Rahmen von Verlaufsstudien an zwei chronisch stimulierten CDCs untersucht. Zunächst wurde durch fMRI nachgewiesen, daß evozierte Aktivierungen im auditorischen Kortex reliabel dargestellt werden können. Als Korrelat elektrisch evozierter Aktivität wurde die Anzahl aktiver Voxel bestimmt. Die Abhängigkeit der Aktivität von der elektrischen Stimulationsintensität wurde relativ durch den Kontralateralitätsindex KL ausgewertet, um die Ergebnisse mit ähnlichen Untersuchungen bei akustischer Stimulation am Menschen zu vergleichen. KL beschreibt das Verhältnis aus kontralateraler Aktivität und der Summe aus kontralateraler und ipsilateraler Aktivität. Analog zum KL-Anstieg mit Anwachsen der akustischen Stimulationsintensität beim Menschen [Hart et al., 2001] nimmt auch bei elektrischer Stimulation der Katze der KL-Index signifikant zu. Die Steigungen beider Regressionsgeraden stimmen etwa überein, wenn man die für elektrische (1.37dB%) und akustische (0.37)(%SPLdB) Stimulationen des Hörnerven unterschiedlichen Dynamikbereiche berücksichtigt (10dBel vs. 40dBak SPL) [Raggio und Schreiner, 1994]. Denn die Steigung der Regressionsgerade, genauer die über weite Intensitätsbereiche als linear anzunehmende KL-Änderung fällt um so geringer aus, je größer der Dynamikbereich des informationsverarbeitenden Systems ist. Nach Klinke et al. [Klinke et al., 1999b] wachsen sowohl die Amplituden als auch die Flächen von aus dem primären auditorischen Kortex abgeleiteten Feldpotentialen mit der Dauer der chronischen, elektrischen Cochlea-Stimulation von CDCs. Weiterhin fällt nach Kral et al. [Kral, 2001, Kral et al., 2002] dieser Amplituden- und Flächenzuwachs um so größer aus, je früher die Implantation erfolgte. Aus den Aktivierungsumfängen wurden zur Untersuchung kortikaler Reifungsprozesse für ein früh (3.5m) und ein adult (6m) implantiertes Tier die KL-Werte berechnet. Für beide Tiere ist KL der ersten, naiven Messung nahezu gleich (KLjung≅0.0 vs. KLadult≅0.3). Mit der Dauer der chronischen Elektrostimulation (58d vs. 76d) wächst der Wert für das früh implantierte deutlich (KLadult≅1.0), während er sich für die adult implantierte Katze nicht verändert (KLadult≅0.15). Die Ergebnisse aus den fMRI-Messungen decken sich also mit neurophysiologischen Daten. Die hier entwickelte fMRI-Methode ist demnach für Verlaufsbeobachtungen an cochleaimplantierten Katzen brauchbar.
Die vorliegende Arbeit beschreibt Untersuchungen zur Beurteilung der pharmazeutischen Qualität von Phytopharmaka am Beispiel der häufig eingesetzten Johanniskrautextrakt-Präparate. Elf Johanniskrautextrakt-Präparate des deutschen Arzneimittelmarktes wurden hinsichtlich Chargenhomogenität, Chargenkonformität und Gehalt der wirksamkeitsmitbestimmenden Inhaltsstoffe Gesamthypericin und Hyperforin untersucht. Außerdem wurde die Freisetzung von Hyperforin, Hypericinen und Flavonoiden aus verschiedenen Präparaten in kompendialen und biorelevanten Medien geprüft. Zur Analytik des Hyperforins und der Flavonoide wurden zwei HPLC-Verfahren etabliert und nach ICH-Guidelines validiert. Die Analysenzeit der isokratischen Methode zur Bestimmung von Hyperforin war mit 10 Minuten sehr kurz. Somit war die Methode sowohl für die Gehaltsbestimmungen als auch für die Freisetzungsuntersuchungen sehr gut geeignet. Zur Bestimmung der Flavonoide Rutin, Hyperosid/ Isoquercitrin und Quercitrin wurde eine Gradientenelution verwendet, wodurch eine Analysenzeit von 18 Minuten resultierte. Gesamthypericin wurde mittels Differentieller Puls-Polarographie nach Belichtung der Proben bestimmt. Die Ergebnisse der Untersuchung zur Chargenhomogenität von Gesamthypericin und Hyperforin belegten für nahezu alle Präparate eine gute Gleichförmigkeit des Gehaltes der analysierten wirksamkeitsmitbestimmenden Inhaltsstoffe. Im Bezug auf die Chargenkonformität hinsichtlich Gesamthypericin wiesen die Präparate unterschiedliche Resultate auf. Zwar ist es seit Erscheinen des „Bühler-Papiers“ nicht mehr zulässig auf einen definierten Gehalt an Gesamthypericin, zu normieren, einige Extrakthersteller ziehen diese Substanzgruppe jedoch als analytischen Qualitätsparameter bei der Herstellung standardisierter Extrakte heran. So zeigten vier Präparate bei der Untersuchung von je fünf Chargen mit relativen Standardabweichungen von unter 10% eine gute Reproduzierbarkeit des Gesamthypericingehaltes. Die übrigen Präparate wiesen mehr oder weniger starke Schwankungen im Gesamthypericingehalt auf. Die Untersuchung der Chargenkonformität bezüglich Hyperforin führte zu dem Ergebnis, daß lediglich für zwei Präparate (eines Herstellers) eine sehr gute Reproduzierbarkeit des Hyperforingehaltes erreicht wurde. Hier betrugen die relativen Standardabweichungen weniger als 4%. Die übrigen Präparate zeigten mehr oder weniger starke Schwankungen, wobei für ein Präparat der Variationskoeffizient 70% betrug. Auffällig ist, daß die Präparate mit einheitlichen Hyperforingehalten höhere relative Standardabweichungen von ca. 20% bzgl. des Gesamthypericingehaltes zeigten. Umgekehrt zeigten Präparate mit einheitlichem Gesamthypericingehalt oftmals höhere Variationskoeffizienten bei den Hyperforingehalten. Eine gute Chargenkonformität für beide Analyten wiesen lediglich drei Präparate auf. Der relative Gesamthypericingehalt im Extrakt betrug zwischen 0,11 und 0,43%, während der Absolutgehalt an Gesamthypericin Werte zwischen 0,33 und 1,92 mg je Darreichungsform aufwies. Orientiert an den Einnahmeanweisungen der Hersteller lagen die maximalen Tagesdosen Gesamthypericin zwischen 1,00 und 3,69 mg Gesamthypericin. Die gefundenen relativen Hyperforinmengen lagen in der Regel zwischen 1,09 und 4,48% im Extrakt, wobei ein einzelnes Präparat weniger als 0,2% Hyperforin im Extrakt aufwies. Für den Absolutgehalt an Hyperforin wiesen die Präparate Werte zwischen weniger als 0,5 und 28,88 mg auf. Unter Berücksichtigung der Einnahmeempfehlungen des Herstellers ergaben sich daraus Tagesmaximaldosen zwischen < 1 und 53,76 mg Hyperforin. Die Ergebnisse der Freisetzungsuntersuchungen in kompendialen und biorelevanten Medien zeigten, daß Hyperforin im sauren Milieu des Magensaftes nicht freigesetzt wird und es auch unter Bedingungen, die den nüchternen Zustand im proximalen Dünndarm simulieren lediglich zu einer geringfügigen Freisetzung aus der Arzneiform kam. Eine gute Freisetzung konnte hingegen im Medium FeSSIF erreicht werden, daß die Bedingungen des proximalen Dünndarms im gesättigten Zustand simuliert. Gesamthypericin ging zwar im sauren pH-Milieu des Magensaftes ebenfalls nicht in Lösung, unter simulierten Nüchternbedingungen im Dünndarm konnte im Gegensatz zu Hyperforin aber bereits eine gute Freisetzung verzeichnet werden. Die untersuchten Flavonoide zeigten in allen verwendeten Medien eine gute Freisetzung. Der Vergleich verschiedener Präparate ergab starke Unterschiede hinsichtlich ihrer Freisetzungscharakteristik. Dabei ergaben sich Abweichungen sowohl hinsichtlich Geschwindigkeit als auch bezüglich Vollständigkeit der Freisetzung der untersuchten Inhaltsstoffe. Eine Tatsache ist, daß Präparate, die laut Deklaration als pharmazeutisch äquivalent einzustufen wären, sich einerseits im Bezug auf den Gehalt an pharmazeutisch-relevanten Inhaltsstoffen und andererseits auch in ihrem in-vitro-Freisetzungverhalten unterschiedlich verhalten und somit nicht als biopharmazeutisch äquivalent gelten können. Dies läßt den Schluß zu, daß Johnniskrautextrakt-Präparate zur Therapie leichter bis mittelschwerer Depressionen nicht ohne weiteres untereinander ausgetauscht werden sollten. Es ist unumstritten, daß Bedarf an neuen aussagekräftigen Beurteilungsansätzen zur Qualität von Phytopharmaka vorhanden ist. In dieser Arbeit wurde eine neue und verfolgenswerte Idee zur vergleichenden Bewertung der pharmazeutischgalenischen Qualität von Phytopharmaka am Beispiel von Johanniskrautextrakt-Präparaten aufgezeigt.