Refine
Year of publication
- 2007 (313) (remove)
Document Type
- Doctoral Thesis (313) (remove)
Language
- German (232)
- English (79)
- Portuguese (2)
Has Fulltext
- yes (313) (remove)
Is part of the Bibliography
- no (313)
Keywords
- Apoptosis (3)
- Endothel (3)
- Gentherapie (3)
- Kardiovaskuläre Krankheit (3)
- Molekularbiologie (3)
- Molekülstruktur (3)
- NMR-Spektroskopie (3)
- ABC-Transporter (2)
- Arteriosklerose (2)
- Arzneimitteldesign (2)
Institute
- Medizin (113)
- Biochemie und Chemie (56)
- Biowissenschaften (47)
- Physik (24)
- Pharmazie (18)
- Wirtschaftswissenschaften (9)
- Geowissenschaften (7)
- Gesellschaftswissenschaften (7)
- Psychologie (7)
- Erziehungswissenschaften (3)
Die Eigenschaften, die im Rahmen dieser Arbeit untersuchten Co-Polymeren auf Basis von a-Hydroxycarbonsäuren und Polyolen, unterscheiden sich deutlich von denn entsprechenden reinen Polymeren ohne Polyolkomponente. Die Polymere dieser Klasse, die sich durch Variation der Parameter Alkoholkomponente, Alkohol/Lactid-Verhältnis, Lactid/Glycolid-Verhätnis, L/DL-Verhältnis ergibt sind äußerst vielfältig. Schwerpunktmäßig wurden Polymere untersucht, die als Carbonsäurekomponente Milch- und/oder Glycolsäure enthalten und bei denen Glycerin oder Ethylenglycol als Polyol verwendet wurde. Diese Arbeit verfolgte zum einen das Ziel, grundlegende Erkenntnisse über die neuartige Polymerklasse zu gewinnen und zum anderen die Eignung dieser Polymere als implantierbares Arzneistoffdepot zu untersuchen. Dabei konnte – wie im ersten Teil dieser Arbeit beschrieben – nur ein Ausschnitt aus dem großen Spektrum der Polymere beispielhaft synthetisiert und untersucht werden. Von vornherein ausgeschlossen waren bei diesen Untersuchungen Polymere, deren Glasübergangstemperatur unter Raum- und über Körpertemperatur lagen. Es sollten so lagerstabile, aber nach Applikation ins Gewebe anpassungsfähige Formkörper erhalten werden. Die Untersuchungen mit den entwickelten Polymerstäbchen haben gezeigt, dass sich die Klasse der Polyol-oligolactide/co-glycoliden von herkömmlichen, reinen Polylactiden bzw. Polylactiden/co-glycoliden in einigen Punkten unterscheidet. So wurde bei keinem der Versuche ein inhomogenes Abbauverhalten festgestellt, wie dies in der Literatur bei reinen Polylactiden/co-glycoliden beschrieben ist. Es kam also nicht zu einem beschleunigten Polymerabbau im Inneren der Stäbchen durch Autokatalyse der sich dort akkumulierenden Milchsäure. Die Glycerol-Polymere scheinen eine ausreichende Diffusion der Degradationsprodukte nach außen zu gewährleisten. Dies ist eine wichtige Voraussetzung für die gleichmäßige Freisetzung von Wirkstoffen. Die Eigenschaften der Polymerstäbchen ließen sich auf unterschiedliche Weise beeinflussen. So konnte ihre Wasseraufnahmefähigkeit durch das Verhältnis der Mischung von L-Polymeren zu DL-Polymeren sehr weit variiert werden. Das amorphe DL-Polymer ermöglicht eine erleichterte Wasseraufnahme gegenüber der reinen teilkristallinen L-Variante. Die Co-Polymerisation mit Glycolid bot eine weitere Möglichkeit, die Eigenschaften der Polymere zu beeinflussen. So stieg bei den Polymeren mit gleichem Glycerin/Monomer-Verhältnis die Hydrophilie in der Reihe GOL-DL-1:18 < GOL-DL-1:13,5:4,5 < GOL-DL-1:9:9 < GOL-L-1:4,5:13,5 an. Die Versuche, die im zweiten Teil der Arbeit beschrieben werden, wurden im Rahmen der Entwicklung eines Applikationssystems für niedermolekulare Cyclooligo-peptide durchgeführt, die in der Krebstherapie eingesetzt werden sollten. Es wurde deutlich, dass die bisher verwendeten Polymerstäbchen für eine solche Anwendung nicht geeignet waren. Sie boten der zur Applikation notwendigen Menge an Peptid eine zu geringe Menge an Polymermatrix, was zu einer hohen Beladungsrate führte. Die Folge war ein mechanisch instabiles System, das nach Implantation zerbrechen könnte und so den Wirkstoff unkontrolliert freisetzen würde. Aus diesem Grund wurde ein Verpressungsverfahren gewählt, um Tabletten beziehungsweise stäbchenförmige Presslinge als Applikationssystem zu erhalten. Für beide Varianten wurde das Polymer gemahlen, die zu untersuchenden Hilfs- oder Wirkstoffe eingemischt und dann verpresst. Bei den Untersuchungen zeigte es sich, dass eine gleichmäßige Freisetzung über mehrere Tage mit diesen resorbierbaren Trägersystemen nicht möglich war. Der Grund hierfür war ein zweiphasiger Verlauf der Freisetzung. Im ersten Teil des zweiphasigen Verlaufs wurde eine große Menge des Wirkstoffes zusammen mit der niedermolekularen Komponente ausgespült. In der zweiten Phase wurde der Wirkstoff im Zuge der Degradation der höhermolekularen Komponente langsam freigesetzt. Der Einfluss des Pressdruckes bei Erstellen der Prüfkörper war für die Freisetzung eher von untergeordneter Bedeutung, während eine vermehrte Zumischung von leicht wasserlöslichen Substanzen oder die Verwendung von hydrophileren Polymeren (DL-Lactide anstelle von reinen L-Lactiden) die Freisetzung des Peptides deutlich erhöhte. Im dritten Teil der Arbeit wurde beispielhaft an den Substanzen Gentamicinsulfat, Methotrexat und einem Cyclo-Oligo-Peptid die Freisetzung aus 13 verschiedenen halbfesten Polymersystemen untersucht. Diese Systeme wurden durch Mischung von nieder- mit höhermolekularen Polymeren hergestellt. Die Menge an freigesetztem Arzneistoff korrelierte erwartungsgemäß mit der Oberfläche der Probenkörper. Die Freisetzung des gut wasserlöslichen Gentamicinsulfats erfolgte aus den Systemen mit einem hohen Anteil an niedermolekularem Polymer sehr schnell und vollständig. Systeme mit überwiegend höhermolekularem Polymer gaben den Wirkstoff weniger schnell frei und es konnte gezeigt werden, dass der Wirkstoff sich in beiden Polymeren der Mischung verteilt. Das Freisetzungsverhalten bei dem in Wasser schwerlöslichen Methotrexat war nicht grundsätzlich anders. Die Verteilung zwischen der höher- und niedermolekularen Phase ähnelt der des Gentamicinsulfates. Eine relativ hohe Beladungsrate mit einem hydrophilen Wirkstoff (EMD 121974) führte zu einer deutlich höheren Freisetzung aus dem höhermolekularen Teil des Polymergemisches, so dass insgesamt eine beinahe vollständige Freisetzung erreicht wurde. Das im vierten Teil der Arbeit untersuchte Beschichten von Hydroxylapatit- Zylindern aus einer Kombination von bFGF mit einem Glycerin-L-1:13 Lactid Polymer führte zu einer gleichmäßigeren Freisetzung als bei Zylindern, die ohne Einsatz von Polymer beschichtet wurden. Außerdem war auch noch nach dem 5. Tag eine Freisetzung von bFGF zu beobachten. Eine signifikante Verzögerung des Einwachsens von Knochen in das Implantat nach 42 und 84 Tagen konnte bei der Gruppe mit bFGF/Polymer-Beschichtung histomorphologisch gezeigt werden. Die Poren des Implantates waren mit dem Polymer gefüllt, was das Einwachsen in den ersten Wochen deutlich erschwerte. Erst nach Beginn der Degradation des Polymers war das Eindringen des umgebenden Knochen möglich. Das Polymer GOL-L-1:12 war also aufgrund seiner langsamen Degradation für eine solche Anwendung ungeeignet. Für eine Verwendung als Beschichtungsmaterial sollte ein Polymer deutlich schneller degradieren und die Beschichtungsdicke müsste optimiert werden. Die Charakterisierung der Polyol-oligolactide/co-glycoliden in dieser Arbeit hat gezeigt, dass es sich bei dieser Polymerklasse um eine sehr interessante Variante der resorbierbaren Polymere handelt. Die einfache Synthese, die gute Bioverträglichkeit und die in sehr weiten Bereichen variierbaren Eigenschaften machen diese Polymere zu vielversprechenden Kandidaten bei der Entwicklung von Arzneimittelträgern oder Medizinprodukten.
Nach einer kurzen Einführung in die Theorie der Volterra-Systeme wurden in dieser Arbeit zunächst Verfahren zur Bestimmung von Volterra-Kernen als Kenngrößen für Volterra-Systeme zur Modellierung nichtlinearer Systeme analysiert. Im Vordergrund stand zunächst ein Verfahren basierend auf der Messung der Kreuzkumulanten-Spektren höherer Ordnung von Ein- und Ausgangssignal eines nichtlinearen Systems, wobei als Systemanregung ein stationärer, mittelwertfreier Gaußscher Zufallsprozeß angenommen wurde. Die Analyse der untersuchten Differenzengleichung zeigt, daß zur präzisen Bestimmung der Kernfunktionen bis zur dritten Systemordnung mehr als eine Million Ein- und Ausgangswerte notwendig sind. Vergleichend dazu wurde der Volterra-RLSAlgorithmus betrachtet, der eine rechenzeiteffiziente Bestimmung der Volterra-Kerne zuläßt und kein bestimmtes Eingangssignal erfordert. Beim Volterra-RLS-Algorithmus wurde zunächst die zur Bestimmung derartiger Systemkenngrößen erforderliche Anzahl der Ein- und Ausgangswerte festgestellt. Hierbei wurde u.a. auch ein gedämpftes Pendel als Modellsystem betrachtet. Die Ergebnisse zeigen, daß eine genaue Bestimmung der Volterra-Kerne mit dem Volterra-RLS-Algorithmus schon anhand von etwa 1500 Ein- und Ausgangswerten möglich ist. Anschließend wurde eine spezielle Klasse von Volterra-Systemen, die in lineare Teilsysteme zerlegbar sind, untersucht. Der Volterra-Kern eines solchen Systems, das ausschließlich aus linearen, zeitinvarianten Systemen aufgebaut ist, kann bei Kenntnis von deren Impulsantworten direkt bestimmt werden. Ihre Struktur führt zu einer deutlich verminderten Rechenkomplexität bei der Berechnung der Systemantwort des dargestellten Volterra-Systems. Wie in der Arbeit gezeigt, reichen für eine präzise Messung der Volterra-Kerne, die mit einem Gradientenverfahren bestimmt wurden, bei diesen Systemen bereits ungefähr 1000 Ausgangswerte aus. Außerdem ist die Realisierung eines Systems höherer Ordnung aus Systemen niedrigerer Ordnung relativ einfach möglich. Bei umfangreichen Untersuchungen wurde eine Identifikation nichtlinearer Systeme mit unterschiedlich ausgeprägten Nichtlinearitäten vorgenommen. Als Beispiel ist in dieser Arbeit der Fall diskutiert, bei dem Lösungen der Duffing-Gleichung herangezogen wurden. Dabei wurden Volterra-Systeme bis zur fünften Ordnung zugrundegelegt; eine präzise Approximation gelang in allen Fällen. Schließlich wurde noch festgestellt, inwieweit die Möglichkeit besteht, nach einer Bestimmung, d.h. anhand eines numerisch vorliegenden Kerns, daraus Systemparameter zu extrahieren. Dazu wurde eine spezielle OTA-C Integratorschaltung betrachtet; als Eingangssignale wurden Ein- und Zweitonsignale verwendet und anschließend die Bestimmung der Kerne homogener Systeme vorgenommen. Anhand dieser Resultate konnten der Widerstand R0 und die Kapazität C des OTA-C Integrators mit hoher Genauigkeit ermittelt werden. Die Untersuchungen haben gezeigt, daß eine Identifikation mit den aus linearen Systemen implementierten Volterra-Systemen zu geringeren relativen, mittleren quadratischen Fehlern führt als bei Verwendung der aus der allgemeinen Definition hervorgehenden Systeme. Neben der Verringerung der Rechenkomplexität konnte somit auch eine erhöhte Approximationsgüte festgestellt werden. Aufgrund dieses Befundes wurden derartige Volterra-Systeme für die besondere Fragestellung zur Epilepsieforschung eingesetzt, zu denen diese Arbeit beitragen sollte. Die Prädiktion von EEG-Signalen bei Epilepsie stand dabei im Vordergrund der Betrachtungen. Als erstes wurde der Prädiktionsgewinn sowohl in Abhängigkeit von der Systemordnung als auch in Abhängigkeit von der System- und Filterlänge ermittelt. Im Hinblick auf eine Realisierung in der Praxis wurde die Filterlänge nur zwischen L = 2 bis L = 10 variiert. Diese Untersuchungen haben gezeigt, daß Messungen dabei mit größerer Filterlänge als L = 4 zu keinen weiteren nennenswerten Verbesserungen der Resultate führten. Nach erfolgter Prädiktion wurde der zeitliche Verlauf des Prädiktionsgewinns auf Veränderungen vor oder zu Beginn eines epileptischen Anfalls untersucht. Die Kurvenverläufe der Prädiktionsgewinne der homogenen Systeme zweiter und dritter Ordnung zeigen keine signifikanten Veränderungen vor einem Anfall. Demgegenüber lassen die Kurvenverläufe der Prädiktionsgewinne der homogenen Systeme erster Ordnung und der inhomogenen Systeme dritter Ordnung zu Beginn eines Anfalls einen deutlichen Anstieg erkennen. Weiterhin deuten diese Ergebnisse daraufhin, daß eine genauere Lokalisierung des fokalen Bereichs basierend auf dem Prädiktionsgewinn möglich erscheint. Zu weiteren Untersuchungen wurden die Kerne der Systeme herangezogen und der zeitliche Verlauf des sogenannten nichtlinearen Anteils dm(i) näher betrachtet. Diese Ergebnisse lassen keine signifikanten Änderungen erkennen. Dementgegen stehen die Resultate für Langzeitregistrierungen von EEG-Signalen. Bei einer Analyse der zu einer längerenMeßreihe gehörigen Daten eines 19-jährigen männlichen Patienten wurde festgestellt, daß der Prädiktionsgewinnmeistens kurz vor den epileptischen Anfällen unter denMittelwert des anfallsfreien Zustands abfällt. Änderungen der Kurvenverläufe des Prädiktionsgewinns kurz vor epileptischen Anfällen weisen erkennbar spezifische Merkmale auf, die möglicherweise als Vorboten eines epileptischen Anfalls angesehen werden könnten
In der vorliegenden Studie wurde die nasale Applikation von Sufentanil mit Fentanyl verglichen. Hierbei sollte geklärt werden, welches Medikament besser geeignet und analgetisch wirksamer sei, ob Nebenwirkungen auftreten würden und ob sich die neue Nasensprayflasche als praktikabel erweisen würde. Nach Abschluß und Auswertung der Studie lässt sich festhalten, daß die analgetische Potenz von Sufentanil der von Fentanyl überlegen ist. Die Neigung zur Atemdepression ist jedoch höher als in der Gruppe mit Fentanyl. Sufentanil hingegen führt zu einer starken Sedierung des Patienten und ist nur geeignet, wenn eine intensivere Überwachung gewährleistet ist. Gerade im Hinblick auf die Sicherheit scheint daher Fentanyl in einer höheren Dosierung pro Sprühstoß das sicherere Medikament für die patientenkontrollierte Analgesieanwendung zu sein. Im klinischen Alltag wird daher bereits jetzt in Australien ausschließlich Fentanyl in einer Nasensprayflasche verwendet. Nebenwirkungen, allen voran die postoperative Übelkeit, ließen sich mit handelsüblichen Antiemetika gut kontrollieren und waren nicht größer als bei der üblichen intravenösen Applikation von Analgetika des Opioidtyps. Die Nasensprayflasche als Applikator in Glasform und handlicher Größe rief große Zufriedenheit bei den Anwenderinnen und dem Pflegepersonal hervor. Es war keine Geräteeinweisung nötig, außer der, die im Rahmen der Studie durchgeführt wurde, und es gab keine Probleme in der Handhabung. Allerdings sehen wir es als unverzichtbar an, dass die Patientinnen der Nasensprayflasche sowie dem Verfahren der selbstbestimmten Schmerztherapie gegenüber, ein gewisses Verständnis aufbringen sollten. Ein ausführliches Aufklärungsgespräch, welches der Patientin den Ablauf des Verfahrens und die Wirkweise der Methode verdeutlicht, ihr die Möglichkeit gibt, Vertrauen aufzubauen und bestehende Fragen zu klären, ist unerlässlich. Dieses Gespräch sollte auch dem Anästhesisten dazu dienen, die Patientin in Bezug auf ihre Eignung für diese Form der Schmerztherapie zu beurteilen. Der größte Gewinn und Fortschritt dieser Methode sind die Selbstbestimmung und Unabhängigkeit der Patientinnen. Jede einzelne ist in der Lage, sich jederzeit eine angemessene, für ihre individuelle Situation und ihr subjektives Schmerzempfinden passende Menge an Analgetika zuzuführen. Die Unabhängigkeit vom Pflege- oder ärztlichem Personal ist gewährleistet, womit Wartezeiten und Schmerzspitzen vermieden werden können. Die Einschätzung der Krankenschwestern und Pfleger, dass ein Patient bereits ausreichend Schmerzmittel erhalten hätte, wird umgangen und in die Hand der schmerzempfindenden Person selbst gelegt - dem Patienten.
This dissertation contains five independent chapters dealing with wage dispersion and unemployment. The first chapter deals with the explanation of international changes in wage inequality and unemployment in the 80s and 90s. Both theoretically and empirically, social benefits and its link to average income are blamed for the different experiences across countries. The second chapter discusses the search framework, to explain residual wage inequality and finds that institutional wage compression has ambiguous effects on employment. In the third chapter, we apply the theory to German data. We show that job-to-job transitions are important in explaining both frictions and career advances. In the fourth chapter, we empirically assess the relationship between wage dispersion and unemployment for homogeneous workers. We find that neither a frictional nor a neo-classical view in explaining this relationship are convincing. Unemployment within cells is not negatively correlated with wage dispersion. Finally, the last chapter builds a theoretical model which treats heterogeneous individuals in a production function framework and a frictional labor market. The model generates both wage dispersion within and between skill groups and both frictional and structural unemployment. In sum, the dissertation stresses the importance of modelling frictions to understand different types of wage inequality and unemployment.
Worum geht es in dieser Arbeit? Dies ist eine Arbeit über Websites. Darüber, wie sie gelesen und geschrieben werden und wie man das lernen kann. Da es in dieser Arbeit um Lesen, Schreiben und Lernen geht, fließen in sie sowohl Aspekte der Sprachwissenschaft als auch der Sprachdidaktik ein. Was will diese Arbeit? Diese Arbeit hat zwei Ziele, ein sprachwissenschaftliches und ein sprachdidaktisches. In sprachwissenschaftlicher Hinsicht sollen, auf der Grundlage einer gründlichen Analyse seiner Eigenschaften, die Besonderheiten des Lesens und Schreibens im World Wide Web herausgearbeitet werden. Aufbauend auf dieser Analyse sollen im sprachdidaktischen Teil der Arbeit die Kompetenzen ermittelt und in Beziehung zueinander gesetzt werden, die zur Erstellung von Websites notwendig sind. Das so entstehende Kompetenzmodell bildet die Basis für eine zielgerichtete, effektive und evaluierbare Umsetzung der Gestaltung von Websites in der Schule und die Grundlage für weiterführende empirische Arbeiten. Wie ist die Arbeit aufgebaut? Im ersten Kapitel der Arbeit wird die Entwicklung der technischen und strukturellen Formate geschildert, welche die Grundlage des Websiteformats bilden. Darauf aufbauend werden seine wichtigsten Eigenschaften beschrieben. Im zweiten Kapitel wird das Websiteformat von anderen kommunikativen Formaten abgegrenzt und mit Hilfe der besonderen Charakteristika, die es besitzt, sein überwältigender Erfolg erklärt. Im dritten Kapitel wird unter Rückgriff auf Ergebnisse der Leseforschung und empirische Untersuchungen zum Lesen im World Wide Web erarbeitet, welchen Einfluss das Websiteformat auf das Lesen von Texten hat und welche Unterschiede es zum Lesen von Texten in anderen kommunikativen Formaten gibt. Auf dieser Grundlage wird ein Bewertungs- und Analyseraster für die Lesbarkeit von Texten im Websiteformat entwickelt. Im vierten Kapitel wird auf der Grundlage verschiedener Modelle des Schreibprozesses dargestellt, was das Schreiben für das Websiteformat vom Schreiben für andere Formate unterscheidet, was dabei besonders beachtet werden muss und welche Entwicklungen für die Zukunft zu erwarten sind. Dabei werden, unter Berücksichtigung des in Kapitel drei erarbeiteten Bewertungs- und Analyserasters, Hinweise für eine sinnvolle Vorgehensweise bei der Gestaltung von Websites gegeben. Im fünften Kapitel wird vor dem Hintergrund der aktuellen bildungspolitischen Diskussion ein Kompetenzmodell für die Gestaltung von Websites entwickelt, das als Basis für die Festlegung von Bildungsstandards und die Beschreibung der Rahmenbedingungen dient, unter denen diese in der Schule verwirklicht werden können. In einer abschließenden Diskussion werden die wichtigsten Ergebnisse nochmals herausgearbeitet und es wird auf Perspektiven für zukünftige sprachwissenschaftliche und sprachdidaktische Forschungsvorhaben hingewiesen.
Es galt, im Rahmen eines Vergleiches von prae- und bis zu zehn Jahren postoperativ ermittelten Befunddaten den langzeitigen Effekt einer systematischen Parodontitisbehandlung auf den oralen Gesundheitszustand zu ermitteln. Dazu wurden 76 an der Poliklinik für Parodontologie in Frankfurt behandelten und mehrfach nachuntersuchten Patienten (davon 46 Frauen und 30 Männer) im Alter von 36 bis 79 Jahren die jeweiligen Befunddaten (Plaquebelastung, Zahnfleischbluten, Sondiertiefe, Zahnlockerungen, Zahnverlust, Rezessionen und sondierbare Furkationen) im Sinne der Fragestellung ausgewertet. Es ergab sich in der Tat ein jeweils positiver Effekt der Behandlung, am ausgeprägtesten sechs Wochen bis sechs Monate postoperativ festgestellt, danach sich langsam verschlechternd, aber nicht wieder zum Ausgangsbefund zurückfallend. Schlüsselte man die Patienten noch danach auf, ob sie sich nach Therapieende zu regelmäßigen Nachuntersuchungsterminen vorgestellt hatten oder nicht, dann ergab sich ein zwar nur geringgradiger aber dennoch eindeutiger Effekt zugunsten der „Compliance“-übenden Patienten. Allerdings konnte in keinem einzigen Fall eine komplette Wiederherstellung der vollkommenen parodontalen Gesundheit konstatiert werden. Alle Patienten wiesen nach wie vor, wenn auch geringgradige, pathologische Veränderungen der parodontalen Parameter auf, die eine gewisse Nachbehandlung angeraten erscheinen ließen, um späteren Zahnverlust vorzubeugen. Damit wird einmal mehr deutlich, dass die schon eingangs aus der Literatur zitierte Behauptung, bei der Parodontitis handele es sich um eine chronische Erkrankung mit fortlaufender Behandlungsnotwendigkeit, sich auf klinische Erkenntnisse stützen kann.
Anti-T-Lymphozyten-Globuline (ATG) sind Immunglobuline zur Anwendung am Menschen. Sie werden aus den Seren von Kaninchen oder Pferden gewonnen, die zuvor mit humanen Thymozyten oder einer etablierten humanen T-Zell-Linie immunisiert wurden. ATG besitzen ein sehr starkes immunsuppressives Potenzial. In der klinischen Anwendung werden sie überwiegend bei Organtransplantationen, Knochenmarktransplantationen und zur Behandlung einzelner Autoimmunerkrankungen, wie z. B. der aplastischen Anämie, eingesetzt. Wissenschaftliches Ziel der Arbeit war, einen umfangreichen Beitrag zur immunologischen Charakterisierung und Spezifizierung unterschiedlicher ATG-Präparate zu erbringen. Dies ist eine wesentliche Voraussetzung für die Entwicklung und Validierung experimenteller Methoden, sodass die bisher verwendeten Praktiken der Wirksamkeitsprüfung von ATG entsprechend dem Stand der Wissenschaft abgelöst und der Tierversuch (Affenhaut-Transplantationstest; Balner H et al., 1968) ersetzt werden können. Darüber hinaus wurde in diesem Zusammenhang der Entwurf einer Arzneibuch-Monografie für ATG vorgelegt. Der immunsuppressive Wirkmechanismus von ATG ist selbst nach 40 Jahren klinischer Erfahrung nicht eindeutig geklärt. Ihre Wirksamkeit vermitteln sie über ihre spezifische Bindung an Lymphozyten, woraus sich modellhaft vier Effekte unterscheiden lassen: Die Reihe der Fc-abhängigen zytotoxischen Mechanismen, eine von ATG ausgelöste Aktivierung, eine über Todesrezeptoren (z.B. Fas/Apo-1) von ATG direkt induzierte Apoptose sowie die Maskierung von Rezeptoren. Die zytotoxische Wirkung von ATG und die Induktion des programmierten Zelltodes (Apoptose) wurde am Durchflusszytometer (FACS) nach Färbung der toten Zellen bzw. durch den Nachweis von DNA-Fragmentierung analysiert. Der Einfluss von ATG auf die Lymphozyten-Aktivierung in vitro sowie auf die gemischte Lymphozyten-Reaktion (mixed lymphocyte reaction, MLR) wurde durch Messung der Lymphozyten-Proliferation anhand des Einbaus von radioaktiv markiertem Thymidin bestimmt. Biochemisch wurden die in ATG enthaltenen anti-Lymphozyten-Antikörper durch den sog. Kinase-Assay charakterisiert. In einer nicht radioaktiven Methode wurden Zelloberflächenmoleküle zunächst biotinyliert. Nach Lyse der Zellen wurden die Proteine mit ATG präzipitiert, gelelektrophoretisch aufgetrennt sowie mittels Streptavidin und Chemilumineszenz im Westernblot nachgewiesen. Für das Verständnis der klinischen Wirksamkeit von ATG ist die Aufklärung der molekularen Mechanismen der komplement-unabhängigen, zytotoxischen Wirkung von erheblicher Bedeutung, da die enorme zytolytische, aber auch die breite immunsuppressive Wirkung von ATG nicht allein durch die Fc-abhängige Zytotoxizität erklärt werden kann. ATG können bei bestimmten Zielzellen Fas-abhängige Apoptose auslösen; darüber hinaus sind ATG aber auch in der Lage, einen komplement-unabhängigen Zelltod in Fas-resistenten Zell-Linien und T-Zell-Klonen, die resistent gegenüber aktivierungsinduziertem Zelltod (AICD) sind, auszulösen. In Kompetitionsversuchen konnte gezeigt werden, dass ATG entsprechende Antikörper-Spezifitäten gegen das Molekül CD95 (Fas/Apo-1) enthalten. Ferner konnten wir nachweisen, dass die durch ATG initiierte Fas-abhängige Apoptose und/oder der AICD durch Fas-neutralisierende Antikörper inhibiert werden können, was auch von anderen Arbeitsgruppen gezeigt wurde (Genestier L et al., 1998). Die DNA-Fragmentierung, als Nachweis von Apoptose, lässt sich nach der ATG-Inkubation von Fas-sensitiven Zielzellen durch Inhibitoren der Caspase-1 (Z-VAD-FMK) komplett sowie durch Inhibitoren der Caspase-3 (Ac-DMQD-CHO) und -6 (Ac-VEID-CHO) teilweise inhibieren. Die zytotoxische Wirkung von ATG lässt sich jedoch nicht in gleichem Maße durch Inhibitoren der Caspase-1 reduzieren, wie bei einem Apoptose induzierenden mAk gegen Fas. Es wird deutlich, dass ATG eine breit gefächerte zytotoxische Wirkung auf verschiedene Zellpopulationen ausüben, die alle mehr oder weniger eine Rolle in der klinischen Wirksamkeit von ATG spielen können. ATG sind in der Lage, periphere blutmononukleäre Zellen (PBMC) zu aktivieren, wobei der Proliferationsindex in etwa dem eines Standardmitogens, wie z. B. Phytohämagglutinin (PHA), entspricht. Isolierte T-Lymphozyten werden ebenfalls aktiviert, zeigen jedoch eine geringere Proliferationsrate. In PHA-Blasten lassen sich schwache Veränderungen im Muster der Protein-Tyrosin-Phosphorylierung erkennen, wobei eine gewisse Ähnlichkeit im Bandenmuster sowie in der Intensität zwischen der Stimulation mit ATG und dem anti-CD2 mAk zu erkennen ist. Im Unterschied zu publizierten Studien konnte in dieser Arbeit kein spezifisch hemmender Effekt der ATG auf die MLR nachgewiesen werden. Aus den Untersuchungen zur Charakterisierung der ATG hat sich der komplement-abhängige Zytotoxizitätstest, gemessen am Durchflusszytometer, als die Methode herausgestellt, die, bezogen auf den Wirkmechanismus der ATG und im Hinblick auf eine Routineanwendung in der Chargenprüfung, am besten geeignet ist. Eine Evaluierung der Methode wurde im Rahmen eines Ringversuches, an dem sich sieben verschiedene Labore beteiligten, durchgeführt. Die mittlerweile gültige Arzneibuch-Monografie für ATG (Ph. Eur.: 1928) sieht diese in vitro Methode zur Wirksamkeitsprüfung von ATG vor, womit die Voraussetzungen zur Abschaffung des Affenhaut-Transplantationstests geschaffen wurden. Neben einer zellulären Charakterisierung der ATG konnte gezeigt werden, dass sich insbesondere biochemische Methoden, wie z. B. der Kinase-assay oder die Biotinylierung von Zelloberflächenmolekülen, sehr gut zur Identitätsprüfung von ATG eignen. Mit beiden Methoden ließen sich produktspezifische Bande nachweisen. Im Rahmen der Entwicklung von ATG sind diese Methoden geeignet, die Konsistenz der Chargenproduktion zu überprüfen, sodass auch hier Alternativen zum Tierversuch vorhanden sind.
Die Funktion biologischer Peptide und Proteine hängt wesentlich von deren intakten molekularen Struktur ab. Krankheiten, wie z.B. Alzheimer oder Diabetes, entstehen durch fehlgefaltete, aggregierte Peptidstrukturen. Die Ausbildung einer nativ gefalteten Konformation wird durch die Formierung von Sekundärstrukturelementen - in charakteristischer Weise angeordnete lokale Strukturen - initiiert und bildet einen geschwindigkeitslimitierenden Schritt in der Proteinfaltung. Die Erforschung und Analyse dieser ersten Faltungsprozesse ist deshalb von grundlegender Relevanz in der biophysikalischen Forschung, auch in Hinblick auf pharmazeutisch-medizinische Anwendungen. Bei der Untersuchung des Faltungsmechanismus kommen vor allem kleine Peptide mit eindeutig ausgebildeten Sekundärstrukturmotiven zum Einsatz. Ihre geringe Größe und strukturelle Eindeutigkeit machen diese kleinen Peptide zu idealen Modellsystemen, um diejenigen Faktoren zu untersuchen, die die Proteinfaltung steuern und beeinflussen. Die zur Untersuchung der Faltungsprozesse verwendeten Techniken müssen dabei sowohl eine Spezifität für die unterschiedlichen Strukturelemente, als auch eine der Faltungsdynamik angemessen Zeitauflösung besitzen. Im Rahmen dieser Arbeit wurden CD- und FTIR-Messungen zur Untersuchung der Strukturstabilität von Polypeptiden unter Gleichgewichtsbedingungen durchgeführt. Durch Variation von pH-Wert und Temperatur wurden damit Stabilitätseigenschaften ausgewählter Peptidsysteme analysiert. Um zeitaufgelöste Faltungsdynamiken von Peptiden detektieren zu können, wurde ein Spektrometer mit Laser-induziertem Temperatursprung (DeltaT ca. 10 °C in 10 ns) und IR-Einzelwellendetektion so modifiziert und optimiert, dass Peptiddynamiken im nanosec bis microsec Zeitbereich gemessen werden konnten. Neben der Modifikation der Temperatursprung-Apparatur, bei der optische Komponenten ersetzt und Störsignale reduziert wurden, konnte auch die Auswertung der kinetischen Daten durch die Entwicklung eines geeigneten Algorithmus verbessert werden. Als notwendige Vorarbeit der Faltungsstudien an Peptiden in wässriger Lösung wurden statische FTIR-Absorptionsmessungen am Lösungsmittel D2O durchgeführt. Dadurch wurden die durch Temperaturvariation erzeugten Absorptionsänderungen des Lösungsmittels ermittelt. Diese wurden zudem zur Kalibrierung des Laser-induzierten Temperatursprunges verwendet. Um Lösungsmittelabsorptionen von strukturellen Änderungen des Peptids zu trennen, wurde ein Auswerteverfahren entwickelt, das die temperaturabhängigen Absorptionsänderungen des Lösungsmittels berücksichtigt. Temperatur- und pH-abhängige Konformationsdynamik wurde am alpha-helikalen Peptid Polyglutaminsäure untersucht. Zunächst wurden CD- und FTIR-Messungen zur Thermostabilität und der Reversibilität der Ent- und Rückfaltung unter Gleichgewichtsbedingungen und bei unterschiedlichen pH-Werten durchgeführt. Der thermisch induzierte Strukturübergang von alpha-Helix nach ungeordneter Knäuel-Struktur wurde mit Hilfe der Laser-induzierten Temperatursprung-Technik zeitaufgelöst untersucht und Relaxationsraten bei verschiedenen pH-Werten bestimmt. Weitere Messungen zur Konformationsstabilität und –dynamik wurden an beta- Hairpin-Peptiden durchgeführt, die kleine Modellsysteme für beta-Faltblattstrukturen darstellen. Die in dieser Arbeit untersuchten Trpzip2C Peptide, die aufgrund hydrophober Wechselwirkungen der Tryptophane eine stabile beta-Hairpin-Struktur in wässriger Lösung ausbilden, waren an verschiedenen Positionen innerhalb der Aminosäure-sequenz selektiv isotopenmarkiert. Durch diese Markierungen im Peptidrückgrat werden spezifisch spektrale Änderungen im Infrarotspektrum erzeugt, die Untersuchungen zur Amidbandenkopplung und lokalisierten Strukturdynamik ermöglichen. Diese Ergebnisse stellen die erste Anwendung der Kombination von selektiv isotopenmarkierten alpha-Hairpin-Peptiden und der Temperatursprung-Technik dar, um Konformationsdynamiken ortsaufgelöst zu untersuchen. Für alle untersuchten Trpzip2C-Peptidvarianten konnte gezeigt werden, dass der Faltungsprozess in einem Temperaturbereich unterhalb von ~ 300 K nicht durch ein Zwei-Zustandsmodell beschrieben werden kann, sondern Intermediate gebildet werden. In diesem Temperaturbereich konnten wellenlängenabhängig Unterschiede in Relaxationsraten gemessen werden, die die Hypothese des „hydrophoben Kollaps“ für den Faltungsmechanismus dieser beta-Hairpin-Peptide unterstützen.
Plattenepithelkarzinome des oberen Aerodigestivtraktes (SCCHN) sind Karzinome, die in den westlichen Industrienationen mit dem sechsten Rang in den Tumorstatistiken recht häufig sind. Ihre Inzidenz ist positiv mit einem erhöhten Tabak- und Alkoholkonsum und dem männlichen Geschlecht korreliert. Die Standardtherapie besteht in der Regel in einer operativen Sanierung und einer adjuvanten Radio- beziehungsweise Radio-Chemotherapie. Eine Induktionschemotherapie verspricht fortgeschrittene Primärtumoren und Tumoren vor einer operativen Intervention zu verkleinern. Jedoch besteht hierbei immer noch das Problem der hohen Rezidivfreundlichkeit dieser Tumoren, die wahrscheinlich mit der hohen Anzahl an G0-Phase-Zellen korreliert ist. Die vorliegende Arbeit hat die Frage untersucht, ob es möglich ist mit einer vorgeschalteten Stimulation durch Wachstumsfaktoren die Anzahl der G0-Phase-Zellen signifikant zu reduzieren und dadurch die gesamte Population der Tumorzellen sensibler für eine chemotherapeutische Intervention zu machen. Hierbei wurden besonders die Wachstumsfaktoren EGF und Serotonin als Stimulus verwendet. Die untersuchten Chemotherapeutika waren Mab425 und ZD1839, die die Signaltransduktion über einen EGFR-vermittelten Weg blockieren, sowie Docetaxel und Cisplatin, die als zytotoxische Substanzen wirksam sind. Die Untersuchungen wurden in vitro an drei Zelllinien durchgeführt. Detroit-562 und A431 bezogen wir von ATCC. Die Zelllinie UMSCC-10B wurde uns freundlicherweise von Thomas Carey von der University of Michigan zur Verfügung gestellt. Im Rahmen von Sondierungsversuchen stimulierten die Zellen mit IL-6, Serotonin, EGF und GCSF und fanden mit Hilfe der FACS-Analyse heraus, dass eine Kombination von EGF und Serotonin zur am stärksten ausgeprägten Stimulation der von uns untersuchten Zellen führte. In einem dreiphasigen Versuchsablauf wurden vier verschiedene Probengruppen untersucht. Zum einen eine Kontrollgruppe, die weder stimuliert noch chemotherapiert wurde. Eine Gruppe, die vor einer chemotherapeutischen Intervention mit Serotonin und EGF stimuliert wurde. Eine weitere Gruppe, die ausschließlich mit Serotonin und EGF stimuliert wurde und eine Gruppe, die nur eine Chemotherapie erhielt. Nach der Kultivierung der entsprechenden Proben, wurden die Zellen geerntet und zur Weiterverarbeitung vorbereitet. Es wurde mit Hilfe der Western-Blot-Analyse die Aktivität der Proteine untersucht, die an der über EGFR vermittelten Signaltransduktion beteiligt sind. Dazu wurden Antikörper gegen Proteine der Signaltransduktion eingesetzt, die dann mit Hilfe von zweiten Antikörpern erkannt wurden. Zum anderen wurden immunhistochemische Zellausstriche angefertigt mit einer Antikörperfärbung gegen das Kernprotein Ki-67, die uns zwischen proliferierenden und nichtproliferierenden Zellen unterscheiden ließ. Es erfolgte eine Auswertung der Gesamtzellanzahl bezogen auf die Reduktion der G0-Phase-Zellen. Die statistische Auswertung erfolgte mittels des Mann-Withney-U-Tests und des Wilcoxon- Tests. Hierbei lag das Signifikanzniveau bei 5%. Als Ergebnis kann man festhalten, dass eine signifikante Reduktion der Anzahl an G0-Phase-Zellen bei einer Vorstimulation und anschließender Chemotherapie durch Docetaxel oder Cisplatin zu beobachten war. Eine chemotherapeutische Intervention durch Mab425 und ZD1839 führte zwar zu einer Reduktion der Zellanzahl, aber nicht zu vergleichbar signifikanten Ergebnissen wie bei einer Intervention mit Docetaxel oder Cisplatin. Hieraus lässt sich der Schluss ableiten, dass eine chemotherapeutische Intervention auf Basis einer Blockade der durch EGFR vermittelten Signaltransduktion nicht ausreichend ist, es also einer zytotoxischen Komponente bedarf, um die Gesamtzellzahl signifikant zu reduzieren. Trotzdem nicht bei allen untersuchten Chemotherapeutika eine signifikante Reduktion der G0-Phase-Zellen beobachtet werden konnte, zeigten unsere Untersuchungen zum ersten Mal, dass durch eine Stimulation mit Wachstumsfaktoren vor einer chemotherapeutischen Intervention, die Sensibilität der Tumorzellen bei SCCHN für eine Chemotherapie durch eine Reduktion der G0-Phase-Zellen erhöht wird.
Eine in der Forschung häufig gestellte Frage ist, welche schädlichen Auswirkungen Ärger und vor allem Ärgerausdruck haben kann. Bei Ärgerausdruck wird dabei typischerweise in nach innen gerichteten (anger-in) und nach außen gerichteten Ärger (anger-out) unterschieden. Hinsichtlich der gesundheitlichen Auswirkungen gibt es Hinweise dafür, dass beide typischen Ärgerausdrucksformen - sowohl nach innen als auch nach außen gerichteter Ärger - mit Risiken für das kardiovaskuläre System einhergehen. Allerdings ist die Vorhersagekraft einzelner Variablen nur sehr gering, so dass die Kombination von Variablen vielversprechender wirkt. Ein aktuell diskutiertes Risikocluster für koronare Herzkrankheiten ist das Typ D-Konstrukt. In Studie 1 wurden die Zusammenhänge von Typ D und Ärger und Ärgerausdruck in einer klinischen sowie einer nichtklinischen Stichprobe mit Hilfe von Fragebögen überprüft. In beiden Teilstichproben wies Typ D Beziehungen mit Ärger und Ärgerunterdrückung sowie offenem Ärgerausdruck auf. Ärger und Ärgerausdruck scheinen also auch im Typ D-Konzept eine wichtige Rolle zu spielen. Außer Belegen für gesundheitliche Auswirkungen von Ärgerausdruck wurden in jüngerer Zeit auch Hinweise auf Einflüsse auf Leistungsaspekte gefunden. Forschung aus dem Bereich der Emotionsregulation wies darauf hin, dass respondente Emotionsregulation, d.h. die Regulierung des emotionalen Ausdrucks ohne Änderung der erlebten Emotion, eine negative Wirkung auf die Bewältigung von kognitiven Aufgaben haben kann. In Studie 2 und Studie 3 wurde untersucht, ob sich auch für die respondente Regulierung des Ärgerausdrucks ein Effekt auf Leistungsvariablen feststellen lässt. Es wurde davon ausgegangen, dass sich ein inkongruenter Ärgerausdruck, also ein Ausdruck, der mit dem erlebten Ärger nicht übereinstimmt, leistungsreduzierend auswirkt. Ärger wurde mittels Provokation eines Konföderierten induziert. Der Ärgerausdruck wurde durch die Instruktion manipuliert, während einer der kognitiven Aufgabe zusätzlich eine bestimmte Emotion (ärgerlich oder neutral) darzustellen. Im Sinne der Annahme ließen sich nach inkongruentem Ärgerausdruck Defizite in der freien Erinnerung und im Zahlenverbindungstest finden. Die durchgeführten Studien sprechen dafür, dass Ärgerausdruck sowohl nach außen als auch nach innen gerichtet schädliche für Gesundheit und Leistung sein kann, wenn er übertrieben oder mit dem eigenen Erleben inkongruent ist.
Grundproblematik und Zielstellung: Masern- und Mumpsinfektionen sind als typische Kinderkrankheiten bekannt, die in der Regel komplikationslos verlaufen und eine lebenslange Immunität hinterlassen. Es gibt jedoch, vor allem bei der Erkrankung im Erwachsenenalter oder von kleinen Kindern und immungeschwächten Personen, auch schwerwiegendere Verläufe. Diese bringen häufiger Komplikationen (Masernpneumonie mit einer Häufigkeit von 1:1000, sowie das Enzephalitisrisiko) mit sich, können bleibende Schäden verursachen oder führen selten sogar zum Tod. Aus diesem Grund ist seit 1973 eine Impfung gegen Masern sowie seit 1976 eine Impfung gegen Mumps (in Kombination mit Röteln als MMR seit 1980) öffentlich empfohlen. Diese Ausarbeitung soll nun den Verlauf der Immunitätslage der Bevölkerung in den Jahren 2001 bis 2005 darlegen und das Vorhandensein von etwaigen Immunitätslücken bezüglich dieser Krankheiten untersuchen. Methodik: Zur Bestimmung der Immunität wurden Serumproben ausgewertet, die am Institut für Medizinische Virologie des Universitätsklinikum Frankfurt am Main vom 1. Januar 2001 bis zum 31. Dezember 2005 auf Antikörper gegen Masern (n = 3.405) und Mumps (n = 2.875) untersucht wurden. Bei der Bestimmung der Seroprävalenzen wurde nach Altersgruppe und Geschlecht differenziert. Ergebnisse: Sowohl bei Masern als auch bei Mumps sind bei tendenziell abnehmender Immunität zum Teil erhebliche Immunitätslücken zu finden. Die masernspezifischen Antikörper stiegen zunächst bis zum Jahr 2003 auf 95,7 % Seropositive an, fielen jedoch bis 2005 stetig wieder auf 75,2 % ab. Die immunitätanzeigenden Antikörper gegen Mumps erreichten in keinem der Jahre Werte über 60 %. Im Bezug auf das Geschlecht wiesen in der Regel die Frauen höhere Immunitätsraten auf als die Männer. Im Vergleich der Altersgruppen zeichneten sich bei beiden Krankheiten deutliche Immunitätslücken im Kindesalter sowie bei den Jugendlichen und im jungen Erwachsenenalter ab. Bei den Masern waren nahezu kontinuierlich über den gesamten Untersuchungszeitraum Immunitätslücken bei den Altersgruppen der 1 bis 4 Jährigen und der 15 bis 19 Jährigen erkennbar, die zwischen 20 und 50 % lagen und von 2001 bis 2005 zunahmen. Die Immunität im Erwachsenenalter war grundsätzlich höher als im Kindesalter, zeigte jedoch ebenfalls über die Jahre fallende Tendenzen und nahm 2005 durchschnittliche Werte von knapp 90 % an. Ab dem 60. Lebensjahr sank der Anteil der Seropositiven jedoch wieder auf im Mittel 75 % ab. Bei Mumps lagen die Immunitätsraten im gesamten Kindesalter kaum höher als 70 %, 2005 sogar unter 50 %. Im jungen Erwachsenenalter stieg die Anzahl der Seropositiven dann zögerlich von Werten um die 60 % bei den 20 bis 29 Jährigen auf 80 bis 90 % bei den 40 bis 59 Jährigen an. Ab dem 60. Lebensjahr nahm der Anteil der Seronegativen ähnlich wie bei den Masern zu. Folgerungen: Die vorliegende Arbeit zeigt, dass weiterhin Immunitäts- und Impflücken bei Masern und Mumps bestehen und sich diese sogar bis zum Jahr 2005 in ihrer Größe ausgedehnt haben. Vielmehr als zuvor weisen nun auch höhere Altersgruppen größere Immunitätsdefizite auf. Folge hiervon sind die steigenden Erkrankungszahlen im Erwachsenenalter und die dadurch bedingte Erhöhung der Komplikationsraten im Krankheitsfall. Es gilt also, auch in Anbetracht des von der WHO gesetzten Ziels der Maserneradikation, verstärktes Augenmerk auf den Erhalt und den Ausbau der Populationsimmunität bei Masern und Mumps zu legen. Um weitere Ausbrüche dieser Krankheiten zu verhindern, muss das Impfverhalten in der Bevölkerung dringend verbessert werden. Ziel ist es hierbei, Impfraten von mindestens 95 % für die erste Applikation zu erreichen.
Zur Rolle der Typ-I-Interferone in der Abwehr von viralen Infektionen des zentralen Nervensystems
(2007)
Das zentrale Nervensystem (ZNS) bildet eine einzigartige Umgebung für Immunantworten, da Neuronen eine essentielle und in weiten Teilen nicht-erneuerbare Zellpopulation bilden. Virale Infektionen des ZNS und lokale anti-virale Immunantworten können zu dem Verlust von Neuronen und somit zu katastrophalen Erkrankungen führen. Unter normalen Bedingungen ist das ZNS weitgehend von der Kontrolle durch das Immunsystem ausgeschlossen. In diesem Zusammenhang wurde das ZNS oft auch als „immunprivilegiert“ bezeichnet. Dieses Konzept musste in den letzten Jahren revidiert werden, da es sich gezeigt hat, dass das ZNS nicht völlig vom Immungeschehen isoliert ist. Wichtige Mediatoren antiviraler Immunantworten sind die Typ I Interferone (IFN). Die verschiedenen Typ I IFN binden an einen gemeinsamen Rezeptor, den Typ I Interferon-rezeptor (IFNAR). Die Bedeutung von Typ I IFN Antworten für die Kontrolle viraler Infektionen wurde besonders eindrucksvoll mit IFNAR-defizienten Mäusen (IFNAR-/-) gezeigt. Nach Infektion mit dem neurotropen Vesikulären Stomatitis Virus (VSV) führt das Fehlen des IFNAR zu einer stark erhöhten Empfänglichkeit für tödlich verlaufende Infektionen. In allen Organen und besonders im ZNS von VSV infizierten IFNAR-/- Tieren fanden sich stark erhöhte Virusmengen. Um zu untersuchen, ob die VSV-Infektion des zentralen Nervensystems in IFNAR-/- Mäusen in erster Linie auf ein Versagen der peripheren Immunität oder des IFN Systems innerhalb des ZNS zurückzuführen ist, wurden mittels der Cre loxP Tech-nologie Mäuse hergestellt, die auf allen peripheren Zellen IFNAR exprimieren, während die Neuronen des ZNS IFNAR defizient sind (NesCre+/-IFNARflox/flox). Nach intranasaler VSV Infektion zeigten NesCre+/-IFNARflox/flox Mäuse zunächst keine Krankheitssymptome. Nach 5 bis 6 Tagen traten aber aufsteigende und halbseitige Lähmungen auf, so dass die infizierten Tiere verstärkt im Kreis liefen und schließlich verstarben. Im Vergleich dazu verstarben IFNAR-/- Mäuse bereits nach 2 bis 3 Tagen während normale C57BL/6 Tiere nach Infektion keine Symptome zeigten und überlebten. Der beobachtete Krankheitsverlauf lässt in den IFNAR-/- Mäuse auf ein Multiorganversagen als Todesursache schließen. 3 und 6 Tage nach Infektion konnte in den Organen von C57BL/6 Tieren kein Virus reisoliert werden. In den NesCre+/ IFNARflox/flox Tieren fanden sich zum Todeszeitpunkt nur im Gehirn Viruspar-tikel, während alle anderen Organe virusfrei waren. Die Virustiter im Hirn waren im Vergleich zu den IFNAR-/- Mäusen 10- bis 100-fach erhöht. In den anderen Organen und im Blut sind keine Viruspartikel nachweisbar. Dieser Befund deutete gemeinsam mit den beobachteten Krankheitsverläufen auf eine neuropathologische Symptomatik hin, bei der es wahrscheinlich zu einer VSV-Infektion des Hirnstammes kam. Die Analyse einzelner Regionen des ZNS zeigte in IFNAR-/- Tieren, dass 2 Tage nach Infektion in allen Regionen des ZNS signifikante Virusmengen zu finden waren. In den NesCre+/-IFNARflox/flox und den C57BL/6 Tieren fanden sich zu diesem Zeitpunkt nur im Riechhirn (Bulbus olfactorius) signifikante Virustiter. In den C57BL/6 Tieren blieb das Virus auf diese Region beschränkt und wurde dort innerhalb von 6 Tagen eliminiert. In den NesCre+/-IFNARflox/flox Tieren kam es in den folgenden Tagen jedoch zu einer fortschreitenden Infektion des ZNS, und auch das Großhirn, das Kleinhirn, der Hirn-stamm und das Rückenmark zeigten hohe Virustiter. In der Induktion peripherer Immunantworten unterschieden sich NesCre+/-IFNARflox/flox und C57BL/6 Mäuse nicht. In den WT Tieren kam es im Gegensatz zu den NesCre+/ IFNARflox/flox und IFNAR-/- Tieren innerhalb von 48 Stunden nach Infektion im Riechhirn zu einer Typ I IFN abhängigen Phosphorylierung von STAT-1, einer Komponente des IFNAR-Signaltransduktionsweges. Alles deutet darauf hin, dass die Induktion geringer Mengen Typ I IFN innerhalb des Riechhirns notwendig ist, um Im-munantworten zu aktivieren, die ein Übergreifen der Virusinfektion auf andere Regio-nen des ZNS verhindern. Eine funktionierende Immunität in der Peripherie und die Blut-Hirn-Schranke scheinen nicht ausreichend zu sein, um eine Infektion des ZNS mit VSV zu verhindern. Stattdessen muss es zur Aktivierung von IFN-abhängigen Mechanismen innerhalb des Riechhirns kommen, die ein Übergreifen der VSV Infektion auf andere Hirnregionen verhindert und zur Elimination von VSV im Riechhirn beiträgt.
Im Gegensatz zur Minimierung von DFAs ist die exakte Minimierung von NFAs oder regulären Ausdrücken nachweislich schwierig, im allgemeinen Fall PSpace-schwer. Wir zeigen, dass selbst schwache Approximationen zur Minimierung von NFAs und regulären Ausdrücken wahrscheinlich nicht effizient möglich sind. Falls als Eingabe ein NFA oder regulärer Ausdruck der Größe n gegeben ist, löst ein Approximationsalgorithmus für das Minimierungsproblem mit Approximationsfaktor o(n) bereits ein PSpace-vollständiges Problem. Wenn wir uns auf NFAs oder reguläre Ausdrücke über einem unären - also einelementigen - Alphabet beschränken, so ist das Problem der exakten Minimierung NP-vollständig. Wir weisen nach, dass effiziente Approximationen für das unäre Minimierungsproblem mit Approximationsfaktor n^(1-delta) für jedes delta>0 nicht möglich sind, sofern P != NP gilt. Liegt die Eingabe als DFA mit n Zuständen vor, kann sie exponentiell größer sein als ein äquivalenter NFA oder regulärer Ausdruck. Dennoch bleibt das Minimierungsproblem PSpace-schwer, wenn die Anzahl der Übergänge oder Zustände in einem äquivalenten NFA oder die Länge eines äquivalenten regulären Ausdrucks zu bestimmen ist. Wir zeigen, dass auch hierfür keine guten Approximationen zu erwarten sind. Unter der Annahme der Existenz von Pseudozufallsfunktionen, die wiederum auf der Annahme basiert, dass Faktorisierung schwierig ist, zeigen wir, dass kein effizienter Algorithmus einen Approximationsfaktor n/(poly(log n)) für die Zahl der Übergänge im NFA oder die Länge des regulären Ausdrucks garantieren kann. Für die Zahl der Zustände im NFA weisen wir nach, dass effiziente Approximationen mit Approximationsfaktor (n^(1/2))/(poly(log n)) ausgeschlossen sind. Wir betrachten dann Lernprobleme für reguläre Sprachen als Konzeptklasse. Mit den entwickelten Methoden, die auf der Annahme der Existenz von Pseudozufallsfunktionen beruhen, zeigen wir auch, dass es für das Problem des minimalen konsistenten DFAs keine effizienten Approximationen mit Approximationsfaktor n/(poly(log n)) gibt. Für den unären Fall hingegen weisen wir nach, dass es einen effizienten Algorithmus gibt, der einen minimalen konsistenten DFA konstruiert und erhalten somit auch einen effizienten PAC-Algorithmus für unäre reguläre Sprachen, die von DFAs mit n Zuständen akzeptiert werden. Für unäre Beispielmengen weisen wir außerdem nach, dass es keine effizienten Algorithmen gibt, die minimale konsistente NFAs konstruieren, falls NP-vollständige Probleme nicht in Zeit (n^(O(log n)) gelöst werden können. Andererseits geben wir einen effizienten Algorithmus an, der zu unären Beispielmengen einen konsistenten NFA mit höchstens O(opt^2) Zuständen konstruiert, wenn ein minimaler konsistenter NFA opt Zustände hat. Abschließend betrachten wir das Lernen von DFAs durch Äquivalenzfragen. Für den nicht-unären Fall ist bekannt, dass exponentiell viele Fragen für DFAs mit n Zuständen benötigt werden. Für unäre zyklische DFAs mit primer Zykluslänge und höchstens n Zuständen zeigen wir, dass Theta((n^2)/(ln n)) Äquivalenzfragen hinreichend und notwendig sind. Erlauben wir größere zyklische DFAs als Hypothesen, kommen wir mit weniger Fragen aus: Um zyklische DFAs mit höchstens n Zuständen durch Äquivalenzfragen mit zyklischen DFAs mit höchstens n^d Zuständen für d <= n als Hypothesen zu lernen, sind O((n^2)/d) Fragen hinreichend und Omega((n^2 ln d)/(d (ln n)^2)) Fragen nötig.