Refine
Year of publication
Document Type
- Article (30524)
- Part of Periodical (11892)
- Book (8260)
- Doctoral Thesis (5706)
- Part of a Book (3710)
- Working Paper (3386)
- Review (2878)
- Contribution to a Periodical (2338)
- Preprint (2056)
- Report (1544)
Language
- German (42393)
- English (29194)
- French (1067)
- Portuguese (723)
- Multiple languages (309)
- Croatian (302)
- Spanish (301)
- Italian (194)
- mis (174)
- Turkish (148)
Is part of the Bibliography
- no (75130) (remove)
Keywords
- Deutsch (1038)
- Literatur (807)
- taxonomy (760)
- Deutschland (543)
- Rezension (491)
- new species (449)
- Frankfurt <Main> / Universität (341)
- Rezeption (325)
- Geschichte (292)
- Linguistik (268)
Institute
- Medizin (7688)
- Präsidium (5156)
- Physik (4426)
- Wirtschaftswissenschaften (2697)
- Extern (2661)
- Gesellschaftswissenschaften (2372)
- Biowissenschaften (2180)
- Biochemie und Chemie (1973)
- Frankfurt Institute for Advanced Studies (FIAS) (1672)
- Center for Financial Studies (CFS) (1630)
Der Einfluss von turbulenten Strömungen auf die Photodissoziation von CO in interstellaren Wolken
(2001)
Seit 1988 ist bekannt, dass die Photodissoziation von COMolekülen durch Linienabsorption von UVPhotonen stattfindet. Wie jede Linienabsorption ist damit auch die Photodissoziation von CO abhängig von Geschwindigkeitsfeldern innerhalb des absorbierenden Mediums. DopplerVerschiebung kann die Absorption in einen Frequenzbereich verschieben, in dem sich die lokale Intensität von der Intensität in der Linienmitte wesentlich unterscheidet. Jede Untersuchung, die sich mit der Bildung und Vernichtung von COMolekülen am Rand interstellarer Wolken beschäftigt, muss diese turbulenten Geschwindigkeitsfelder berücksichtigen. Da die Existenz von turbulenten Strömungen in interstellaren Molekülwolken unbestritten ist, wird in Untersuchungen üblicherweise der Dopplerparameter der Gaußschen Profilfunktion um eine Turbulenzgeschwindigkeit erweitert. Diese mikroturbulente Näherung ist die simpelste Möglichkeit zur Berücksichtigung von Turbulenz. In vorangegangenen Arbeiten (Albrecht, M.A., Kegel, W.H. (1987)), (Kegel, W.H., Piehler, G., Albrecht, M.A. (1993)), (Piehler, G., Kegel, W.H. (1995)) ist gezeigt worden, dass die Berücksichtigung eines turbulenten Geschwindigkeitsfeldes mit endlicher Korrelationslänge (Mesoturbulenz) jedoch wesentlich dazu beitragen kann, realistischere Linienprofile zu erhalten. Während in den letzten Jahren einiger Aufwand betrieben wurde, die Berechnung der chemischen und thermischen Struktur einer Molekülwolke zu verfeinern, ist der Modellierung des zugrundegelegten Strahlungstransports weniger Aufmerksamkeit gewidmet worden. Die Ergebnisse unserer Rechnungen zeigen, dass die Berück sichtigung eines mesoturbulenten Strahlungstransports den Verlauf der COHäufigkeit entlang des Sehstrahls wesentlich beeinflussen kann. Zusammengefasst haben wir folgende Ergebnisse erhalten: - Rechnungen mit einem EinzellinienModell zeigen den großen Einfluss von Korrelationslänge und Turbulenzgeschwindigkeit auf den Verlauf der Photodissoziationsrate und damit auch auf die resultierende COHäufigkeit. - Bei Mesoturbulenz werden die absorptionsrelevanten Linien schneller optisch dick als bei reiner Mikroturbulenz. Dadurch kann sich eine stabile Zone großer CODichte in Tiefen bilden, von denen bisher angenommen wurde, sie würden eine zu große UVIntensität aufweisen. - Rechnungen, die das volle UVSpektrum berücksichtigen, zeigen eine geringere Sensitivität der COHäufigkeit gegenüber Variationen der Turbulenzparameter als solche mit nur einer Linie. Trotzdem haben Korrelationslänge und Turbulenzgeschwindigkeit starken Einfluss auf die Tiefe, ab der eine stabile COHäufigkeit erreicht wird. - Im Vergleich zu Rechnungen mit einer parametrisierten Photodissoziationswahrscheinlichkeit fällt im mesoturbulenten Fall z CO wesentlich schneller ab. Das bedeutet, dass in größeren Tiefen der Wolke die Werte für z CO um einige Größenordnungen voneinander abweichen können. Für Größe und Isotopenverhältnis des Wolkenmodells kann das zu einer signifikanten Überschätzung der wahren Werte führen. - Das zugrundegelegte Modell der chemischen Reaktionen weist eine hohe Stabilität gegenüber Veränderungen der Turbulenzparameter auf. Auch wenn die COHäufigkeit davon relativ stark betroffen ist, wirken sich diese Veränderungen nur sehr langsam auf die chemische Gesamtstruktur der Wolke aus. - Die Anwendung unserer Ergebnisse auf Beobachtungen von NGC 2024 zeigen, dass sich die Werte, die man für Dichte und Größe der Region aus den Modellen ermittelt, stark von dem zugrundegelegten Strahlungstransportmodell abhängen. Folgerungen, die aufgrund einer zu einfachen Modellierung gemacht werden, sind somit mit einiger Vorsicht zu betrachten. Es zeigt sich, dass der numerische Aufwand, stochastische Strahlungstransportmodelle zu rechnen, durchaus gerechtfertigt ist. Möchte man die Bildung von CO Molekülen am Rand einer interstellaren Molekülwolke genauer verstehen, muss eine endliche Korrelationslänge berücksichtigt werden. Es macht wenig Sinn, immer detailliertere chemische Modelle zu entwickeln und die wichtigen Effekte mesoturbulenten Strahlungstransports zu vernachlässigen.
Informally, commitment schemes can be described by lockable steely boxes. In the commitment phase, the sender puts a message into the box, locks the box and hands it over to the receiver. On one hand, the receiver does not learn anything about the message. On the other hand, the sender cannot change the message in the box anymore. In the decommitment phase the sender gives the receiver the key, and the receiver then opens the box and retrieves the message. One application of such schemes are digital auctions where each participant places his secret bid into a box and submits it to the auctioneer. In this thesis we investigate trapdoor commitment schemes. Following the abstract viewpoint of lockable boxes, a trapdoor commitment is a box with a tiny secret door. If someone knows the secret door, then this person is still able to change the committed message in the box, even after the commitment phase. Such trapdoors turn out to be very useful for the design of secure cryptographic protocols involving commitment schemes. In the first part of the thesis, we formally introduce trapdoor commitments and extend the notion to identity-based trapdoors, where trapdoors can only be used in connection with certain identities. We then recall the most popular constructions of ordinary trapdoor protocols and present new solutions for identity-based trapdoors. In the second part of the thesis, we show the usefulness of trapdoors in commitment schemes. Deploying trapdoors we construct efficient non-malleable commitment schemes which basically guarantee indepency of commitments. Furthermore, applying (identity-based) trapdoor commitments we secure well-known identification protocols against a new kind of attack. And finally, by means of trapdoors, we show how to construct composable commitment schemes that can be securely executed as subprotocols within complex protocols.
In dieser Arbeit werden Darstellungen der Artinschen Zopfgruppen als Gruppen von Automorphismen der Homologie iterativ konstruierter äquivarianter Kettenkomplexe betrachtet. Es werden azyklische Komplexe freier Moduln bzw. freie Auflösungen der ganzen Zahlen für nichtpermutierte Artinsche Zopfgruppen konstruiert, die als iterierte semidirekte Produkte freier Gruppen darstellbar sind. Als Tensorprodukte der freien Auflösungen mit Moduln zu den fraglichen iterierten semidirekten Produkten freier Gruppen erhält man äquivariante Komplexe, deren von Eigenschaften der Koeffizientenmoduln abhängige Homologiegruppen bestimmt werden. Diese Homologiegruppen erlauben Automorphismendarstellungen der (permutierten) Artinschen Zopfgruppe, die gewissermaßen die Artinschen Darstellungen als Automorphismengruppen freier Gruppen iterieren und linearisieren. Insbesondere werden Darstellungen gewonnen, die die bekannten Burau- und Gassner-Darstellungen der Zopfgruppen verallgemeinern und die als Monodromiegruppen verallgemeinerter hypergeometrischer Integrale interpretiert werden können.
In den vergangenen Jahren wurden in der AntisenseTechnologie grundlegende Hürden genommen, die eine Arzneimittelentwicklung auf Nukleinsäurebasis ermöglichen. Hierzu zählt vor allem die Gewährleistung einer ausreichenden metabolischen Stabilität und die Synthese im technischen Maßstab. In zahlreichen klinischen Studien wurde der Wirksamkeitsnachweis am Menschen erbracht. Als sequenzspezifische Therapeutika zeichnen sich Antisense Oligonukleotide im Vergleich zu vielen anderen Wirkstoffen dadurch aus, daß sie spezifisch mit einer RNAZielsequenz hybridisieren, ohne dabei wichtige zelluläre Funktionen zu beeinträchtigen. Neben krankheitsauslösenden Genen können Antisense Oligonukleotide auch virale Gene blockieren und nach Aktivierung der Ribonuklease H hydrolysieren. Das erste Präparat auf Oligonukleotidbasis wurde 1998 zugelassen und hemmt erfolgreich die Vermehrung des Cytomegalievirus. Hepatitis C ist eine Virusinfektion, die momentan nur unzureichend therapiert werden kann. Seit Mitte der neunziger Jahre wird nach geeigneten Antisense Oligonukleotiden und Ribozymen gesucht, um die Heilungschancen bei einer chronischen HCVInfektion zu verbessern. Im Rahmen dieser Arbeit wurde durch experimentelles Screening eine potente Zielsequenz (tS13) im Bereich der internen ribosomalen Angriffsstelle (IRES) und des Startcodons für die Proteinbiosynthese des HCV gefunden (Nukleotide 326342 des HCV Genoms). Hierzu wurde die Sequenz eines bereits bekannten 23mer Antisense Oligonukleotids durch systematisches Verkürzen auf 17 Nukleotide reduziert, ohne in vitro an Inhibitionspotential einzubüßen. Erst weitere Verkürzungen führten zu einer deutlichen Abnahme der Antisense Wirkung. Eine Schwierigkeit bei der therapeutischen Anwendung von polyanionischen Antisense Oligonukleotiden ist deren begrenzte zelluläre Aufnahme. Wie in Kapitel 3 dargelegt, wurden bislang zahlreiche Methoden zur Verbesserung der Membrangängigkeit dieser Wirkstoffklasse entwickelt. Zur Evaluierung eines leberselektiven Transports (engl.: drug targeting) und zur Steigerung der hepatozellulären Aufnahme (engl.: cell uptake) wurde das antiviral wirkende 17mer Antisense Oligonukleotid tS13 mit Biomolekülen wie den Gallensäuren, die im enterohepatischen Kreislauf das Zielorgan Leber passieren, kovalent verknüpft. Die Kupplung erfolgte dabei über die für die zelluläre Aufnahme nicht essentielle 3aHydroxylgruppe der Cholsäure und Taurocholsäure. Die Gallensäuren wurden entsprechend geschützt, in die Phosphoramidite 22a/b und 27a/b überführt und im letzten Kupplungsschritt der Festphasensynthese an das 5
Hitzestress führt bei allen bisher untersuchten Organismen zu einer transienten Umprogrammierung des Transkriptions- und Translations-apparats. Bei diesem auch als Hitzestressantwort bezeichneten Prozess wird vorrangig eine neue Klasse von Proteinen exprimiert, die als Hitzestressproteine (Hsp) bezeichnet werden. Eine Schlüsselrolle in der Signaltransduktionskette der Hitzestressantwort spielen Hitzestresstrans-kriptionsfaktoren (Hsf). Hsf sind hochkonservierte, modular aufgebaute Proteine mit einer N-terminalen DNA-Bindungsdomäne (DBD), einer zentralen Oligomerisierungsdomäne (HR-A/B Region) und einer C-terminalen Aktivatordomäne (AD). Über ihre DBD sind oligomerisierte Hsf in der Lage an hochkonservierte Motive, sogenannte Hitzestresselemente (HSE), in der Promotorregion von Hsp zu binden und deren Transkription zu initiieren. In hitzegestressten Zellen von Lycopersicon peruvianum (Perutomate) können neben den konstitutiv exprimierten Hitzestresstranskriptionsfaktoren A1 und A3 die beiden stressinduzierten Vertreter HsfA2 und B1 nachgewiesen werden. In präinduzierten Zellen befindet sich HsfA2 trotz einer funktionellen Kernimportsequenz (NLS) überwiegend im Zytoplasma. Dieses Verhalten von HsfA2 wurde bisher durch eine konformationsbedingte Maskierung der NLS erklärt. Der Kotransport von HsfA2 in den Zellkern erfolgt in diesem Modell durch eine heterologe Interaktion mit HsfA1. Mit dem Ziel, die für den Transport und die Interaktion mit HsfA1 verantwortlichen Strukturelemente von HsfA2 näher zu untersuchen, wurden verschiedene Tomaten-Hsf sowohl in Tabakprotoplasten, als auch in CHO-K1 Zellen heterolog exprimiert. Hierbei konnte gezeigt werden, dass sich HsfA2 auch ohne die Interaktion mit HsfA1 im Zellkern anreicherte, wenn der Kernexportrezeptor Crm-1 mit dem Antibiotikum Leptomycin B (LMB) inhibiert wurde. HsfA2 wird demnach permanent zwischen Kern und Zytoplasma hin- und hertransportiert, wobei der Kernexportprozess dominiert. Die für den Export verantwortliche, leucinreiche Kernexportsequenz (NES) konnte am äussersten C-Terminus von HsfA2 identifiziert werden. HsfA2-Mutanten, bei denen dieser Sequenzabschnitt deletiert bzw. die Leucine durch Alanine substituiert wurden, waren überwiegend im Zellkern lokalisiert. Die Fusion der NES von HsfA2 an den ausschliesslich im Zellkern lokalisierten HsfB1 führte zum Export des Fusionsproteins ins Zytoplasma, was durch die Zugabe von LMB wieder umgekehrt wurde. Ferner konnte gezeigt werden, dass für die Interaktion mit HsfA1 und den Kotransport in den Zellkern die HR-A/B Region essentiell ist. Mit Hilfe eines Luciferasereporterassays konnte der Zusammenhang zwischen der Lokalisation von HsfA2 und dessen Transaktivierungspotential in CHO-K1 Zellen demonstriert werden. Hierbei stellte sich heraus, dass die im Zellkern lokalisierte NES-Mutante eine ca. 20-fach höhere Aktivität im Vergleich zum zytoplasmatisch lokalisierten Wildtyp hatte. Ebenso führte die LMB-bedingte Anreicherung von HsfA2 im Zellkern bereits nach 6 h zu einer messbaren Steigerung der Aktivität. Eine synergistische Aktivitätszunahme konnte, wie auch schon in Tabakprotoplasten beobachtet, bei gleichzeitiger Expression mit HsfA1 gemessen werden. In Hitzestressversuchen (41 °C) konnte gezeigt werden, dass HsfA2 in CHO-K1 Zellen selbst unter dem Einfluss von LMB nicht mehr in den Zellkern importiert wurde. Bei Zellen, die sich unter LMB-Einfluss bei 37°C von dem Hitzestress erholten, kam es jedoch bereits nach 15 min zu einer sichtbaren Translokation von HsfA2 in den Zellkern. Dieses Verhalten lässt Rückschlüsse auf eine mögliche, konformationsbedingte Maskierung der NLS unter Hitzestress zu. Insbesondere da die HsfA2-Mutante, bei der die HR-A/B-Region fehlte, sich auch unter Hitzestress im Zellkern anreicherte. Neben der löslichen Form im Zytoplasma kommt HsfA2 in Tomatenzellen unter Hitzestress auch in einer unlöslichen, strukturgebundenen Form vor. Diese als Hitzestressgranula (HSG) bezeichneten Komplexe bestehen überwiegend aus niedermolekularen (lmw)-Hsp. Es konnte gezeigt werden, dass die Koexpression von lmw-Hsp und HsfA2 unabhängig vom Expressionssystem zur Bildung zytoplasmatischer Aggregate führte, in denen beide Proteine nachweisbar waren. Hierbei konnte sowohl eine klassen- als auch eine artspezifische Interaktion von HsfA2 mit Klasse II lmw-Hsp aus Tomate beobachtet werden. Ferner konnte gezeigt werden, dass die HR-A/B Region für die Interaktion von HsA2 mit lmw-Hsp essentiell ist.
1. Die Arbeit soll den Beitrag von Ionenleitfähigkeiten an der Funktionsweise der Vogelhaarzelle weiter aufklären. 2. Dazu werden zwei Ionenkanalmodulatoren sowohl in die Scala media, wie auch in Scala tympani appliziert. Amilorid ist ein Blocker v.a. von Natriumabhängigen Ionleitfähigkeiten; Diazoxid ist ein Öffner ATPabhängiger Kaliumleitfähigkeiten. 3. Amilorid hat bei Applikation in die Scala media keinen Effekt auf das endocochleäre Potential. Diazoxid senkt das endocochleäre Potential nach Applikation in die Scala media signifikant um 2,42mV ± 2,31. Da Diazoxid auf die Aktivität auditorischer Neurone keinerlei Einfluß hat, muß davon ausgegangen werden, daß Diazoxid das EP durch Beeinflussung anderer Ionkanäle unabhängig von der Haarzelle absenkt. Mögliche Kandidaten sind Ionkanäle im Bereich des Tegmentum vasculosum, das für die Generation des EP mit verantwortlich ist. 4. Eine endolymphatische AmiloridApplikation erhöht frequenzabhängig und dosisabhängig die CAPSchwelle, wobei die Schwellenanhebung mit Anstieg der Frequenz steigt (gemessener Bereich 1252000Hz). Bis zu einer Frequenz von 400Hz hat Amilorid kaum einen Effekt auf das CAP, oberhalb 400Hz steigt die Schwelle mit einem Gradienten von 11 dB/Okt an. 5. Diazoxid hat bei Applikation in die Scala media keinen Einfluß auf das CAP. 6. Die endolymphatische Applikation von Amilorid erniedrigt die akustisch evozierte Entladungsrate und erhöht die spontane Entladungsrate afferenter Neurone aus dem Ganglion cochleare. Diese Veränderungen sind abhängig von der charakteristischen Frequenz und der applizierten Menge, wobei der Frequenzbereich der charakteristischen Frequenz der nicht reagierenden Einzelfaserableitungen. zwischen 126632 Hz lag, der der reagierenden zwischen 704 und 1200 Hz. 7. Bei den afferenten Neuronen, bei der die akustisch evozierte Aktivität nach endolymphatischer Applikation von Amilorid ansteigt, kommt es auch zu einer Veränderung der von der evozierten Aktivität abhängigen Parameter Q10dB, Tief und Hochfrequenzflanke und charakteristischer Frequenz. Die endolymphatische AmiloridKonzentration bei diesen Einzelfaserableitungen lag zwischen 91µM und 269 µM. 8. Die charakteristische Frequenz wird durch Amilorid erniedrigt, allerdings kommt dies durch eine stärkere Abnahme der evozierten Rate oberhalb der charakteristischen Frequenz zustande. 9. Die Gruppeneinteilung ist bis auf ein Neuron bei Veränderungen spontaner und akustisch evozierter Entladungsrate gleich. Bei einem kam es zu einem Anstieg der spontanen Entladungsrate, aber nicht zu einer Abnahme der akustisch evozierten Entladungsrate. Dies legt nahe, daß 1. die Veränderungen auf Beeinflussung unterschiedlicher Ionleitfähigkeiten beruht , und 2. die Ionleitfähigkeit, welche für die Veränderung der spontanen Entladungsrate verantwortlich ist, etwas sensibler für Amilorid ist, als jene, welche für die Veränderung der evozierten Entladungsrate verantwortlich ist. 10. Der Anstieg der evozierten Rate steht in guten Einklang mit den Ergebnissen von Jørgensen und Ohmori (1988), die zeigen konnten, daß Amilorid den mechanoelektrischen Transduktionskanal von Vogelhaarzellen mit einem IC 50 von 50µM blockiert. Der Anstieg der spontanen Entladungsrate kann mit einem Block des Transduktionskanals nicht erklärt werden. Es muß also noch eine andere Leitfähigkeit in dem Innenohr der Taube durch Amilorid blockiert werden. 11. Zusammen mit den Ergebnissen anderer Studien legen die Ergebnisse nahe, daß es sich hierbei um eine Ionleitfähigkeit im Bereich der apikalen Membran handeln muß. Mögliche Kandidaten wären Ca 2 Kanäle, welche an Ca 2 abhängigen Prozessen zur Regulierung der Ciliensteifigkeit bzw. Cilienmotilität beteiligt sind. 12. Diazoxid hat bei Applikation in die Scala media keinen Einfluß auf die Aktivität auditorischer Neurone. 13. Bei Applikation in die Scala tympani hat weder Amilorid noch Diazoxid Einfluß auf das CAP.
28 Kinder mit Pierre-Robin-Sequenz, die erstmals im Humangenetischen Institut der Universitätsklink in Frankfurt am Main im Alter von drei Monaten bis acht Jahre untersucht wurden, wurden im Alter von acht bis 16 Jahren nachuntersucht. Die Kinder wurden unterteilt in eine Gruppe mit isolierter und eine Gruppe mit syndromatischer PierreRobinSequenz. Sie wurden hinsichtlich ihrer physischen, psychomotorischen, audiologischen und sprachlichen Entwicklung untersucht. Die Gruppen unterschieden sich bezüglich des körperlichen Wachstums, der Häufigkeit von mentaler und sprachlicher Retardierung. Die Kinder mit syndromatischer PierreRobinSequenz waren durchschnittlich kleiner und leichter bei Geburt und im Verlauf. 19 % der Kinder mit syndromatischer Form waren kleinwüchsig. Eine mentale Retardierung fand sich nur in der Gruppe mit syndromatischer PierreRobinSequenz, in der 31 % betroffen waren. 8,3 % der Kinder mit isolierter Pierre-Robin-Sequenz waren in ihrer sprachlichen Entwicklung retardiert, während dies bei 38 % der Kinder mit syndromatischer Form der Fall war. Schwere Artikulationsstörungen, die zu einer sehr undeutlichen Aussprache führten, fanden sich bei 17 % der Kinder mit isolierter und bei 29 % der Kinder mit syndromatischer PierreRobinSequenz. Zwei Kinder mit syndromatischer PierreRobinSequenz hatten überhaupt keine Expressivsprache entwickelt. Es konnte ein Zusammenhang dieser Unterschiede in der Entwicklung mit der Schwere der respiratorischen und ernährungsbezogenen Probleme in den ersten beiden Lebensjahren gesehen werden. Respiratorische Probleme traten etwas häufiger in der Gruppe mit syndromatischer Pierre-Robin-Sequenz auf. Gemessen an der Häufigkeit und Dauer der Nahrungssondierung waren die Ernährungsprobleme ebenfalls deutlich ausgeprägter in der Gruppe mit syndromatischer Pierre-RobinSequenz. Eine Schallleitungsschwerhörigkeit fand sich insgesamt bei 39 % der 28 Probanden ohne wesentliche Unterschiede zwischen den beiden Gruppen. Eine Schallempfindungsschwerhörigkeit trat nur in der Gruppe der Patienten mit syndromatischer PierreRobinSequenz auf. Diese Ergebnisse waren vereinbar mit den Resultaten früherer Untersuchungen, die darauf hin deuteten, dass Kinder mit isolierter PierreRobinSequenz bei optimaler Therapie im Neugeborenen und Säuglingsalter eine gute Prognose bezüglich ihrer physischen und mentalen Entwicklung haben, während bei Vorliegen eines übergeordneten Syndroms häufiger mit Wachstumsdefiziten und mentaler Retardierung zu rechnen ist. Bezüglich der genetischen Beratung läßt sich feststellen, dass das Wiederholungsrisiko bei isolierter Pierre-Robin-Sequenz klein ist.
Wir haben Interaktion in der Kommunikationskomplexität untersucht und dabei die drei Modi probabilistische, (beschränkt) nichtdeterministische und quantenmechanische Kommunikation betrachtet. Bei allen drei Modi haben wir herausgefunden, dass Interaktion für Effzienz oft unerlässlich ist, im nichtdeterministischen Fall gibt es eine Abhängigkeit zwischen dem Einfluss der Interaktion und der erlaubten Anzahl der nichtdeterministischen Ratebits. Abgesehen von dem erreichten besseren Verständnis des Kommunikationsmodells haben wir verschiedene Anwendungen auf andere Berechnungsmodelle beschrieben, bei denen untere Schranken der Kommunikation zu unteren Schranken für andere Ressourcen in diesen Modellen geführt haben. Ein Beispiel eines kommunikations- und interaktionsbeschränkten Modells sind endliche Automaten, welche wir in allen drei Modi untersucht haben. Ein weiteres Beispiel sind Formeln, für die wir eine Verbindung zwischen Einweg Kommunikation und Formellänge herstellen konnten. Diese Verbindung führte zu unteren Schranken für probabilistische, nichtdeterministische und Quanten Formeln. Dabei sind die unteren Schranken für Quanten Formeln und probabilistische Formeln im wesentlichen gleich. Für monotone Schaltkreise haben wir gezeigt, wie nichtdeterministisches Raten die Tiefe drastisch reduzieren kann, und wie eine geringfügige Einschränkung der nichtdeterministischen Ratebits zu einer Tiefenhierarchie führt. Insgesamt lässt sich feststellen, dass die Schwäche interaktionsbeschränkter Kommunikation mathematisch nachvollziehbar ist. Außerdem scheint ein solches Verhalten in der Welt einfacher Berechnungsmodelle häufig aufzutreten. Oder anders gesagt, viele Berechnungsmodelle sind deshalb einfacher zu verstehen, weil sie durch interaktionsbeschränkte Kommunikation analysierbar sind.
In der vorliegenden Arbeit wurde ein neuer Algorithmus für die automatische Optimierung einer NMR-Zuweisung des back bones in gelabelten Proteinen und seine Implementierung vorgestellt. Der Algorithmus ermöglicht eine Zuweisungsstrategie, die sich näher an der manuellen Vorgehensweise orientiert als vergleichbare Implementierungen von Lukin (LUK 11 ) [Lukin97] oder Leutner (PASTA) [Leutner98], da er die Entscheidung über konkurrierende Protospinsysteminterpretationen in die globale Optimierung der Zuweisung verlegt und die Benutzer nicht zwingt, sich vorzeitig auf eine Interpretation pro Aminosäure und Peak zu beschränken. Der Algorithmus löst daher nicht nur das Reihenfolgenproblem für einen schon vorgegebenen Satz von Protospinsystemen, sondern auch das Auswahlproblem zwischen verschiedenen, sich widersprechenden, Interpretationen der gleichen Peakgruppe. Durch das zusätzliche Auswahlproblem erhöht sich die Komplexität der Optimierungsaufgabe, der Lösungsraum wächst daher um mehrere Größenordnungen. Dies verlängert die Laufzeit für den einfachen RANDOM Algorithmus gegenüber einem vergleichbaren Reihenfolgeproblem. Es wurden daher verschiedene Methoden untersucht, um die Laufzeit wieder zu reduzieren. Die erzielten Verbesserungen führen nicht nur zu einer besseren Konvergenz, sondern ermöglichen auch erstmals eine echte parallele Implementierung des Algorithmus. Die algorithmischen Verbesserungen sind die Reduktion des Protospinsystemcaches und der GENETISCHe Algorithmus. Zusätzlich wurde eine verbesserte Konfiguration zur Kontrolle der Suboptimierer gefunden. Die Implementierung der zugrundeliegenden Datenstrukturen ermöglicht die Umsetzung zusätzlicher Nebenbedingungen für die Positionen der Protospinsysteme innerhalb der Zuweisung. Ein Beispiel für die Nebenbedingungen sind die knotenlokalen Filter und die Strukturfilter aus Kapitel 2. Ihre Effizienz wird am besten durch die Aminosäuretypenerkennung demonstriert, die die Größe des Lösungsraumes um 168 Größenordnungen für Trigger reduziert. Dadurch verringert sich die Laufzeit des RANDOM Algorithmus bis zu einem Faktor von 132. Für PASTA wurde in [Leutner98] statt dessen der umgekehrte Effekt auf die Laufzeit festgestellt. In ihrer Implementierung verlängert sich die Laufzeit auf das Doppelte. Der Unterschied kann nur durch eine unterschiedliche Nutzung der Aminosäuretypenerkennung im Protospinsystempool erklärt werden. PASTA nutzt diese Information anscheinend nicht, um den Pool und damit den Lösungsraum zu reduzieren, sondern nur bei der Bewertung der Zuweisung. Diese Konfiguration kann in RANDOM näherungsweise nachvollzogen werden, wenn man im AS-Cache jeder Aminosäure jedes Protospinsystem zuweist. Die Bewertung der Aminosäuretypen und den Austausch zwischen Pool und Individuum kann man aber nicht abschalten. Ein möglicher Nachteil der Reduktion des AS-Caches mittels der Aminosäuretypenerkennung ist die Möglichkeit, daß Aminosäuren mit untypischen Frequenzen der falschen Aminosäure zugewiesen werden oder nicht in den Cache für die theoretische Aminosäure aufgenommen werden. Um eine falsche Zuweisung durch die Reduktion auszuschließen oder zu überprüfen, kann man zuerst mit einem AS-Cache mit Typenerkennung optimieren und das Ergebnis in einer zweiten Optimierung mit einem AS-Cache ohne Typenerkennung nachoptimieren. Diese Möglichkeit wurde bei der Zuweisung von Trigger demonstriert. Für Trigger konnte durch den Wechsel des Caches gezeigt werden, daß auch mit dem reduzierten Cache eine stabile Zuweisung gefunden wird, die der Zuweisung ohne Aminosäuretypenerkennung weitgehend entspricht. Die Zuweisungen unterscheiden sich in Aminosäuren mit unsicherer Typenzuweisung. In Trigger wird nur ein Protospinsystem (Phe66,Ile67) aufgrund der Typeninformation von der Position im AS-Cache ausgeschlossen, der es in der manuellen und der Zuweisung ohne Reduktion zugewiesen wurde. In anderen Fällen führt erst die Typeninformation zur richtigen Zuweisung (zB. Thr60,Ile61), während die Zuweisung ohne Typenerkennung eine Fehlzuweisung erzeugt. Man sollte daher immer beide Versionen berechnen und dann vergleichen, da eine manuelle Zuweisung beide Defekte aufweisen kann, weil sie die Zuweisungsregeln nicht so strikt optimiert, wie es ein automatischer Algorithmus kann. Für beide Algorithmen wurde der Parameterraum untersucht und eine sowohl optimale als auch robuste Konfiguration gesucht. Dabei wurde der Einfluß jedes Parameters des Algorithmus auf die Laufzeit bis zur Konvergenz zum globalen theoretischen Maximum bestimmt. Bei RANDOM waren hauptsächlich die Zusammensetzung des Aktionsprofils und die minimale und maximale Lebenszeit der veränderten Zustände, minTTL und maxTTL, für die Laufzeit entscheidend. Alle drei kontrollieren, welche Pfade durch den Lösungsraum ab einem Zustand erlaubt sind. Die gleiche Untersuchung wurde auch für die Parameter der zu berechnenden Probleme (Proteine) durchgeführt. Für den Datensatz wurde sowohl der Einfluß der Proteingröße, des maximalen CA Abstandes zwischen den Peaks der benachbarten Aminosäuren und der Aufbereitung des Protospinsystemcaches auf die Laufzeit, als auch der Einfluß eines unvollständigen Datensatzes auf die Konvergenz untersucht. Der Algorithmus zeigte sich dabei sehr robust gegen fehlende Peaks, da bis zu 45% der theoretischen Peaks fehlen können, ohne daß die Konvergenz zum theoretischen Optimum verloren geht. Unterhalb von 55% hängt die Übereinstimmung der gefundenen Lösung mit der theoretischen Lösung von der Zusammensetzung der gebildeten Protospinsystemfragmente ab. Proteingröße und maximaler CA Abstand haben dagegen großen Einfluß auf die Laufzeit. Während die Parametrisierung des RANDOM Algorithmus sich auf die Untersuchung des Wertebereichs der Kontrollparameter beschränken kann, muß die Parametrisierung des GENETISCHen Algorithmus auch die verschiedenen Crossover Operatoren und die Kontrolle der Suboptimierer umfassen. In Kapitel 3 wurden die verschiedene Crossover Algorithmen und unterschiedliche Konfigurationsvarianten für den Suboptimierer im GENETISCHen Algorithmus untersucht. Die aus der Literatur bekannten Crossover Operatoren waren dabei den spezialisierten G Operatoren unterlegen. Auch die Varianten elitär und statistisch, die keinen genetischen Austausch zwischen verschiedenen Individuen zulassen, waren den speziellen Operatoren immer unterlegen. Selbst kleine Anteile eines Genaustausches bewirkten eine Verbesserung der Laufzeit und die Qualität der Lösung. Dabei verbesserte sich besonders die Konvergenz durch den genetischen Austausch. Die speziellen G Operatoren übertragen nur die Differenz der Eltern statt, wie im klassischen Crossover, blind irgendeinen zusammenhängenden Bereich zu kopieren. Dadurch vermeiden sie es, hauptsächlich identische Bereiche zu kopieren, sondern übertragen nur Protospinsysteme, die sich in den Eltern unterscheiden. Außerdem wurde die Effizienz der speziellen Operatoren noch weiter gesteigert, indem die übertragenen Informationen mit Hilfe von Filtern gezielt auswählt wurden. Die übertragene Differenz wird dazu aufgrund ihrer Nachbarn und der Verknüpfung mit den Nachbarn ausgewählt. Mit unterschiedlichen Filtern wurden so Bereiche mit einem unterschiedlich hohen lokalen Optimierungsgrad für die Übertragung ausgesucht. Die Laufzeituntersuchungen in Kapitel 3 zeigen, daß es eine Grenze für die Effizienzsteigerung durch die Übertragung lokal voroptimierter Bereiche gibt. Während es beim Wechsel von unkoordinierten, punktförmigen Übertragungen (s1) zur Übertragung von kurzen Strecken aus benachbarten Protospinsystemen, mit oder ohne Verknüpfung (s2), noch zu einer geringen Verbesserung der Laufzeit und der Konvergenz kommt, führt die zusätzliche Koordinierung der übertragenen Nachbarn durch die Nebenbedingung der Verknüpfung in den s3 Algorithmen sogar zu einer geringen Verschlechterung der Laufzeit. Die Gründe für die Verschlechterung konnten nicht eindeutig nachgewiesen werden. Möglicherweise verringert sich die Anzahl der kopierbaren Bereiche durch die zusätzlichen Nebenbedingungen so sehr, daß nicht genügend unterschiedliche Differenzen für die Übertragung in die neuen Individuen gebildet werden. Die neuen Individuen erhalten dann hauptsächlich die gleichen neuen Gene. Dadurch kann es zu einer Verarmung des genetischen Pools, d.h. zum Verlust der genetischen Diversität in der Population kommen. Die neuen Individuen suchen dann identische Bereiche im Lösungsraum ab und nehmen dadurch die lokale Optimierung doppelt vor. Dadurch verschwendet diese Konfiguration CPU Zeit auf schon untersuchte Bereiche. Neben der direkten Übertragung zusammenhängender Bereiche gibt es noch einen weiteren Faktor der die spezialisierten Operatoren, gegenüber dem klassischen Crossover, verbessert. Die Differenzbildung im Crossover nimmt auf die Konkurrenz um die Peaks zwischen den Protospinsystemen keine Rücksicht. Dadurch befinden sich die neuen Individuen zuerst meist im illegalen Teil des Zustandsraumes S n . Nach dem Crossover wird daher ein Teil der ursprünglichen Protospinsysteme des neuen Individuums durch den Reparaturmechanismus gelöscht und dadurch schon optimierte Bereiche zerstört. Daher kommt dem Reparaturmechanismus für illegale Zustände die entscheidende Rolle zu, denn er erzwingt die Neuberechnung der Positionen, die vor dem Crossover durch einen Konkurrenten eines übertragenen Protospinsystems belegt waren. Die ehemaligen Zuweisungen in den zerstörten Bereichen sind dabei nur über die Resourcenkonkurrenz mit den im Crossover neu injizierten korreliert. Das Crossover mit Zerstörungen erweitert dadurch den erreichbaren Lösungsraum, statt ihn, wie beim klassischen Crossover, auf den Raum zwischen den Eltern einzuschränken! Die Zerstörungen sind für die Optimierung daher von Vorteil. Außerdem zeigte sich in Kapitel 3, daß für die speziellen Operatoren eine besondere Konfiguration des Suboptimierers besonders effizient ist, die den einzelnen Individuen nur die CPU-Zeit zuteilt, die sie, effizienter als ihre Konkurrenten, zu einer Verbesserung nutzen können. Diese Verteilung der Rechenzeit wird durch die sogenannte Ratenbegrenzung erreicht. Die veränderlichsten Individuen erhalten dabei die meiste Rechenzeit. Dies sind normalerweise die Individuen, die in einem der letzten genetischen Zyklen neu erzeugt wurden. Sobald ein Individuum in ein tiefes lokales Optimum, d.h. eine Sackgasse, geraten ist, erhält es weniger Rechenzeit, da seine Verbesserungsrate unter den Schwellwert sinkt. Dadurch darf man den einzelnen Individuen eine höhere maximale Laufzeit zuteilen, da sie sie nur nutzen können, wenn sie sich währenddessen verbessern. Die Kombination "ratenbegrenzt" mit Operator Gs2p2A verbraucht trotz des komplexeren Algorithmus weniger CPU-Zeit bei gesteigerter Konvergenzwahrscheinlichkeit und geringerer paralleler Laufzeit als jede andere Konfiguration. Sie ist damit die beste bekannte Konfiguration für GENETISCH. Im Praxistest in Kapitel 5 mit dem Proteinabschnitt Trigger M bestanden zwischen den automatischen Zuordnungen und der manuellen Zuweisung nur geringe Unterschiede. Die Unterschiede zwischen den Optimierungen mit unterschiedlichen Caches entstehen hauptsächlich in den Bereichen, die an einem Ende keinen verknüpften Nachbarn haben oder bei denen die manuelle Zuweisung unsicher ist, wie im Bereich 10 - 20. Durch die automatische Zuweisung konnte die manuelle Zuweisung sogar an einigen Stellen vervollständigt werden. Sie ist daher einer manuellen Zuweisung gleichwertig. Darüber hinaus entsteht bei der automatischen Zuweisung immer eine Dokumentation über die Verwendung der Peaks, so daß man ungenutzte Spinsysteme leichter finden kann. Der genetische Algorithmus kann optimal auf einem Netzwerkcluster implementiert werden, daher bietet sich ein echte parallele Implementierung an. GENETISCH braucht dabei keine besondere Hardware, wie Vektorrechner, shared memory oder besonders schnelle Netzwerkverbindungen, sondern kann auf einer Gruppe von normalen Rechnern mit einer üblichen Ethernet100 Netzwerkverbindung implementiert werden, da nur zum Austausch der Individuen, bzw. ihrer Differenz, eine Kommunikation zwischen den Rechnern notwendig ist. Dadurch kann die Kommunikation auf wenige KB alle paar Sekunden beschränkt bleiben. GENETISCH sollte außerdem leicht zu skalieren sein, da man die Anzahl der Individuen leicht an größere Probleme anpassen kann. Eine echte parallele Implementierung erlaubt daher sowohl die Rechenzeit für komplexere Problem auf wenige Minuten zu reduzieren als auch größere und mehrdeutigere Spektren zuzuweisen. Außerdem kann man die Wahl der Prozessparameter selbst auch dem selben Optimierungsprozeß unterwerfen, der bisher für die Optimierung der Zuweisung verwendet wurde. Dadurch sollte es möglich sein, die Optimierungsparameter, analog dem Profil der Abkühlung im simulated annealing, dynamisch an die Phase der Optimierung anzupassen und den Individuen immer die optimalsten Optimierungsparameter zu bieten, ohne diese vorher von Hand suchen zu müssen. Diese Veränderung erfordert aber eine große Anzahl an Individuen und damit die echte parallele Implementierung.
Der Cytochrom b6f Komplex vermittelt den Elektronentransport zwischen Photosystem II und Photosystem I und nimmt damit eine zentrale Rolle in der Photosynthese ein. Das im Rahmen dieser Arbeit erstellte Protokoll für die Präparation des Cytochrom b6f Komplexes aus Spinat ermöglichte eine reproduzierbare Reinigung von hochaktivem Enzym. Die spektroskopischen Daten stimmen mit den publizierten Daten für den Komplex überein. SDS-PAGE zeigte alle vier großen Untereinheiten sowie eine Bande der kleinen 4 kDa Untereinheiten. Die Präparation ist mit 450 ± 60 Elektronen pro Sekunde 10 - 15 mal aktiver als in bisherigen Veröffentlichungen für Präparationen aus Pflanzenblättern beschrieben und fast doppelt so aktiv wie die besten Präparationen aus Chlamydomonas reinhardtii. Die Zuverlässigkeit des Aktivitätstests konnte durch den Wechsel des Lösungsmittels für den Elektronendonor von Ethanol zu Dimethylsulfoxid erheblich verbessert werden. Die hohe Effizienz der Proteinreinigung und die hohe Aktivität des Komplexes stellen ideale Voraussetzungen für biophysikalische und strukturelle Studien dar. Versuche zur zweidimensionalen Kristallisation des Cytochrom b6f Komplexes erbrachten Kristalle mit verschiedenen Morphologien, die unterschiedlich gut geordnet waren. Eine Projektionsdichtekarte bis zu einer Auflösung von 20 Å von mehrschichtigen Kristallen zeigte strukturelle Übereinstimmungen, aber auch Unterschiede zu dem verwandten Komplex aus der einzelligen Alge C.reinhardtii. H -ATPase Plasmamembran H -ATPasen wandeln chemische Energie (in Form von ATP) in einen elektrochemischen Gradienten um, der als Energielieferant von sekundären Transportproteinen dient. Es ist gelungen, zweidimensionale Kristalle der heterolog exprimierten und mit einem His-tag ausgestatteten Plasmamembran H -ATPase AHA2 aus Arabidopsis thaliana zu erzeugen. Zwei verschiedene Methoden wurden dabei angewandt. Zum einen wurde das Protein wurde in Proteoliposomen rekonstituiert, und die so gewonnenen Vesikelkristalle resultierten in einer Projektionsdichtekarte mit einer Auflösung von 8 Å. In einer zweiten Methode wurde eine Technik, basierend auf dem Einsatz neu entwickelter, partiell fluorierter und funktionalisierter Lipide, angewandt. Einzelschichten dieser fluorierten Lipide auf der Oberfläche eines Tropfens erwiesen sich auch in Anwesenheit von Detergenz als stabil. Die funktionalisierte Ni2 -NTA-Kopfgruppe der fluorierten Lipide ermöglichte eine Bindung des Proteins über den His-tag. Nach Detergenzentzug bildeten sich in einer Lipiddoppelmembran eingebettete 2D-Kristalle mit einem Durchmesser von bis zu 10 (m, die für die Erstellung einer Projektionsdichtekarte bis 9 Å genutzt wurden. Die beiden elektronenkristallographisch erstellten Projektionskarten waren sehr ähnlich. Sie zeigten drei voneinander abgegrenzte Domänen, die in Zusammenhang mit einer vorliegenden Struktur der verwandten Ca2 -ATPase interpretiert werden konnten. Die Technik der Oberflächenkristallisation eröffnet neue Möglichkeiten für die Kristallisation von Membranproteinen. Kristallisationsexperimente können bei Proteinkonzentrationen von nur 50-150 (g/ml durchgeführt werden und sind für alle Membranproteine, die mit einem His-tag exprimiert werden können, anwendbar. Es wurde ein Homologiemodell der Plasmamembran H -ATPase aus Neurospora crassa in Anlehnung an die atomare Struktur der verwandten Ca2 -ATPase SERCA1 erstellt. Beide Enzyme liegen in unterschiedlichen Konformationen vor, die sie während des Reaktionszyklus durchlaufen. Es konnte gezeigt werden, dass es sich dabei offenbar um die Bewegung ganzer Domänen handelt. Dabei wurde klar, dass in einem solchen Fall schon 3D-Strukturen bei einer mittleren Auflösung von ca. 8 Å, wie sie mit Hilfe der Elektronenkristallographie verhältnismäßig einfach erreicht werden können, viel zum Verstehen von Reaktionszyklen beitragen können, die große Konformationsänderungen beinhalten.