Refine
Document Type
- Doctoral Thesis (6)
- Part of a Book (2)
- Article (1)
Has Fulltext
- yes (9) (remove)
Is part of the Bibliography
- no (9)
Keywords
- Computersimulation (9) (remove)
Institute
This thesis contributes to the field of soft matter research and studies the importance of hydrodynamic interactions during free-solution electrophoresis of linear polyelectrolytes by means of coarse-grained molecular dynamics simulations including full electro-hydrodynamic interactions. The center of attention is the specific role of hydrodynamic interactions on the electrophoretic behaviour of charged macromolecules. Points of interest are the dependence of hydrodynamic interactions on the chain length, the chain flexibility and the surrounding counterions, and their combined influence on important observables such as the static chain conformations and the dynamic transport coefficients, i.e., the diffusion and the electrophoretic mobility. These problems are addressed by extensive computer simulations that are quantitatively matched with experimental results. Existing theoretical predictions are carefully examined and are augmented by the observations in this thesis.
Die P-Typ-ATPasen finden sich in allen Domänen des Lebens und stellen die größte Gruppe aktiver Ionentransporter in Zellen dar. Es handelt sich bei den P-Typ-ATPasen um integrale Membranproteine, die eine große Anzahl verschiedenster Ionen aktiv über eine biologische Membran transportieren. Die für diesen Ionentransport notwendige Energie wird durch Bindung und Hydrolyse von Adenosintriphosphat (ATP) und durch Phosphorylierung des Enzyms gewonnen. Diese, im cytoplasmatischen Teil gewonnene Energie, muss für den Ionentransport von der Phosphorylierungsstelle zur räumlich entfernten transmembranen Ionenbindungsstelle übertragen werden, bei dem das Protein einem Reaktionszyklus mit zwei Hauptkonformationszuständen E1 und E2 unterliegt. Zwischen diesen beiden Zuständen finden große strukturelle Änderungen statt, durch die die Ionenaffintät und die Zugänglichkeit der Ionenbindungsstelle reguliert wird. Da dieser Mechanismus der Energiegewinnung für alle Ionenpumpen dieser Art ähnlich ist, wurde die Ca2+-ATPase und die Na+/K+-ATPase als Modellproteine für die Untersuchung molekularer Mechanismen in P-Typ-ATPasen ausgewählt. Im Rahmen der vorliegenden Arbeit soll die Energietransduktion in P-Typ-ATPasen im Allgemeinen und der Protonengegentransport bzw. ein potentieller Protonentransportweg in der Ca2+-ATPase im Speziellen untersucht werden. Die beiden oben genannten Mechanismen sollen mittels computergestützter Methoden analysiert werden. Vor allem die Ca2+-ATPase ist prädestiniert für computergestützte Untersuchungen, da für diese sehr viele hochaufgelöste Röntgenstrukturdaten vorliegen, wenn auch bisher aufgrund der Größe und Komplexität des Systems nur sehr wenige theoretische Arbeiten durchgeführt wurden. Um den Energietransduktionsmechanismus in P-Typ-ATPasen zu untersuchen, wurde mittels Elektrostatik-Rechnungen der Einfluss eines elektrischen Feldes auf die verschiedenen Transmembranhelices untersucht. Dazu wurde ein Simulationssystem entwickelt, welches aus einem molekularen Kondensator besteht, der im Modell das Anlegen eines homogenen elektrischen Feldes über den Transmembranbereich simuliert. Da es sich bei dem Energietransduktionsmechanismus um einen dynamischen Prozess handelt, wurden die Elektrostatik-Rechnungen um Molekulardynamik-Simulationen erweitert. Mit diesen kann die konformelle Dynamik der P-Typ-ATPasen während der Energietransduktion in die Elektrostatik-Rechnungen einbezogen werden. Aus Spannungsklemmen-Fluorometrie-Experimenten, bei denen eine Spannung über eine Membran angelegt wird, kann geschlossen werden, dass die Helix M5 für die Energietransduktion verantwortlich ist. Mit den in dieser Arbeit durchgeführten Elektrostatik-Rechnungen konnte für verschiedene Enzymzustände der Ca2+-ATPase und für die Na+/K+-ATPase gezeigt werden, dass die Helix M5 die größten Konformeränderungen aufgrund des elektrischen Feldes aufweist. Durch die Erweiterung der Elektrostatik-Rechnungen um die Methode der Molekulardynamik-Simulation konnte zusätzlich die elektrische Feldstärke reduziert werden. Auch dabei zeigte sich, dass auf der Helix M5 die meisten Rotameränderungen durch das elektrische Feld induziert werden. Die aus Experimenten vermutete Rolle der Helix M5 als wichtiges Energietransduktionselement ließ sich mit diesen Simulationsrechnungen bestätigen. Um einen möglichen Protonenweg durch den Transmembranbereich der Ca2+-ATPase aufzuklären, wurden explizite Wassermoleküle in sechs verschiedene Enzymzustände der Ca2+-ATPase eingefügt. Aus Experimenten ist bekannt, dass in der Ca2+-ATPase ein Protonengegentransport stattfindet. Deshalb wurden für verschiedene Enzymzustände der Ca2+-ATPase mittels Elektrostatik-Rechnungen die Protonierungen der eingefügten Wassermoleküle sowie der titrierbaren Aminosäuren bestimmt. Aus den Ergebnissen dieser Rechnungen kann geschlossen werden, dass es sich bei dem Protonentransfer nicht um einen linearen Transport der Protonen handelt. Die Untersuchungen zeigen einen mehrstufigen Prozess, an dem Protonen in verschiedenen Transmembranbereichen der Ca2+-ATPase beteiligt sind. Anhand der berechneten Protonierungszustände der eingefügten Wassermoleküle und der pK-Werte der Aminosäuren im Transmembranbereich konnte weiterhin ein möglicher Protonenweg identifiziert werden.
Zu den nachhaltigsten Prägungen des architektonischen Entwerfens gehört das vereinfachte Idealszenario, wonach der Prozess der Theorie- und Formbildung eine Kette von Modellierungsstufen sei, die vom Großen zum Kleinen, vom städtebaulichen Entwurf zur baukonstruktiven Detailplanung führen. Nach diesem Szenario steht am Anfang jeder Modellierungsphase eine architektonische Hypothese mit ihrem je spezifischen Gegenstandsversprechen. Als letzte Modellierungsstufe am Ende der Kette liegt das konkrete Bauwerk im Eins-zu-eins-Maßstab vor. Jede Stufe wird in maßstabsgetreuen Zeichnungen und Modellen entwickelt, die ihre Qualität aus der Entsprechung zum späteren Bauwerk gewinnen. In jeder Phase hat der Architekt die Möglichkeit, das bisher Modellierte durch Anschauung zu überprüfen, weiter auszuarbeiten oder zu verwerfen. Auf diese Weise wird der Entwurf von einer Stufe auf die nächste überführt. Das computerbasierte Modellieren scheint diese Idealkette entwurflicher Operationen zu unterbrechen. Unter Zuhilfenahme von 3D-Modellierungssoftware entwickelt der Architekt seinen Entwurf weniger in aufeinander aufbauenden Stufen als vielmehr in einer einzigen Stufe, die theoretisch alle anderen Stufen beinhaltet. Die erdachte Architektur wird nicht in abstrahierenden, voneinander getrennten Zeichnungen dargestellt, sondern in einem einzigen, zweidimensional wiedergegebenen 3D-Modell visualisiert. Digitale Prozessketten heben die tradierte Trennung zwischen intellektuellem Entwurfsakt und materieller Ausführung auf. Während im Analogen die architektonischen Entwurfszeichnungen zunächst in Ausführungspläne und anschließend von den am Bau beteiligten Gewerken in Werkstattpläne transformiert werden, sind im Digitalen Entwurf und Ausführung eng miteinander verschränkt. Die Produktionstechnologien greifen unmittelbar in die Entwurfsverfahren ein: Bei dem 'file to factory' genannten Modellierungsverfahren werden geometrische und technologische Informationen in einem Datenmodell zusammengefasst, das unter Zuhilfenahme computergesteuerter Fertigungsmaschinen (u. a. 3D-Drucker) in ein physisches Modell oder ein Bauteil umgesetzt wird.
This work presents a contribution to the literature on methods in search of lowdimensional models that yield insight into the equilibrium and kinetic behavior of peptides and small proteins. A deep understanding of various methods for projecting the sampled configurations of molecular dynamics simulations to obtain a low-dimensional free energy landscape is acquired. Furthermore low-dimensional dynamic models for the conformational dynamics of biomolecules in reduced dimensionality are presented. As exemplary systems, mainly short alanine chains are studied. Due to their size they allow for performing long simulations. They are simple, yet nontrivial systems, as due to their flexibility they are rapidly interconverting conformers. Understanding these polypeptide chains in great detail is of considerable interest for getting insight in the process of protein folding. For example, K. Dill et al. conclude in their review [28] about the protein folding problem that "the once intractable Levinthal puzzle now seems to have a very simple answer: a protein can fold quickly and solve its large global optimization puzzle simply through piecewise solutions of smaller component puzzles".
The goal of our current project is to build a system that can learn to imitate a version of a spoken utterance using an articulatory speech synthesiser. The approach is informed and inspired by knowledge of early infant speech development. Thus we expect our system to reproduce and exploit the utility of infant behaviours such as listening, vocal play, babbling and word imitation. We expect our system to develop a relationship between the sound-making capabilities of its vocal tract and the phonetic/phonological structure of imitated utterances. At the heart of our approach is the learning of an inverse model that relates acoustic and motor representations of speech. The acoustic to auditory mappings uses an auditory filter bank and a self-organizing phase of learning. The inverse model from auditory to vocal tract control parameters is estimated using a babbling phase, in which the vocal tract is essentially driven in a random manner, much like the babbling phase of speech acquisition in infants. The complete system can be used to imitate simple utterances through a direct mapping from sound to control parameters. Our initial results show that this procedure works well for sounds generated by its own voice. Further work is needed to build a phonological control level and achieve better performance with real speech.
Die moderne Biochemie ist eine Wissenschaft, die sich im Wandel befindet. Während die bisherige Forschung sehr stark experimentell geprägt ist, existiert eine theoretische Biologie, analog zur theoretischen Chemie, nur in Ansätzen. Trotzdem wandelt sich auch diese Wissenschaft hin zu einer stärkeren Einbindung theoretischer Ansätze. Der Grund hierfür liegt in der Betrachtung von zunehmend komplexeren Systemen. So beschäftigt man sich in der Systembiologie, einem Teilbereich der Biochemie, unter anderem mit der Aufklärung komplexer Reaktionsnetzwerke. Während Ausschnitte dieser Netzwerke weiterhin experimentell aufgeklärt und verstanden werden, lässt sich das zusammenhängende Bild zunehmend nur noch durch eine theoretisch geprägte Modellbildung fassen. Darüber hinaus zeigen neuere Forschungsergebnisse die Bedeutung der Tatsache, dass Moleküle, Zellen und Zellhaufen, also wichtige Forschungsubjekte der Biochmie, dreidimensionale Gebilde sind – eine Tatsache, die bei der Modellbildung berücksichtigt werden muss. Eine Antwort auf die genannten Herausforderungen ist der konzertierte Einsatz von Simulation und Visualisierung als Mittel des Erkenntnisgewinns. Damit ist die Informatik gefordert entsprechende dedizierte Werkzeuge zu entwickeln, die Simulation, Visualisierung und Interaktion im Kontext des von der Anwendungsdisziplin gesetzten räumlich-zeitlichen Problemkreises miteinander verbinden. In dieser Arbeit wird ein integriertes Konzept zu Simulation, Interaktivität und Visualisierung vorgelegt, das auf einer Anforderungsanalyse in Bezug auf Anforderungen an die Simulation und Anforderungen an die Interaktivität und Visualisierung basiert. Zur Lösung der aufgeworfenen Probleme wird ein „Baukastensystem“ auf Basis von Multi-Agenten-Systemen vorgeschlagen. Die Auswahl des geeigneten Simulationsverfahrens, z. B. die Auswahl eines stochastischen Verfahrens gegenüber einem deterministischen Verfahrens, wird so zur Auswahl eines Bausteins, wobei gezeigt wird, wie z. B. mit Hilfe von Regeln die Auswahl auch automatisiert werden kann. Ebenso wird gezeigt, wie man „Baussteine“ auch im räumlichen Sinne verstehen kann, als Dinge, die in einem dreidimensionalen Kontext einen bestimmten Raum einnehmen und die, in ihrer Gesamtheit betrachtet, den Beobachtungsraum der Simulation ausfüllen. Diese Bausteine finden sich entsprechend ebenfalls im Kontext der Interaktion wieder. Ein wichtiger Aspekt in diesem Baukastenkonzept ist die Frage der Kommunikationsstruktur und des Kommunikationsprotokolls, für den ein Vorschlag erarbeitet wird. Das entwickelte Gesamtkonzept besteht aus zwei Teilen: Einem Konzept für Ein- und Ausgabegeräte mit einer gemeinsamen Metapher, die die Geräte logisch in den Anwendungskontext einbettet und einem Simulations- und Visualisierungskonzept auf der Basis der Kopplung heterogener intelligenter Agenten in eine gemeinsame Simulationsumgebung. Hierfür wurde ein spezieller Dialekt einer Agentenkommunikationssprache entwickelt, der dabei insbesondere den Aspekt der dreidimensionalen Visualierung einer solchen Simulation berücksichtigt.
In dieser Arbeit wurde ein Verfahren entwickelt, mit dem die Entfaltung von Proteinen simuliert werden kann. Anhand der Simulation kann die Schmelztemperatur bestimmt und damit die Thermostabilität einer Struktur untersucht werden. Außerdem ist die Untersuchung struktureller Veränderungen möglich, die während der Entfaltung auftreten und letztendlich zum globalen Zerfall der Struktur führen. Die Bereiche, von denen der globale Zerfall der Struktur ausgeht, können bestimmt werden. Es wurde untersucht, inwieweit diese Entfaltungsregionen Strukturbereiche darstellen, deren Mutation die thermische Stabilität der Struktur beeinflusst. Das entwickelte Verfahren basiert auf der Anwendung von Methoden aus der Rigiditätstheorie. Die thermische Entfaltung der Strukturen wird über das sukzessive Aufbrechen nichtkovalenter Wechselwirkungen in den Netzwerken simuliert. An-sätze aus der Perkolations- und Netzwerktheorie werden verwendet, um die Rigidität und Flexibilität in den Netzwerken während der Entfaltung zu untersuchen. Diese unter dem Begriff der Analyse statischer Netzwerke (constraint network analysis, CNA) zusammengefassten Methoden wurden im ersten Teil dieser Arbeit auf einen Datensatz homologer meso- und thermophiler Proteine angewendet. Dabei wurde untersucht, ob die thermophile Anpassung tatsächlich über eine Rigidisierung der Struktur erfolgt. Außerdem wurde die Theorie der korrespondierenden Zustände getestet, die besagt, dass bei der thermophilen Anpassung trotz globaler Rigidisierung für die Bioaktivität wichtige flexible Bereiche konserviert sind. Mit Hilfe der CNA wurden Entfaltungsregionen der Proteine aus dem Datensatz bestimmt und mit Strukturbereichen verglichen, in die thermostabilisierende Mutationen eingeführt wurden. Außerdem wurde untersucht, inwieweit vorhergesagt werden kann, ob eine möglicherweise thermostabilisierende Mutation die Aktivität negativ beeinflusst. Für zwei Drittel der thermophilen Proteine aus dem Datensatz konnte eine höhere Thermostabilität vorhergesagt werden als für das entsprechende mesophile Protein. Es konnte zudem gezeigt werden, dass die thermophile Anpassung dieser Proteine tatsächlich über eine Rigidisierung der Struktur erfolgt. Offensichtlich werden bei der Anwendung der CNA implizit alle möglichen Mechanismen der thermophilen Anpassung berücksichtigt. Die für zwei Paare meso- und thermophiler Proteine vorhergesagten Entfaltungsregionen stimmten sehr gut mit Bereichen überein, in die thermostabilisierende Mutationen eingeführt wurden. Damit wurde gezeigt, dass die CNA hilfreich zur Unterstützung des Protein Engineering ist, da die thermische Stabilität einer Struktur abgeschätzt werden kann, andererseits Hinweise darauf gegeben werden, in welchen Bereichen der Struktur thermostabilisierende Mutationen eingeführt werden können. Anhand des Vergleichs mikroskopischer Stabilitäten homologer Proteine konnte gezeigt werden, dass die CNA ein Abschätzen des Effekts einer thermostabilisierenden Mutation auf die Aktivität erlaubt, was wiederum für den Einsatz der CNA zur Unterstützung des Protein Engineering spricht. Im zweiten Teil dieser Arbeit wurde die CNA auf eine Serie von Phytasen unterschiedlicher Thermostabilitäten angewendet. Da es sich bei den Phytase-Strukturen um Homologie-modelle handelte, die nicht direkt mit der Analyse statischer Netzwerke untersucht werden konnten, wurde eine ensemblebasierte CNA etabliert. Dazu wurden kurze MD-Simulationen zur Verbesserung der homologiemodellierten Strukturen durchgeführt, aus denen dann ein konformationelles Strukturensemble extrahiert wurde. Aus den konformationellen Ensembles werden Thermostabilitäten vorhergesagt. Bei der Vorhersage der Thermostabilitäten ergab sich eine bemerkenswert gute Übereinstimmung mit experimentell bestimmten relativen Halbwertszeittemperaturen. Bereiche mit hoher Entfaltungsregionwahrscheinlichkeit stimmen gut mit Regionen überein, in denen thermostabilisierende Mutationen experimentell eingeführt wurden. Diese Ergebnisse offenbaren, dass mit der Entwicklung der ensemblebasierten CNA die methodischen Grundlagen für den Einsatz des Verfahrens zur Unterstützung des Protein Engineering von Phytasen geschaffen wurden.
A basic introduction to RFQs has been given in the first part of this thesis. The principle and the main ideas of the RFQ have been described and a small summary of different resonator concepts has been given. Two different strategies of designing RFQs have been introduced. The analytic description of the electric fields inside the quadrupole channel has been derived and the limitation of these approaches were shown. The main work of this thesis was the implementation and analysis of a Multigrid Poisson solver to describe the potential and electric field of RFQs which are needed to simulate the particle dynamics accurately. The main two ingredients of a Multigrid Poisson solver are the ability of a Gauß-Seidel iteration method to smooth the error of an approximation within a few iteration steps and the coarse grid principle. The smoothing corresponds to a damping of the high frequency components of the error. After the smoothing, the error term can well be approximated on a coarser grid in which the low frequency components of the error on the fine grid are converted to high frequency errors on the coarse grid which can be damped further with the same Gauß-Seidel method. After implementation, the multigrid Poisson solver was analyzed using two different type of test problems: with and without a charge density. After illustrating the results of the multigrid Poisson solver, a comparison to the field of the old multipole expansion method was made. The multipole expansion method is an accurate representation of the field within the minimum aperture, as limited by cylindrical symmetry. Within these limitations the multigrid Poisson solver and the multipole expansion method agree well. Beyond the limitation the two method give different fields. It was shown that particles leave the region in which the multipole expansion method gives correct fields and that the transmission is affected therefrom as well as the single particle dynamic. The multigridPoisson solver also gives a more realistic description of the field in the beginning of the RFQ, because it takes the tank wall into account, and this effect is shown as well. Closing the analysis of the external field, the transmission and fraction of accelerated particles of the set of 12 RFQs for the two different methods were shown. For RFQs with small apertures and big modulations the two different method give different values for the transmission due to the limitation of the multipole expansion method. The internal space charge fields without images was analyzed at the level of single particle dynamic and compared to the well known SCHEFF routine from LANL, showing major differences for the analyzed particle. For comparing influences on the transmissions of the set of 12 RFQs a third space charge routine (PICNIC) was considered as well. The basic shape of the transmission curve was the same independent of space charge routines, but the absolute values differ a little from routine to routine, with SCHEFF about 2% lower than the other routines. The multigrid Poisson solver and PICNIC agree quite well (less than 1%), but PICNIC has an extremely long running time. The major advantage of the multigrid Poisson solver in calculating space charge effects compared to the other two routines used here is that the Poisson solver can take the effect of image charges on the electrodes into account by just changing the boundaries to have the shape of the vanes whereas all other settings remain unchanged. It was demonstrated that the effect of image charges on the vanes on the space charge field is very big in the region close to the electrodes. Particles in that region will see a stronger transversely defocusing force than without images. The result is that the transmission decreases by as much as 10% which is considerably more than determined by other (inexact) routines before. This is an important result, because knowing about the big effect of image charges on the electrodes it allows it to taken into account while designing the RFQ to increase the performance of the machine. It is also an important factor in resolving the traditional difference observed between the transmission of actual RFQs and the transmission predicted by earlier simulations. In the last chapter of this thesis some experimental work on the MAFF (Munich Accelerator for Fission Fragments) IH-RFQ is described. The machine was assembled in Frankfurt and a beam test stand was built. The shunt impedance of the structure was measured using different techniques, the output energy of the structure were measured and finally its transmission was determined and compared to the beam dynamics simulations of the RFQ. Unfortunately, the transmission measurements were done without exact knowledge of the beam’s emittance. So the comparison to the simulation is somewhat rough, but with a reasonable guess of the emittance a good comparison between the measurement and simulation was obtained.
Computersimulation
(2016)
Computersimulationen (CS) machen eine Bearbeitung, Berechnung und Beherrschung des Zukünftigen imaginierbar. Doch dies geht einher mit der Löschung der Zukunft als Imaginationsraum im traditionellen Sinne. CS übersteigen und radikalisieren bekannte und etablierte Verfahren zur Erzeugung von Zukunftswissen. Dazu gehören Gedankenexperimente ebenso wie mathematische oder materielle Modellanalogien, statistikgestützte Prognosen genauso wie laborwissenschaftliche Experimentalsysteme. Basierend auf den Rechenkapazitäten immer leistungsstärkerer Supercomputer integrieren sie die (Un-) Wahrscheinlichkeiten einer immer größeren Anzahl an Einzelereignissen zu immer komplexeren Szenarien. Deren Elemente, die nach Probabilitäten bewerteten individuellen Sonderfälle, waren noch der menschlichen Beobachtung und Imagination zugänglich. Letztere werden jedoch von CS unterlaufen, die solche Elemente als Versatzstücke zur Errechnung einer möglichen Wirklichkeit aggregieren. Und damit bereiten CS den Boden für die mittlerweile überall anzutreffenden Kulturen der Antizipation, des Risiko-Managements, der Preparedness.