Refine
Year of publication
Document Type
- Doctoral Thesis (5653) (remove)
Language
- German (3593)
- English (2031)
- French (9)
- Latin (5)
- Spanish (5)
- Portuguese (4)
- Italian (3)
- Multiple languages (2)
- mis (1)
Has Fulltext
- yes (5653)
Is part of the Bibliography
- no (5653)
Keywords
- Deutschland (15)
- Gentherapie (14)
- HIV (13)
- Apoptosis (12)
- Membranproteine (12)
- NMR-Spektroskopie (11)
- RNA (11)
- RNS (10)
- Genexpression (9)
- Immunologie (9)
Institute
- Medizin (1488)
- Biowissenschaften (828)
- Biochemie und Chemie (724)
- Physik (587)
- Pharmazie (329)
- Biochemie, Chemie und Pharmazie (299)
- Geowissenschaften (139)
- Neuere Philologien (115)
- Gesellschaftswissenschaften (110)
- Psychologie (97)
"Mir ist so digk vor gesait" : Studien zur erzählerischen Gestaltung des "Meleranz" von dem Pleier
(2024)
In der germanistischen Mediävistik richtet sich das Forschungsinteresse vornehmlich auf die höfische Literatur und dabei insbesondere auf die frühen und späten Artusromane. Vor allem die Werke von Hartmann von Aue und Wolfram von Eschenbach sind zentrale Forschungsobjekte, während Texte wie Pleiers ‚Meleranz‘ bisher nur begrenzt Beachtung fanden.
Die Forschungslücke, die die vorliegende Arbeit adressiert, liegt in der detaillierten Analyse der spezifischen Erzähltechniken des pleierschen Textes, die sich sowohl durch die Verwendung traditioneller arthurischer Motive als auch durch innovative narrative Ansätze auszeichnen. Ausgehend von dem Befund eines stark zurückgenommenen Erzählers wird untersucht, welche narrativen Strategien und Verfahren der Pleier im ‚Meleranz‘ anwendet, um trotz dieser Abkehr von der implizierten poetischen Regelhaftigkeit einer dominanten Erzählerfigur das Erzählen vom Ritter ‚Meleranz‘ gelingen und zugleich an einigen Stellen ausgesprochen konventionell wirken zu lassen.
Um aufzudecken, wie der Text ohne die Stimme eines deutlich hervortretenden Erzählers vermittelt wird, nutze ich im Verlauf der Arbeit eine Typologie der Stoffvermittlung durch (arthurische) Erzähler. In den Einzelstudien zum ‚Meleranz‘ werden seine Motive, Erzählmuster und Figurenkonstellationen in einem close reading erarbeitet und mit der Typologie abgeglichen, um bestimmen zu können, welche Vermittlungsformen im pleierschen Text genutzt werden. Mit Hilfe dieses Vergleichs kann das Erzählverfahren im ‚Meleranz‘ extrapoliert und gleichzeitig offengelegt werden. Mittels dieses Vorgehens wird verdeutlicht werden, dass es sich beim ‚Meleranz‘ um einen Text handelt, der arthurische Konventionen lediglich anders inszeniert, um die vermittelnde Funktion der Stimme des Erzählers zu substituieren oder ihr Fehler auszugleichen.
Die Dissertation „“Man at the Crossroads“ - “El Hombre Controlador del Universo“ - Diego Rivera zwischen New York und Mexiko 1933/34“, vorgelegt von Elena Stiehr im Fachbereich 9 am Kunstgeschichtlichen Institut der Johann Wolfgang Goethe-Universität, Frankfurt unter Betreuung von Prof. Dr. Hans Aurenhammer und Dr. Antje Krause-Wahl, leistet das erste Mal in der Forschung eine umfangreiche Untersuchung der Zweitversion des Freskos „Man at the Crossroads“. Diese realisierte Diego Rivera 1934 unter dem Titel „El Hombre Controlador del Universo“ etwa ein halbes Jahr nachdem „Man at the Crossroads“ im Rockefeller Center, New York aufgrund seines kommunistischen Bildinhalts zerstört wurde. Ziel der Untersuchung ist es, die verschiedenen Kriterien aufzuzeigen, unter denen Rivera die mexikanische Version verwirklichte, die noch heute im Palacio de Bellas Artes in Mexiko-Stadt zu sehen ist. So soll dargestellt werden, dass sich das Fresko trotz seines auf den ersten Blick hin ähnlichen Erscheinungsbildes prägnant von der Erstversion unterscheidet. Darauf weist auch bereits die Umbenennung des Werkes hin. Gleichzeitig jedoch ist „El Hombre Controlador del Universo“ ganz und gar amerikanisch. Durch die detaillierte Schilderung der Realisierung von „Man at the Crossroads“ von März bis Mai 1933 anhand von Primärquellen, wie das Tagebuch von Riveras Assistentin Lucienne Bloch und Berichte aus der amerikanischen Presse, der Analyse, ob und wie Rivera die Richtlinien des Kunstprogramms des Rockefeller Center befolgte und durch Vergleiche mit Werken anderer Künstler, die wie Rivera im Auftrag der Rockefellers arbeiteten, wird das New Yorker Erbe in „El Hombre Controlador del Universo“ aufgezeigt. Maßgeblich dafür ist überraschenderweise jedoch nicht die Wiederholung der amerikanischen Motive aus der Erstversion, wie der US-amerikanischen Kapitalistenklasse, der desolaten Situation der USamerikanischen Arbeiter und Bauern im Zuge der Weltwirtschaftskrise und der technischen und naturwissenschaftlichen Errungenschaften, die erstmals in der Forschung identifiziert und kontextualisiert werden, sondern vor allem die Integration neuer Motive, die fest mit den USA verbunden sind. So erlebte Rivera in New York einen intensiven Austausch mit den USamerikanischen Trotzkisten Max Shachtman und James Cannon, die der Künstler nun in der Zweitversion zusammen mit Trotzki selbst und dem Aufruf zur IV. Internationalen für die Bekämpfung des Kapitalismus, Imperialismus und Faschismus darstellt. In diesem Kontext steht im Bild weiterhin das Portrait des deutschen Widerstandskämpfers Willi Münzenberg, der erstmals in der Literatur identifiziert wird. Rivera zeigt in der Zweitversion nun aber auch in konkreter Gestalt die zu bekämpfende Gegenposition, die in Joseph Goebbels, Adolf Hitler, Josef Stalin und dem japanischen Kaiser Hirohito zu finden ist. Auch diese Portraits wurden in der Forschung bislang übersehen.
Entgegen der in der Literatur vertretenen These, dass die Zweitversion an Kraft verloren hätte, da sie sich nicht mehr im Herzen des Kapitalismus, also dem Rockefeller Center, befinde, macht die Untersuchung deutlich, dass Rivera mit dem Fresko in Mexiko dringlicher als je zuvor für eine marxistisch-trotzkistische Internationale wirbt. Diese sollte sich von Mexiko aus über den gesamten amerikanischen Kontinent erstrecken und der kapitalistisch-imperialistischen Allianz Einhalt gebieten. Die Arbeit leistet darüber hinaus einen wichtigen Beitrag für den Diskurs über die Rezeption der prähispanischen Kunst im Werk von Diego Rivera. So wird erstmals aufgezeigt, dass Rivera auch in „El Hombre Controlador del Universo“ Motive aus der altmexikanischen Kultur ableitet. Im Gegensatz zu anderen Fresken wurde das Wandbild noch nicht unter dieser Fragestellung untersucht. Grund dafür könnte sein, dass Rivera die ursprünglich mexikanischen Motive, wie die der Sonne und des Mondes, der Nutzpflanzen, der Tiere und des Totenkultes, in einen wissenschaftlichen Kontext einbettet und sie daher nicht auf dem ersten Blick als originär mexikanisch wahrgenommen werden. Der Epilog der Arbeit führt einen Vergleich mit dem für die Pariser Weltausstellung 1952 realisierten Freskos „Friedenstraum und Kriegsalbtraum. Realistische Phantasie“ fort, den 2008 erstmals in der Forschung Ana Isabel Pérez Gavilan Ávila angestoßen hat. Aufgrund der Darstellung von Stalin und Mao als Initiator einer Friedensbewegung und der USA als Atommacht und Folterer von Koreanern und Chinesen hatte dieses Fresko ähnlich wie „Man at the Crossroads“ eine scharfe Zensur erhalten. Rivera behauptete daraufhin sein Bild verteidigend, dass das Fresko eine inhaltliche und formale Fortsetzung von „El Hombre Controlador del Universo“ sei. Ein bislang nicht publizierter Brief, der sich im Archiv des CENIDIAP in Mexiko befindet, legt jedoch dar, dass Rivera mit Hilfe des Wandbildes lediglich versuchte, nach über 20 Jahren wieder von der Kommunistischen Partei aufgenommen zu werden.
In dieser Dissertation wird die diskursive Konstruktion der Übersetzer bzw. der Übersetzung in ausgewählten Chroniken der Eroberung Lateinamerikas untersucht, welche von Autoren unterschiedlicher Herkunft im ungefähren Zeitraum zwischen 1515 bis 1615 verfasst wurden. Im Rahmen einer historisch-deskriptiven Analyse wird erforscht, welchem Zweck die vorgefundenen sprachlichen Aussagen zur Übersetzungsthematik in den verschiedenen Chroniken dienen. Die Analyse zeigt deutlich, dass nicht nur die Erwähnung, sondern auch die Omission der Aussagen zu den Übersetzern bzw. den Übersetzungsprozessen eine wichtige Rolle einnimmt und Brüche und Widersprüche in den einzelnen Darstellungen hervortreten lässt. Es wird deutlich, dass Übersetzer und Übersetzung, aber auch deren Omission, nicht nur der Legitimierung bzw. Humanisierung der Eroberungen dienen, sondern dass vor allem auch die Figur des Übersetzers zum Zweck der Identitätskonstruktion (sowohl der eigenen als auch der des anderen), der Herstellung sowie Aufrechterhaltung asymmetrischer Dominanzverhältnisse und der Konstruktion bzw. Bestätigung bereits bestehender Geschlechterrollen funktionalisiert wird. Es wird gezeigt, dass „Übersetzung“, welche oftmals als völkerverbindendes Mittel der Kommunikation dargestellt wird, vor allem im Kontext der Eroberung nicht unbedingt ein friedliches Instrument darstellt, sondern enormes Macht- und Gewaltpotential in sich birgt. Außerdem gehen aus den Analysen die Konturen einer Forschungslücke hervor, die noch weitere Untersuchen ermöglicht, nicht nur in Bezug auf den Bereich des oralen Übersetzungsprozesses, sondern vor allem auch, was den Bereich der kulturellen Übersetzung betrifft.
Nachdem zunächst Ziel und Forschungsgegenstand dieses Aufsatzes erläutert (1.2.1) wurden, werden die Definitionen der Leitbilder verdeutlicht, der in diesem Aufsatz eine zentrale Rolle spielen (1.2.2). Danach werden die vorangegangenen Studien über die „Leitbilder“ der deutschen Außenpolitik zusammengefasst und die Fragestellung dieser Arbeit diskutiert (1.2.3). Da ein Ziel dieser Arbeit die Verdeutlichung der Kontinuitätsund Wandelseite des „Leitbildes“ ist, das die deutsche Außenpolitik in der Realität verfolgt, fasst der Verfasser schließlich die Debatte über „Kontinuität und Wandel der deutschen Außenpolitik“ zusammen. Hier wird der Verfasser die Debatte über „Kontinuität und Wandel der deutschen Außenpolitik“ mit der Debatte über „Leitbilder“ der deutschen Außenpolitik konvergieren. Dadurch wird der Verfasser verdeutlichen, dass sich im „Leitbild“ die Essenz der deutschen Außenpolitik widerspiegelt (1.2.4).
Based on an original dataset of 100 important pieces of legislation passed during the three presidencies of William J. Clinton, George W. Bush, and Barack H. Obama (1992-2013), this study explores two sets of questions:
(1) How do presidents influence legislators in Congress in the legislative arena, and what factors have an effect on the legislative strategies presidents choose?
(2) How successful are presidents in getting their policy positions enacted into law, and what configurations of institutional and actor-centered conditions determine presidential legislative success?
The analyses show that in an hyper-polarized environment, presidents usually have to fight an uphill-battle in the legislative arena, getting more involved if they face less favorable contexts and the odds are against them.
Moreover, the analyses suggest that there is no silver-bullet approach for presidents' legislative success. Instead, multiple patterns of success exist as presidents - depending on the institutional and public environment - can resort to different combinations of actions in order to see their preferred policy outcomes enacted.
Das Ziel der vorliegenden Arbeit bestand darin, narrative Identitätsformationen jüdischer Jugendliche in Deutschland zu rekonstruieren. Aufgrund der Analyse des empirischen Materials und anhand des erwähnten Forschungsinteresses wurden in der Arbeit drei unterschiedliche – dennoch zueinander in Beziehung stehende – zentrale Typologien der narrativen Identität jüdischer Jugendlicher erarbeitet.46 Während sich die erste Typologie allein auf die Migrationserfahrung beschränkt, werden in der zweiten und dritten Typologie beide – zugewanderte und ‚alteingesessene‘ – Befragtengruppen in den Blick genommen: (i) Typologie der Akkulturationsnarrative, die der Frage nach der Auseinandersetzung der zugewanderten Jugendlichen mit kulturellen Vorstellungen und Vorbildern im Verlauf des Migrationsprozesses nachgeht. (ii) Typologie der Identitätsentwicklung im Spannungsfeld des Mehrheits-Minderheits-Verhältnisses, welche die Bedeutung der Fähigkeit zur Rollendistanzierung und Ambiguitätstoleranz in der Interaktion mit der Mehrheitsgesellschaft untersucht. (iii) Typologie der jüdischen, religiösen und ethnischen Sozialisation, die danach fragt, woran die Jugendlichen ihre Zugehörigkeit zum jüdischen Kollektiv festmachen und welche Identitätsentwürfe sich dabei feststellen lassen. ....
Mit der vorliegenden Arbeit ist der eindeutige experimentelle Nachweis für die Existenz eines 1997 [Ced97] vorhergesagten, neuartigen Zerfallskanals für Van-der-Waals-gebundene Systeme erbracht worden. Die Untersuchungen wurden an einem Neondimer durchgeführt. Erzeugt man in einem Atom dieses Dimers durch Synchrotronstrahlung eine 2s-Vakanz, so wird diese durch ein 2p-Elektron aufgefüllt. Die hierbei freiwerdende Energie wird an das zweite Atom des Dimers in Form eines virtuellen Photons übertragen und löst dort ein Elektron aus einer äußeren Schale. Untersucht wurde dieser Zerfall namens „Interatomic Coulombic Decay” (ICD) durch Koinzidenzimpulsspektroskopie (COLTRIMS) [Doe00, Ull03, Jah04b]. Der Nachweis der Existenz des Effekts erfolgte dadurch, dass die Summe der Energien der Photofragmente - und im Speziellen des ICD-Elektrons und der beiden im Zerfall entstehenden Ne+-Ionen - eine Konstante ist. Durch die koinzidente Messung der Impulse, der im Zerfall entstehenden Teilchen, konnte hierdurch ICD eindeutig identifiziert werden. Die Übereinstimmung der gemessenen Energiespektren mit aktuellen theoretischen Vorhersagen [Sche04b, Jah04c] ist exzellent. Dadurch, dass das Dimer nach dem IC-Zerfall in einer Coulomb-Explosion fragmentiert, konnten des Weiteren Untersuchungen, wie sie in den letzten Jahren an einfachen Molekülen durchgeführt wurden [Web01, Lan02, Jah02, Web03b, Osi03b, Jah04a], auch am Neondimer erfolgen: Durch die Messung der Ausbreitungsrichtung der ionischen Fragmente des Dimers nach der Coulomb-Explosion wird die räumliche Ausrichtung des Dimers zum Zeitpunkt der Photoionisation bestimmt. Die gemessenen Impulse der emittierten Elektronen können dadurch im Bezug zur Dimerachse dargestellt werden. In dieser Arbeit wurden somit Messungen der Winkelverteilung der 2s-Photoelektronen und des ICD-Elektrons im laborfesten und auch dimerfesten Bezugssystem vorgestellt und mit vorhandenen theoretischen Vorhersagen verglichen. Die Winkelverteilung des Photoelektrons ähnelt stark der Verteilung, die man nach der Photoionisation eines einzelnen Neonatoms erhält und hat somit fast reinen Dipolcharakter. Die Präsenz des zweiten Atoms des Dimers verursacht nur leichte Modulationen, so dass auch die Änderung der Ausrichtung der Dimerachse im Bezug zur Polarisationsrichtung des linear polarisierten Lichtes nur geringe Auswirkungen hat. Durch die koinzidente Messung aller vier nach der Photoionisation entstehenden Teilchen konnte außerdem ein weiterer Doppelionisationsmechanismus des Dimers nachgewiesen werden: Ähnlich wie in einzelnen Atomen [Sam90] gibt es auch in Clustern den TS1-Prozess. Hierbei wird ein 2p-Elektron aus dem einen Atom des Dimers herausgelöst. Es streut dann an einem 2p-Elektron des anderen Atoms, das hierdurch ionisiert wird. Diese etwas andere Form des TS1 im Cluster ist also genau wie ICD ein interatomarer Vorgang. Die Summe der Energien der beiden, in diesem Prozess entstehenden Elektronen hat einen festen Wert von h... − 2 · IP(2p) − KER = 12 eV, so dass dieser Prozess hierdurch im Experiment gefunden werden konnte. Die gemessenen Zwischenwinkel zwischen den beiden Elektronen zeigen des Weiteren genau die für zwei sich abstoßende Teilchen typische Verteilung einer Gauss-Kurve mit einem Maximum bei 180 Grad. Da im Falle von interatomarem TS1 die Potentialkurve der Coulomb-Explosion direkt aus dem Grundzustand populiert wird, konnte im Rahmen der „Reflexion Approximation” die Wahrscheinlichkeitsverteilung der Abstände der beiden Dimeratome experimentell visualisiert werden. Das Betragsquadrat des Kernanteils der Dimergrundzustandswellenfunktion wurde somit direkt vermessen. Die Messungen wurden bei drei verschiedenen Photonenenergien durchgeführt, um die Ergebnisse weiter abzusichern und robuster gegen eventuelle systematische Fehler zu machen. Da kein isotopenreines Neongas im Experiment eingesetzt wurde, konnten genauso Ionisations- und ICD-Ereignisse von isotopischen Dimeren (20Ne22Ne) beobachtet und ausgewertet werden. Die gemessenen Spektren sind innerhalb der Messtoleranzen identisch zu denen für 20Ne2.
Paläoklimarekonstruktionen, die es sich zum Ziel gesetzt haben, Klima-Mensch Interaktionen auf lange Zeitreihen betrachtet zu erforschen, nehmen begünstigt durch die aktuell intensiv geführte Klimadebatte, einen immer größer werdenden Stellenwert in der öffentlichen und wissenschaftlichen Wahrnehmung ein. Denn trotz aller wissenschaftlicher Fortschritte, die in den vergangenen Jahrzehnten im Bereich der modernen Klimaforschung gemacht wurden, bleibt die zuverlässige Vorhersage und Modellierung von zukünftigen Klimaveränderungen noch immer eine der größten Herausforderungen unser heutigen Zeit. Betrachtet man die Karibik exemplarisch in diesem Rahmen, dann prognostizieren viele Modellrechnungen, infolge steigender Ozeantemperaturen, ein deutlich häufigeres Auftreten von tropischen Stürmen und Hurrikanen sowie eine Verschiebung hin zu höheren Sturmstärken. Dieser Trend stellt für die Karibik und viele daran angrenzende Staaten eine der größten Gefahren des modernen Klimawandels dar, den es wissenschaftlich über einen langen Zeitrahmen zu erforschen gilt.
Klimaprognosen stützen sich meist vollständig auf hoch-aufgelöste instrumentelle Datensätze. Diese sind aber alle durch einen wesentlichen Aspekt limitiert. Aufgrund ihrer eingeschränkten Verfügbarkeit (~150 Jahre) fehlt ihnen die erforderliche Tiefe, um die auf langen Zeitskalen operierenden Prozesse der globalen Klimadynamik adäquat abbilden zu können. Betrachtet man das Holozän in seiner Gesamtheit, so wurde die globale Klimadynamik über die vergangenen ~11,700 Jahre von periodisch auftretenden Prozessen und Abläufen gesteuert. Diese wirken grundsätzlich über Zeiträume von mehreren Jahrzehnten, teilweise Jahrhunderten und in einigen Fällen sogar Jahrtausenden. Viele dieser natürlichen Prozesse, können in der kurzen Instrumentellen Ära nicht gänzlich identifiziert und angemessen in Klimamodellen berücksichtig werden. Die alleinige Berücksichtigung der Instrumentellen Ära bietet daher nur eine eingeschränkte Perspektive, um die Ursachen und Abläufe von vergangenen sowie mögliche Folgen von zukünftigen Klimaveränderungen zu verstehen. Um diese Einschränkung zu überwinden, ist es somit erforderlich, dass die geowissenschaftliche Forschung mit Proxymethoden ein zusammenfassendes und mechanistisches Verständnis über alle Holozänen Klimaveränderungen erlangt.
Wenn man sich diese Limitierung, die ansteigenden Ozeantemperaturen und das in der Karibik in den vergangen 20 Jahren vermehrte Auftreten von starken tropischen Zyklonen ins Gedächtnis ruft, ist es nachvollziehbar, dass im Rahmen dieser Doktorarbeit ein zwei Jahrtausende langer und jährlich aufgelöster Klimadatensatz erarbeitet werden soll, der spät Holozäne Variationen von Ozeanoberflächenwasser-temperaturen (SST) und daraus resultierende lang-zeitliche Veränderungen in der Häufigkeit tropischer Zyklone widerspiegelt. In Zentralamerika wird das Ende der Maya Hochkultur (900-1100 n.Chr.) mit drastischen Umweltveränderungen (z.B. Dürren) assoziiert, die während der Mittelalterlichen Warmzeit (MWP; 900-1400 n.Chr.) durch eine globale Klimaveränderung hervorgerufen wurde. Die aus einem „Blue Hole“ abgeleiteten Informationen über Klimavariationen der Vergangenheit können als Referenz für die gegenwärtige Klimakriese verwendet werden.
Als „Blue Hole“ wird eine Karsthöhle bezeichnet, die sich subaerisch während vergangener Meeresspiegeltiefstände im karbonatischen Gerüst eines Riffsystems gebildet hat und in Folge eines Meeresspiegelanstiegs vollständig überflutet wurde. In einigen wenigen marinen „Blue Holes“ treten anoxische Bodenwasserbedingungen auf. Die in diesen anoxischen Karsthöhlen abgelagerten Abfolgen mariner Sedimente können als einzigartiges Klimaarchiv verwendet werden, da sie aufgrund des Fehlens von Bioturbation eine jährliche Schichtung (Warvierung) aufweisen.
In dieser kumulativen Dissertation über das „Great Blue Hole“ werden die Ergebnisse eines 3-jährigen Forschungsprojekts vorgestellt, dass das Ziel verfolgte einen wissenschaftlich herausragenden spät Holozänen Klimadatensatz für die süd-westliche Karibik zu erzeugen. Beim „Great Blue Hole“ handelt es sich um ein weltweit einzigartiges marines Sedimentarchiv für diverse spät Holozäne Klima-veränderungen, das im Zuge dieser Dissertation sowohl nach paläoklimatischen als auch nach sedimentologischen Fragestellungen untersucht wurde. Die vorliegende Doktorarbeit befasst sich im Einzelnen mit (1) der Ausarbeitung eines jährlich aufgelösten Archives für tropische Zyklone, (2) der Entwicklung eines jährlich aufgelösten SST Datensatzes und (3) einer kompositionellen Quantifizierung der sedimentären Abfolgen sowie einer faziell-stratigraphischen Charakterisierung von Schönwetter-Sedimenten und Sturmlagen. Zu jedem dieser drei Aspekte, wurde jeweils ein Fachartikel bei einer anerkannten wissenschaftlichen Fachzeitschrift mit „peer-review“ Verfahren veröffentlicht.
Der insgesamt 8.55 m lange Sedimentbohrkern („BH6“), der für diese Dissertation untersucht wurde, stammt vom Boden des 125 m tiefen und 320 m breiten „Great Blue Holes“, das sich in der flachen östlichen Lagune des 80 km vor der Küste von Belize (Zentralamerika) gelegenen „Lighthouse Reef“ Atolls befindet. Durch seine besondere Geomorphologie wirkt das, innerhalb des atlantischen „Hurrikan Gürtels“ positionierte, „Great Blue Hole“ wie eine gigantische Sedimentfalle. Die unter Schönwetter-Bedingungen kontinuierlich abgelagerten Abfolgen feinkörniger karbonatischer Sedimente, werden von groben Sturmlagen unterbrochen, die auf „over-wash“ Prozesse von tropischen Zyklonen zurückzuführen sind.
...
Kraftfelder sind ein vielseitiges Werkzeug zur schnellen Berechnung vielfältiger Moleküleigenschaften. Die Qualität der damit erhaltenen Vorhersagen ist auch ein Maß, wie gut die wichtigen Einflussgrößen verstanden und vor allem in das Kraftfeld-Modell integriert sind. Bei der Parametrisierung müssen viele Effekte gegeneinander ausbalanciert werden, da die Kraftfeldterme nicht unabhängig voneinander betrachtet werden können. Umfangreiche Testrechnungen sind erforderlich, um die notwendige Qualität der Parameter sicher zu stellen. Eine Automatisierung dieses Prozesses bringt nicht nur eine enorme Zeitersparnis, sie zwingt auch zur sorgfältigen Definition von Vorgaben und Qualitätskriterien. Die Formulierung einer Strategie in einem Programm anstelle von „intelligentem Raten“ fördert zudem ein tieferes Verständnis. Bei einer Änderung der Strategie muss nur das entsprechende Programm geändert werden, dem Entwickler bleibt der manuelle Test erspart. Automatische Methoden zur Plausibilitätsprüfung vermeiden Probleme durch Fehler bei der Dateneingabe von Hand. Die programmgesteuerte Erstellung aussagekräftiger Protokolle und Grafiken macht die Fülle der bei der Parametrisierung und Evaluierung eines Kraftfeldes anfallenden Informationen für den Benutzer überschaubar. Probleme und deren Zusammenhang können so leichter erfasst werden. Für das MOMO-Kraftfeld konnten auf diese Weise verbesserte und neue Parameter für Wasserstoffbrücken abgeleitet werden, zwei empirische Punktladungsmodelle und deren Verträglichkeit mit zwei quantenchemischen Modellen verbessert und prinzipielle Probleme bei deren Vereinbarkeit erkannt werden sowie die automatische Parametrisierung von Bindungslängen, Bindungswinkeln und Torsionswinkeln ermöglicht werden. Bei Letzterem konnte jedoch keine Verbesserung gegenüber den Originalparametern erreicht werden, was nicht weiter verwunderlich ist, da diese seit Jahrzehnten entwickelt worden sind, wohingegen Wasserstoffbrücken und Partialladungen erst später hinzugekommen sind und nicht so umfangreich wie die bindenden Kraftfeldterme getestet wurden. Voraussetzung für die hier gewählte Vorgehensweise, alle Arbeiten weitgehend zu automatisieren und Strategien immer in Programme umzusetzen, waren sehr umfangreiche Programmierarbeiten. Ziel war es, auf einfache Weise die Steuerung des Kraftfeldes aus kleineren Programmen, die spezielle Probleme bearbeiten, zuzulassen. Durch die Nutzung zahlreicher Open-Source-Projekte, die gemeinsam die gewünschte Funktionalität zur Verfügung stellen, konnte der Aufwand auf die dazu passende Implementierung des MOMO-Kraftfeldes und das Verbinden mit der von diesen Projekten bereitgestellten Software beschränkt werden. Der Kern des MOMO-Kraftfeldes wurde aus Geschwindigkeitsgründen in der Compilersprache C geschrieben, Datenein- und -ausgabe und die Programme zur Parametrisierung und Auswertung wurden in Python geschrieben.