Refine
Year of publication
- 2013 (152) (remove)
Document Type
- Doctoral Thesis (152) (remove)
Has Fulltext
- yes (152)
Is part of the Bibliography
- no (152)
Keywords
- UrQMD (2)
- A-Discriminant (1)
- ALICE (1)
- ALICE experiment (1)
- Acculturation (1)
- Adolescence (1)
- Agent (1)
- Akkulturation (1)
- Aktivierungsmethode (1)
- Akustik (1)
Institute
- Biowissenschaften (29)
- Biochemie und Chemie (24)
- Physik (21)
- Medizin (9)
- Pharmazie (8)
- Geowissenschaften (7)
- Informatik (6)
- Informatik und Mathematik (6)
- Psychologie (6)
- Geschichtswissenschaften (4)
Spin waves in yttrium-iron garnet has been the subject of research for decades. Recently the report of Bose-Einstein condensation at room temperature has brought these experiments back into focus. Due to the small mass of quasiparticles compared to atoms for example, the condensation temperature can be much higher. With spin-wave quasiparticles, so-called magnons, even room temperature can be reached by externally injecting magnons. But also possible applications in information technologies are of interest. Using excitations as carriers for information instead of charges delivers a much more efficient way of processing data. Basic logical operations have already been realized. Finally the wavelength of spin waves which can be decreased to nanoscale, gives the opportunity to further miniaturize devices for receiving signals for example in smartphones.
For all of these purposes the magnon system is driven far out of equilibrium. In order to get a better fundamental understanding, we concentrate in the main part of this thesis on the nonequilibrium aspect of magnon experiments and investigate their thermalization process. In this context we develop formalisms which are of general interest and which can be adopted to many different kinds of systems.
A milestone in describing gases out of equilibrium was the Boltzmann equation discovered by Ludwig Boltzmann in 1872. In this thesis extensions to the Boltzmann equation with improved approximations are derived. For the application to yttrium-iron garnet we describe the thermalization process after magnons were excited by an external microwave field.
First we consider the Bose-Einstein condensation phenomena. A special property of thin films of yttrium-iron garnet is that the dispersion of magnons has its minimum at finite wave vectors which leads to an interesting behavior of the condensate. We investigate the spatial structure of the condensate using the Gross-Pitaevskii equation and find that the magnons can not condensate only at the energy minimum but that also higher Fourier modes have to be occupied macroscopically. In principle this can lead to a localization on a lattice in real space.
Next we use functional renormalization group methods to go beyond the perturbation theory expressions in the Boltzmann equation. It is a difficult task to find a suitable cutoff scheme which fits to the constraints of nonequilibrium, namely causality and the fluctuation-dissipation theorem when approaching equilibrium. Therefore the cutoff scheme we developed for bosons in the context of our considerations is of general interest for the functional renormalization group. In certain approximations we obtain a system of differential equations which have a similar transition rate structure to the Boltzmann equation. We consider a model of two kinds of free bosons of which one type of boson acts as a thermal bath to the other one. Taking a suitable initial state we can use our formalism to describe the dynamics of magnons such that an enhanced occupation of the ground state is achieved. Numerical results are in good agreement with experimental data.
Finally we extend our model to consider also the pumping process and the decrease of the magnon particle number till thermal equilibrium is reached again. Additional terms which explicitly break the U(1)-symmetry make it necessary to also extend the theory from which a kinetic equation can be deduced. These extensions are complicated and we therefore restrict ourselves to perturbation theory only. Because of the weak interactions in yttrium-iron garnet this provides already good results.
A stochastic model for the joint evaluation of burstiness and regularity in oscillatory spike trains
(2013)
The thesis provides a stochastic model to quantify and classify neuronal firing patterns of oscillatory spike trains. A spike train is a finite sequence of time points at which a neuron has an electric discharge (spike) which is recorded over a finite time interval. In this work, these spike times are analyzed regarding special firing patterns like the presence or absence of oscillatory activity and clusters (so called bursts). These bursts do not have a clear and unique definition in the literature. They are often fired in response to behaviorally relevant stimuli, e.g., an unexpected reward or a novel stimulus, but may also appear spontaneously. Oscillatory activity has been found to be related to complex information processing such as feature binding or figure ground segregation in the visual cortex. Thus, in the context of neurophysiology, it is important to quantify and classify these firing patterns and their change under certain experimental conditions like pharmacological treatment or genetical manipulation. In neuroscientific practice, the classification is often done by visual inspection criteria without giving reproducible results. Furthermore, descriptive methods are used for the quantification of spike trains without relating the extracted measures to properties of the underlying processes.
For that reason, a doubly stochastic point process model is proposed and termed 'Gaussian Locking to a free Oscillator' - GLO. The model has been developed on the basis of empirical observations in dopaminergic neurons and in cooperation with neurophysiologists. The GLO model uses as a first stage an unobservable oscillatory background rhythm which is represented by a stationary random walk whose increments are normally distributed. Two different model types are used to describe single spike firing or clusters of spikes. For both model types, the distribution of the random number of spikes per beat has different probability distributions (Bernoulli in the single spike case or Poisson in the cluster case). In the second stage, the random spike times are placed around their birth beat according to a normal distribution. These spike times represent the observed point process which has five easily interpretable parameters to describe the regularity and the burstiness of the firing patterns.
It turns out that the point process is stationary, simple and ergodic. It can be characterized as a cluster process and for the bursty firing mode as a Cox process. Furthermore, the distribution of the waiting times between spikes can be derived for some parameter combination. The conditional intensity function of the point process is derived which is also called autocorrelation function (ACF) in the neuroscience literature. This function arises by conditioning on a spike at time zero and measures the intensity of spikes x time units later. The autocorrelation histogram (ACH) is an estimate for the ACF. The parameters of the GLO are estimated by fitting the ACF to the ACH with a nonlinear least squares algorithm. This is a common procedure in neuroscientific practice and has the advantage that the GLO ACF can be computed for all parameter combinations and that its properties are closely related to the burstiness and regularity of the process. The precision of estimation is investigated for different scenarios using Monte-Carlo simulations and bootstrap methods.
The GLO provides the neuroscientist with objective and reproducible classification rules for the firing patterns on the basis of the model ACF. These rules are inspired by visual inspection criteria often used in neuroscientific practice and thus support and complement usual analysis of empirical spike trains. When applied to a sample data set, the model is able to detect significant changes in the regularity and burst behavior of the cells and provides confidence intervals for the parameter estimates.
Das Gehirn ist die wohl komplexeste Struktur auf Erden, die der Mensch erforscht. Es besteht aus einem riesigen Netzwerk von Nervenzellen, welches in der Lage ist eingehende sensorische Informationen zu verarbeiten um daraus eine sinnvolle Repräsentation der Umgebung zu erstellen. Außerdem koordiniert es die Aktionen des Organismus um mit der Umgebung zu interagieren. Das Gehirn hat die bemerkenswerte Fähigkeit sowohl Informationen zu speichern als auch sich ständig an ändernde Bedingungen anzupassen, und zwar über die gesamte Lebensdauer. Dies ist essentiell für Mensch oder Tier um sich zu entwickeln und zu lernen. Die Grundlage für diesen lebenslangen Lernprozess ist die Plastizität des Gehirns, welche das riesige Netzwerk von Neuronen ständig anpasst und neu verbindet. Die Veränderungen an den synaptischen Verbindungen und der intrinsischen Erregbarkeit jedes Neurons finden durch selbstorganisierte Mechanismen statt und optimieren das Verhalten des Organismus als Ganzes. Das Phänomen der neuronalen Plastizität beschäftigt die Neurowissenschaften und anderen Disziplinen bereits über mehrere Jahrzehnte. Dabei beschreibt die intrinsische Plastizität die ständige Anpassung der Erregbarkeit eines Neurons um einen ausbalancierten, homöostatischen Arbeitsbereich zu gewährleisten. Aber besonders die synaptische Plastizität, welche die Änderungen in der Stärke bestehender Verbindungen bezeichnet, wurde unter vielen verschiedenen Bedingungen erforscht und erwies sich mit jeder neuen Studie als immer komplexer. Sie wird durch ein komplexes Zusammenspiel von biophysikalischen Mechanismen induziert und hängt von verschiedenen Faktoren wie der Frequenz der Aktionspotentiale, deren Timing und dem Membranpotential ab und zeigt außerdem eine metaplastische Abhängigkeit von vergangenen Ereignissen. Letztlich beeinflusst die synaptische Plastizität die Signalverarbeitung und Berechnung einzelner Neuronen und der neuronalen Netzwerke.
Der Schwerpunkt dieser Arbeit ist es das Verständnis der biologischen Mechanismen und deren Folgen, die zu den beobachteten Plastizitätsphänomene führen, durch eine stärker vereinheitlichte Theorie voranzutreiben.Dazu stelle ich zwei funktionale Ziele für neuronale Plastizität auf, leite Lernregeln aus diesen ab und analysiere deren Konsequenzen und Vorhersagen.
Kapitel 3 untersucht die Unterscheidbarkeit der Populationsaktivität in Netzwerken als funktionales Ziel für neuronale Plastizität. Die Hypothese ist dabei, dass gerade in rekurrenten aber auch in vorwärtsgekoppelten Netzwerken die Populationsaktivität als Repräsentation der Eingangssignale optimiert werden kann, wenn ähnliche Eingangssignale eine möglichst unterschiedliche Repräsentation haben und dadurch für die nachfolgende Verarbeitung besser unterscheidbar sind. Das funktionale Ziel ist daher diese Unterscheidbarkeit durch Veränderungen an den Verbindungsstärke und der Erregbarkeit der Neuronen mithilfe von lokalen selbst-organisierten Lernregeln zu maximieren. Aus diesem funktionale Ziel lassen sich eine Reihe von Standard-Lernenregeln für künstliche neuronale Netze gemeinsam abzuleiten.
Kapitel 4 wendet einen ähnlichen funktionalen Ansatz auf ein komplexeres, biophysikalisches Neuronenmodell an. Das Ziel ist eine spärliche, stark asymmetrische Verteilung der synaptischen Stärke, wie sie auch bereits mehrfach experimentell gefunden wurde, durch lokale, synaptische Lernregeln zu maximieren. Aus diesem funktionalen Ansatz können alle wichtigen Phänomene der synaptischen Plastizität erklärt werden. Simulationen der Lernregel in einem realistischen Neuronmodell mit voller Morphologie erklären die Daten von timing-, raten- und spannungsabhängigen Plastizitätsprotokollen. Die Lernregel hat auch eine intrinsische Abhängigkeit von der Position der Synapse, welche mit den experimentellen Ergebnissen übereinstimmt. Darüber hinaus kann die Lernregel ohne zusätzliche Annahmen metaplastische Phänomene erklären. Dabei sagt der Ansatz eine neue Form der Metaplastizität voraus, welche die timing-abhängige Plastizität beeinflusst. Die formulierte Lernregel führt zu zwei neuartigen Vereinheitlichungen für synaptische Plastizität: Erstens zeigt sie, dass die verschiedenen Phänomene der synaptischen Plastizität als Folge eines einzigen funktionalen Ziels verstanden werden können. Und zweitens überbrückt der Ansatz die Lücke zwischen der funktionalen und mechanistische Beschreibungsweise. Das vorgeschlagene funktionale Ziel führt zu einer Lernregel mit biophysikalischer Formulierung, welche mit etablierten Theorien der biologischen Mechanismen in Verbindung gebracht werden kann. Außerdem kann das Ziel einer spärlichen Verteilung der synaptischen Stärke als Beitrag zu einer energieeffizienten synaptischen Signalübertragung und optimierten Codierung interpretiert werden.
Der Begriff psychologische Akkulturation beschreibt jene Veränderungen, die infolge des dauerhaften Aufeinandertreffens verschiedener kultureller Gruppen auf individueller Ebene zu beobachten sind (Berry, 1997). Die vorliegende Arbeit umfasst drei Publikationen, die sich mit Akkulturationsprozessen von Kindern und Jugendlichen mit Migrationshintergrund in Deutschland befassen. Zunächst wird ein Überblick über den aktuellen Stand der Forschung zur Situation junger Migranten in Deutschland vorgelegt. An zentraler Stelle steht dabei die Frage, wie die Migrationsgeschichte und Immigrationspolitik Deutschlands sowie die öffentliche Einstellung gegenüber Migranten die transkulturelle Adaptation von Kindern und Jugendlichen nicht-deutscher ethno-kultureller Herkunft beeinflussen. Bereits bestehende wissenschaftliche Erkenntnisse werden verknüpft mit den Ergebnissen neuerer empirischer Studien um zu einem tieferen Verständnis der Ursachen für die vielfach berichteten problematischen Verläufe psychologischer und soziokultureller Adaptation von Migranten beizutragen. Neben anderen Risiken und protektiven Faktoren wird diskutiert, wie sich Besonderheiten Deutschlands als Aufnahmeland, wie z.B. die Eigenarten des Schulsystems, auf Adaptationsverläufe auswirken können. Unsere eigenen Studien tragen zum Verständnis der Anpassungsprozesse junger Migranten bei, indem sie aufzeigen, dass nicht die Akkulturationsstrategie der Integration, sondern speziell die Orientierung an der deutschen Kultur bei Individuen zu den günstigsten psychologischen und soziokulturellen Ergebnissen zu führen scheint. Im Rahmen dieser Arbeit wird weiterhin ein empirischer und methodologischer Beitrag zur Akkulturationsforschung geleistet, indem ein Messinstrument zur Erfassung psychologischer Akkulturation bei Kindern im deutschen Sprachraum – die Frankfurter Akkulturationsskala für Kinder (FRAKK-K)– entwickelt, validiert und schließlich anhand einer Fragestellung praktisch angewandt wird. Die Skalenentwicklung und –optimierung erfolgte auf der Grundlage von zwei Studien, welche Daten von 387 Grundschülern aus zwei städtischen Regionen in Deutschland umfassen (Frankenberg & Bongard, 2013). Die Ergebnisse konfirmatorischer Faktorenanalysen sprechen für zwei Faktoren, Orientierung an der Aufnahmekultur und Orientierung an der Herkunftskultur, die jeweils mittels 6 Items erfasst werden. Beide Subskalen weisen eine zufriedenstellende interne Reliabilität und Kriteriumsvalidität auf und lassen sich zwecks Erfassung der Akkulturationsstrategie kombinieren (i.e. Assimilation, Integration, Separation und Marginalisierung). In einer ersten praktischen Anwendung der Skala wird der Frage nachgegangen, inwiefern erweiterter Musikunterricht und Orchesterspiel in der Grundschule über verstärkte Gruppenkohäsion zur Förderung kultureller Integration beitragen können.
Grundschüler, die in einem Orchester gespielt haben, zeigen über einen Zeitraum von 1,5 Jahren einen stärkeren Anstieg der Orientierung an der deutschen Kultur als Schüler, die keinen erweiterten Musikunterricht erhielten. Musikschüler fühlen sich außerdem stärker in die Klassengemeinschaft integriert. Dies deutet darauf hin, dass die Erfahrung der Zusammenarbeit und des Musizierens innerhalb einer Gruppengemeinschaft zu einer stärkeren Orientierung an der deutschen Kultur geführt hat. Die Orientierung an der Herkunftskultur blieb unbeeinflusst. Somit können Programme, die jungen Migranten die Gelegenheit bieten Musik innerhalb einer größeren, kulturell heterogenen Gruppe aufzuführen, als eine effektive Intervention zur Förderung der kulturellen Anpassung an die Mehrheitskultur und der Integration innerhalb – und außerhalb – des Klassenzimmers führen.
Abschließend werden die Ergebnisse der empirischen Untersuchungen vor dem Hintergrund des aktuellen Forschungsstandes zu neueren Akkulturationsmodellen sowie zu der Terminologie und den methodischen Herausforderungen des Forschungsfeldes in Beziehung gesetzt und kritisch reflektiert. Daraus abgeleitet werden Implikationen für zukünftige Interventionen und Forschung diskutiert.
Adaptive Radiation und Zoogeographie anisakider Nematoden verschiedener Klimazonen und Ozeane
(2013)
Anisakide Nematoden sind Parasiten aquatischer Organismen und weltweit in marinen Habitaten verbreitet. Ihre Übertragungswege sind tief im marinen Nahrungsnetz verwurzelt und schließen ein breites Spektrum pelagisch/benthischer Invertebraten (z.B. Cephalopoda, Gastropoda, Crustacea, Polychaeta) und Vertebraten (z.B. Teleostei, Elasmobranchia, Cetacea, Pinnipedia, Aves) als Zwischen- bzw. Endwirte ein. Aufgrund der hohen Befallszahlen u.a. in der Muskulatur und Viszera kommerziell intensiv genutzter Fischarten (z.B. Clupea harengus, Gadus morhua, Salmo salar) sowie ihrer Rolle als Auslöser der menschlichen Anisakiasis nehmen die Vertreter der Gattung Anisakis unter den anisakiden Nematoden eine Sonderstellung ein. Anhand der verbesserten Diagnostik und der Etablierung sowie Weiterentwicklung molekularbiologischer Methoden ist es in den letzten zwei Dekaden gelungen, die bestehende Taxonomie und Systematik der Gattung Anisakis zu erweitern bzw. zu revidieren. Aktuelle molekulare Analysen weisen auf die Existenz von insgesamt neun distinkten Arten hin, welche eine hohe genetische Heterogenität und Wirtsspezifität aufweisen, äußerlich jedoch nahezu identisch sind (sog. kryptische Arten). Trotz kontinuierlicher Forschung auf dem Gebiet ist das Wissen über die Biologie von Anisakis immer noch unzureichend.
Die vorliegende Dissertation ist in kumulativer Form verfasst und umfasst drei (ISI-) Einzelpublikationen. Die Zielsetzung der durchgeführten Studien bestand unter anderem darin, unter Verwendung molekularbiologischer und computergestützter Analyseverfahren, Fragestellungen zur Zoogeographie, (Co-)Phylogenie, Artdiagnostik, Lebenszyklus-Ökologie sowie des bioindikatorischen Potentials dieser Gattung zu bearbeiten und bestehende Wissenslücken zu schließen.
Die Verbreitung von Anisakis, welche bisher ausschließlich anhand von biogeographischen Einzelnachweisen abgeschätzt wurde, konnte durch den angewandten Modellierungsansatz erstmalig interpoliert und in Kartenform vergleichend dargestellt werden. Dabei wurde gezeigt, dass die Verbreitung von Anisakis spp. in den Ozeanen und Klimazonen nicht gleichmäßig ist. Die Analysen deuten auf die Existenz spezies-spezifischer horizontaler und vertikaler Verbreitungsmuster hin, welche neben abiotischen Faktoren durch die Verbreitung und Abundanz der jeweiligen Zwischen- und Endwirte sowie deren Tiefenverteilung und Nahrungspräferenzen geprägt sind.
Durch die umfangreiche Zusammenstellung und anschließende Kategorisierung der (mit molekularen Methoden) geführten Zwischenwirtsnachweise konnten indirekte Rückschlüsse über die vertikale Verbreitung von Anisakis spp. entlang der Tiefenhabitate gezogen werden.
Während Anisakis auf Gattungsebene in der gesamten Wassersäule entlang verschiedener Tiefenhabitate abundant ist, wurde für die stenoxene Art Anisakis paggiae ein meso-/bathypelagisch orientierter Lebenszyklus postuliert. Durch den Einbezug eines breiten Spektrums (paratenischer) Zwischen- und Transportwirte aus unterschiedlichen trophischen Ebenen werden Transmissionslücken im Lebenszyklus der Gattung weitestgehend minimiert und der Transmissionserfolg auf den Endwirt, und damit die Wahrscheinlichkeit einer erfolgreichen Reproduktion, erhöht. Ausgeprägte Wirtspräferenzen sowie phylogenetische Analysen des ribosomalen ITS-Markers stützen eine Theorie zur co-evolutiven Anpassung der Parasiten an ihre Endwirte. Anisakis eignet sich daher unter Einschränkungen als Bioindikator für die vertikale und horizontale Verbreitung und Abundanz der Endwirte und lässt Rückschlüsse auf trophische Interaktionen im Nahrungsnetz zu. Durch die weitere Beprobung von Zwischenwirten aus verschiedenen trophischen Ebenen in zukünftigen Studien, kann eine genauere Bewertung potentiell abweichender Lebenszyklus-Strategien gewährleistet werden. Insbesondere ist die Datenlage zur Prävalenz und Abundanz anisakider Nematoden in Cephalopoda und Crustacea noch unzureichend. Die Probennahme sollte dabei unter besonderer Berücksichtigung bislang wenig oder unbeprobter geographischer Regionen, Tiefenhabitate und Wirtsarten durchgeführt werden.
Die vorliegende Dissertation behandelt die Entwicklung eines Verkehrssimulationssystems, welches vollautomatisch aus Landkarten Simulationsgraphen erstellen kann. Der Fokus liegt bei urbanen Simulationsstudien in beliebigen Gemeinden und Städten. Das zweite fundamentale Standbein dieser Arbeit ist daher die Konstruktion von Verkehrsmodellen, die die wichtigsten Verkehrsteilnehmertypen im urbanen Bereich abbilden. Es wurden Modelle für Autos, Fahrräder und Fußgänger entwickelt.
Die Betrachtung des Stands der Forschung in diesem Bereich hat ergeben, dass die Verknüpfung von automatischer Grapherstellung und Modellen, die die Wechselwirkungen der verschiedenen Verkehrsteilnehmertypen abbilden, von keinem vorhandenen System geleistet wird. Es gibt grundlegend zwei Gruppen von Verkehrssimulationssystemen. Zum Einen existieren Systeme, die hohe Genauigkeiten an Simulationsergebnissen erzielen und dafür exakte (teil-)manuelle Modellierung der Gegebenheiten im zu simulierenden Bereich benötigen. Es werden in diesem Bereich meist Verkehrsmodelle simuliert, die die Verhaltensweisen der Verkehrsteilnehmer sehr gut abbilden und hierfür einen hohen Berechnungsaufwand benötigen. Auf der anderen Seiten existieren Simulationssysteme, die Straßengraphen automatisch erstellen können, darauf jedoch sehr vereinfachte Verkehrsmodelle simulieren. Es werden meist nur Autobewegungen simuliert. Der Nutzen dieser Herangehensweise ist die Möglichkeit, sehr große Szenarien simulieren zu können.
Im Rahmen dieser Arbeit wird ein System mit Eigenschaften beider grundlegenden Ansätze entwickelt, um multimodalen innerstädtischen Verkehr auf Basis automatisch erstellter Straßengraphen simulieren zu können. Die Entwicklung eines neuen Verkehrssimulationssystems erschien notwendig, da sich zum Zeitpunkt der Literaturbetrachtung kein anderes vorhandenes System für die Nutzung zur Erfüllung der genannten Zielstellung eignete. Das im Rahmen dieser Arbeit entwickelte System heißt MAINSIM (MultimodAle INnerstädtische VerkehrsSIMulation).
Die Simulationsgraphen werden aus Kartenmaterial von OpenStreetMap extrahiert. Kartenmaterial wird zuerst in verschiedene logische Layer separiert und anschließend zur Bestimmung eines Graphen des Straßennetzes genutzt. Eine Gruppe von Analyseschritten behebt Ungenauigkeiten im Kartenmaterial und ergänzt Informationen, die während der Simulation benötigt werden (z.B. die Verbindungsrichtung zwischen zwei Straßen). Das System verwendet Geoinformationssystemkomponenten zur Verarbeitung der Geodaten. Dies birgt den Vorteil der einfachen Erweiterbarkeit um weitere Datenquellen.
Die Verkehrssimulation verwendet mikroskopische Verhaltensmodelle. Jeder einzelne Verkehrsteilnehmer wird somit simuliert. Das Modell für Autos basiert auf dem in der Verkehrsforschung weit genutzten Nagel-Schreckenberg-Modell. Es verfügt jedoch über zahlreiche Modifikationen und Erweiterungen, um das Modell auch abseits von Autobahnen nutzen zu können und weitere Verhaltensweisen zu modellieren. Das Fahrradmodell entsteht durch geeignete Parametrisierung aus dem Automodell. Zur Entwicklung des Fußgängermodells wurde Literatur über das Verhalten von Fußgängern diskutiert, um daraus geeignete Eigenschaften (z.B. Geschwindigkeiten und Straßenüberquerungsverhaltensmuster) abzuleiten. MAINSIM ermöglicht folglich die Betrachtung des Verkehrsgeschehens auch aus der Sicht der Gruppe der Fußgänger oder Fahrradfahrer und kann deren Auswirkungen auf den Straßenverkehr einer ganzen Stadt bestimmen.
Das Automodell wurde auf Autobahnszenarien und innerstädtischen Straßengraphen evaluiert. Es konnte die gut verstandenen Zusammenhänge zwischen Verkehrsdichte, -fluss und -geschwindigkeit reproduzieren. Zur Evaluierung von Fahrradmodellen liegen nach dem besten Wissen des Autors keine Studien vor. Daher wurden an dieser Stelle der Einfluss der Fahrradfahrer auf den Straßenverkehr und die von Fahrrädern gefahrenen Geschwindigkeiten untersucht. Das Fußgängermodell konnte die aus der Literaturbetrachtung ermittelten Verhaltensweisen abbilden.
Nachdem die wichtigsten Komponenten von MAINSIM untersucht wurden, begannen Fallstudien, die verschiedene Gebiete abdecken. Die wichtigsten Ergebnisse aus diesem Teil der Arbeit sind:
- Es ist möglich, mit Hilfe maschineller Lernverfahren Staus innerhalb Frankfurts vorherzusagen.
- Nonkonformismus bezüglich der Verkehrsregeln kann je nach Verhalten den Verkehrsfluss empfindlich beeinflussen, kann aber auch ohne Effekt bleiben.
- Mit Hilfe von Kommunikationstechniken könnte in der Zukunft die Routenplanung von Autos verbessert werden. Ein Verfahren auf Basis von Pheromonspuren wurde im Rahmen dieser Arbeit untersucht.
- MAINSIM eignet sich zur Simulation großer Szenarien. In der letzten Fallstudie dieser Arbeit wurde der Autoverkehr eines Simulationsgebietes um Frankfurt am Main herum mit ca. 1,6 Mio. Trips pro Tag simuliert. Da MAINSIM über ein Kraftstoffverbrauchs- und CO2-Emissionsmodell verfügt, konnten die CO2-Emissionen innerhalb von Frankfurt ermittelt werden. Eine angekoppelte Simulation des Wetters mit Hilfe einer atmosphärischen Simulation zeigte, wie sich die Gase innerhalb Frankfurts verteilen.
Für den professionellen Einsatz in der Verkehrsforschung muss das entwickelte Simulationssystem um eine Methode zur Kalibrierung auf Sensordaten im Simulationsgebiet erweitert werden. Die vorhandenen Ampelschaltungen bilden nicht reale Ampeln ab. Eine Erweiterung des Systems um die automatische Integrierung maschinell lesbarer Schaltpläne von Ampeln im Bereich des Simulationsgebietes würde die Ergebnisgüte weiter erhöhen.
MAINSIM hat mehrere Anwendungsgebiete. Es können sehr schnell Simulationsgebiete modelliert werden. Daher bietet sich die Nutzung für Vorabstudien an. Wenn große Szenarien simuliert werden müssen, um z.B. die Verteilung der CO2-Emissionen innerhalb einer Stadt zu ermitteln, kann MAINSIM genutzt werden. Es hat sich im Rahmen dieser Arbeit gezeigt, dass Fahrräder und Fußgänger einen Effekt auf die Mengen des Kraftstoffverbrauchs von Autos haben können. Es sollte bei derartigen Szenarien folglich ein Simulationssysytem genutzt werden, welches die relevanten Verkehrsteilnehmertypen abbilden kann. Zur Untersuchung weiterer wissenschaftlicher Fragestellungen kann MAINSIM beliebig erweitert werden.
Die Adoleszenz, d.h. die Reifungsphase des Jugendlichen zum Erwachsenen, stellt einen zentralen Abschnitt in der menschlichen Entwicklung dar, der mit tief greifenden emotionalen und kognitiven Veränderungen verbunden ist. Neure Studien (Bunge et al., 2002; Durston et al., 2002; Casey et al., 2005; Crone et al., 2006; Bunge and Wright, 2007) machen deutlich, dass sich die funktionelle Architektur des Gehirns während der Adoleszenz grundlegend verändert und dass diese Veränderungen mit der Reifung höherer kognitiven Funktionen in der Adoleszenz assoziiert sein könnten. Messungen des Gehirn-Volumens mit Hilfe der Magnet-Resonanz-Tomographie (MRT) zum Beispiel zeigen eine nicht-lineare Reduktion der grauen und eine Zunahme der weißen Substanz während der Adoleszenz (Giedd et al., 1999; Sowell et al., 1999, 2003). Des weiteren treten in dieser Zeit Veränderungen in exzitatorischen und inhibitorischen Neurotransmitter-Systemen auf (Tseng and O’Donnell, 2005; Hashimoto et al., 2009). Zusammen deuten diese Ergebnisse darauf hin, dass während der Adoleszenz ein Umbau der kortikalen Netzwerke stattfindet, der wichtige Konsequenzen für die Reifung neuronaler Oszillationen haben könnte. Im Anschluss an eine Einführung im Kapitel 2, fasst Kapitel 3 der vorliegenden Dissertation die Vorbefunde bezüglich entwicklungsbedingter Veränderungen in der Amplitude, Frequenz und Synchronisation neuronaler Oszillationen zusammen und diskutiert den Zusammenhang zwischen der Entwicklung neuronaler Oszillationen und der Reifung höhere kognitiver Funktionen während der Adoleszenz. Ebenso werden die anatomischen und physiologischen Mechanismen, die diesen Veränderungen möglicherweise zu Grunde liegen könnten, theoretisch vorgestellt. Die in Kapitel 4-6 vorgestellten eigenen empirischen Arbeiten untersuchen neuronale Oszillationen mit Hilfe der Magnetoencephalographie (MEG), um die Frequenzbänder und die funktionellen Netzwerke zu charakterisieren, die mit höheren kognitiven Prozessen und deren Entwicklung in der Adoleszenz assoziiert sind. Hierzu wurden drei Experimente durchgeführt, bei denen MEG-Aktivität während der Bearbeitung einer Arbeitsgedächtnisaufgabe und im Ruhezustand aufgezeichnet wurde. Die Ergebnisse dieser Experimente zeigen, dass Alpha Oszillationen und Gamma-Band Aktivität sowohl task-abhängig als auch im Ruhezustand gemeinsam auftreten. Darüber hinaus ergänzen die vorliegenden Untersuchungen Vorarbeiten, indem sie eine Wechselwirkung zwischen beiden Frequenzbändern aufgezeigt wird, die als ein Mechanismus für das gezielte Weiterleiten von Informationen dienen könnte. Die in Kapitel 6 vorgestellten Entwicklungsdaten weisen weiterhin darauf, dass in der Adoleszenz späte Veränderungen im Alpha und Gamma-Band stattfinden und dass diese Veränderungen involviert sind in die Entwicklung der Arbeitsgedächtnis-Kapazität und die Entwicklung der Fähigkeit, Distraktoren zu inhibieren. Abschliessend werden in Kapitel 7, die in dieser Dissertation vorgestellten Arbeiten, aus einer übergeordneten Perspektive im Gesamtzusammenhang diskutiert.
Driven by rapid technological advancements, the amount of data that is created, captured, communicated, and stored worldwide has grown exponentially over the past decades. Along with this development it has become critical for many disciplines of science and business to being able to gather and analyze large amounts of data. The sheer volume of the data often exceeds the capabilities of classical storage systems, with the result that current large-scale storage systems are highly distributed and are comprised of a high number of individual storage components. As with any other electronic device, the reliability of storage hardware is governed by certain probability distributions, which in turn are influenced by the physical processes utilized to store the information. The traditional way to deal with the inherent unreliability of combined storage systems is to replicate the data several times. Another popular approach to achieve failure tolerance is to calculate the block-wise parity in one or more dimensions. With better understanding of the different failure modes of storage components, it has become evident that sophisticated high-level error detection and correction techniques are indispensable for the ever-growing distributed systems. The utilization of powerful cyclic error-correcting codes, however, comes with a high computational penalty, since the required operations over finite fields do not map very well onto current commodity processors. This thesis introduces a versatile coding scheme with fully adjustable fault-tolerance that is tailored specifically to modern processor architectures. To reduce stress on the memory subsystem the conventional table-based algorithm for multiplication over finite fields has been replaced with a polynomial version. This arithmetically intense algorithm is better suited to the wide SIMD units of the currently available general purpose processors, but also displays significant benefits when used with modern many-core accelerator devices (for instance the popular general purpose graphics processing units). A CPU implementation using SSE and a GPU version using CUDA are presented. The performance of the multiplication depends on the distribution of the polynomial coefficients in the finite field elements. This property has been used to create suitable matrices that generate a linear systematic erasure-correcting code which shows a significantly increased multiplication performance for the relevant matrix elements. Several approaches to obtain the optimized generator matrices are elaborated and their implications are discussed. A Monte-Carlo-based construction method allows it to influence the specific shape of the generator matrices and thus to adapt them to special storage and archiving workloads. Extensive benchmarks on CPU and GPU demonstrate the superior performance and the future application scenarios of this novel erasure-resilient coding scheme.
Ribosome biogenesis is best understood in the yeast Saccharomyces cerevisiae. In human or mammalian ribosome biogenesis, it has been shown that basic principles are conserved to yeast, but additional features have been reported. Our understanding about the interplay between proteins and RNA in human ribosome biogenesis is far from complete.
The present study focused on the analysis of the human ribosome biogenesis co-factors PWP2, EMG1 and Exportin 5 (XPO5) to understand the degree of conservation of ribosome biogenesis. The proteins were characterized in respect to their localization and interaction partners. For the early 90S co-factor, PWP2, it was possible to pull down and identify the human UTP-B complex with MALDI mass spectrometry. Besides the orthologues of the members of this complex known in yeast (TBL3, WDR3, WDR36, UTP6, UTP18), the human UTP-B complex is not only conserved from yeast to humans, but contains also additional components, like the DEAD-box RNA helicase DDX21, which lacks a yeast orthologue. DDX21 was localized to the nucleus, assembled to the native UTP-B complex and co-precipitated also with other UTP-B complex members, presumably extending the functions of this complex in ribosome biogenesis.
This phenomenon was also observed for the 90S co-factor EMG1, an RNA methyltransferase, whose mutant form causes the Bowen-Conradi syndrome, if aspartic acid is mutated to glycine at position 86. This study revealed that the mutant, EMG1-D86G, clearly lost its nucleolar localization and co-precipitated to histones for unknown reasons.
A participation of the nuclear export receptor XPO5 in human ribosome biogenesis was shown in this study. Pulldown analysis, sucrose density gradients and UV crosslinking and analysis of cDNAs of XPO5 revealed the involvement of XPO5 in pre-60S subunit maturation. Moreover, besides the known pre-miRNAs and tRNAs as substrates for nuclear export, XPO5 crosslinked to snoRNAs. XPO5 was further demonstrated to interact with the miRNA Let-7a, which has an important regulatory function for MYC, a transcription factor required for ribosome biogenesis.
All results support a role of these proteins in human ribosome biogenesis and therefore it seems that the biogenesis of ribosomes in human cells requires additional components, like DDX21 and XPO5.
Due to recent technical developments, it became evident that the mammalian transcriptome is much more complex than originally expected. Alternative splicing(AS) and the transcription of long non-coding RNAs (lncRNAs) are two phenomenas which have been greatly underestimated in their frequency. Nowadays it is accepted that almost every gene has at least one alternative isoform and the number of lncRNAs exceeds the one of protein-coding genes.
We built user-friendly web interfaces which can process Affymetrix GeneChip Exon 1.0 ST Arrays (exon arrays) and GeneChip Gene 1.0 ST Arrays (gene arrays)for the analysis of alternative splicing events. Results are presented with detailed annotation information and graphics to identify splice events and to facilitate biological validations. Based on two studies using exon arrays, we show how our tools were used to profile genome-wide splicing changes under silencing of Jmjd6 and under hypoxic conditions. Since gene arrays are not intended for AS analysis originally, we demonstrated their applicability by profiling alternative splicing events during embryonic heart development.
To measure lncRNAs expressions with exon arrays, we completely re-annotation all probes and built a lncRNA specific annotation. To demonstrate the applicability of exon arrays in combination with our annotation, we profiled the expression of tens of thousands of lncRNAs. Further, our custom annotation allows for a detailed inspection of lncRNAs and to distinguish between isoforms, as we validated by RTPCR.
To allow for a general usage to the research community, we integrated the annotation in an easy-to-use web interface, which provides various helpful features for the analysis of lncRNAs.
The economic success of the World Wide Web makes it a highly competitive environment for web businesses. For this reason, it is crucial for web business owners to learn what their customers want. This thesis provides a conceptual framework and an implementation of a system that helps to better understand the behavior and potential interests of web site visitors by accounting for both explicit and implicit feedback. This thesis is divided into two parts.
The first part is rooted in computer science and information systems and uses graph theory and an extended click-stream analysis to define a framework and a system tool that is useful for analyzing web user behavior by calculating the interests of the users.
The second part is rooted in behavioral economics, mathematics, and psychology and is investigating influencing factors on different types of web user choices. In detail, a model for the cognitive process of rating products on the Web is defined and an importance hierarchy of the influencing factors is discovered.
Both parts make use of techniques from a variety of research fields and, therefore, contribute to the area of Web Science.
Abdominale Aortenaneurysmen sind in Industrienationen eine häufige Erkrankung der Personengruppe über 65 Jahre. Diese Dilatationen der abdominalen Aorta zeichnen sich durch eine lokale Inflammation aus, die mit der Infiltration von Immunzellen, dem Verlust von glatten vaskulären Muskelzellen und der Degeneration der extrazellulären Matrix einhergeht. Ursprünglich als Symptom einer Atherosklerose angesehen, sind die Ursachen dieser progressiv verlaufenden Erkrankung nach wie vor nicht vollständig verstanden; obwohl steigendes Alter, männliches Geschlecht, genetische Prädisposition, Rauchen und ein zuvor erlittener Myocardinfarkt als Risikofaktoren identifiziert werden konnten. Der lange Zeit asymptomatische Krankheitsverlauf, die Gefahr einer Ruptur mit häufig letalen Folgen und der Mangel einer effizienten pharmakologischen Therapie machen eine weitere Untersuchung dieser Erkrankung unabdingbar.
Diltiazem ist ein Inhibitor spannungssensitiver L Typ-Calciumkanäle, der seit über 25 Jahren zur Behandlung von arterieller Hypertonie, verschiedener Arrhythmien und Angina pectoris verwendet wird. Im Rahmen der vorliegenden Arbeit sollte untersucht werden, ob Diltiazem auch einen antianeurysmatischen Effekt besitzt. Eine vierwöchige subcutane Infusion des blutdrucksteigernden Hormons Angiotensin II führte nach vier Wochen zur Bildung abdominaler Aortenaneurysmen, sowie zu atherosklerotischen Gefäßveränderungen der thorakalen Aorta Apolipoprotein E (ApoE)-defizienter Mäuse. Eine parallele Therapie mit Diltiazem über das Trinkwasser konnte diese Entwicklung unabhängig vom arteriellen Blutdruck und damit unabhängig von der antihypertensiven Wirkung verhindern. Im Aortenbogen Diltiazem-behandelter Tiere konnte im Rahmen dieses in vivo-Modells nach sechs Tagen eine deutlich geringere lokale Expression proinflammatorischer Cytokine, wie Tumornekrosefaktor-a, Interleukin-1ß (IL1B) und Interleukin-6 (IL6), Chemokine, wie CCL2, und degenerativer Proteasen, wie der Matrix-Metalloprotease 9 (MMP9), festgestellt werden. Dies war die Folge einer reduzierten Anzahl von Macrophagen in der Gefäßwand. Zirkulierende proinflammatorische Cytokine, wie CCL12, konnten im Serum teilweise ebenfalls vermindert nachgewiesen werden.
Obwohl die antihypertensive Wirkung von Diltiazem in glatten vaskulären Muskelzellen vermittelt wird, war es nicht möglich, die Angiotensin II-induzierte Produktion von promigratorischem CCL2 und proinflammatorischem IL6 in isolierten Aortenringen ApoE-defizienter Mäuse oder in glatten vaskulären Muskelzellen der Ratte zu reduzieren. Diltiazem war zudem nicht in der Lage, die CCL2-induzierte Migration proinflammatorischer Ly6C+-Monocyten in vivo zu unterbinden. In isolierten peritonealen Macrophagen ApoE-defizienter Mäuse dagegen, konnte die IL6 induzierte Expression von IL1B- und CCL12-mRNA durch eine Inkubation mit Diltiazem verhindert werden. In der RAW264.7-Zelllinie, die morphologische und funktionelle Merkmale von Monocyten und Macrophagen aufweist, konnte die Dilitiazem-sensitive IL6-induzierte Expression von IL1B-mRNA in vitro ebenfalls nachgewiesen werden. Eine Stimulation mit IL6 war in diesen Zellen jedoch nicht ausreichend, um die Sekretion von IL1B-Protein auszulösen.
Thorakales Aortengewebe wies im Vergleich mit RAW264.7-Zellen eine veränderte Ausstattung spannungssensitiver Calciumkanäle auf. In letzteren fanden sich keine muskelzellspezifischen L-Typ-Calciumkanäle (CACNA1C), aber eine relevante Expression neuronaler P/Q-Typ-Calciumkanäle (CACNA1A). Mittels fluorimetrischer Bestimmung mit Fura-2AM konnte jedoch festgestellt werden, dass die intrazelluläre Calciumkonzentration Diltiazem-behandelter RAW264.7-Zellen unverändert war und der antiinflammatorische Effekt somit calciumunabhängig vermittelt wurde.
Diltiazem war nicht in der Lage, eine Lipopolysaccharid (LPS)-bedingte Inflammation in RAW264.7-Zellen zu unterbinden. Weder die LPS-induzierte Sekretion von IL1B Protein, noch die nucleäre Translokation des Transkriptionsfaktors NF-?B oder die Aktivierung des NF-?B-Promotors konnten durch eine Inkubation der Zellen mit Diltiazem verhindert werden. Diltiazem reduzierte jedoch, die IL6-induzierte Aktivierung des AP 1-Promotors unabhängig von der MAPK1-Phosphorylierung oder der Phosphorylierung und nucleären Translokation des Transkriptionsfaktors STAT3 zu unterbinden. Eine Unterdrückung von c-Jun N-terminale Kinase JNK- oder p38 Proteinkinase-vermittelten Signalwegen ist damit wahrscheinlich.
Das Pirinixinsäurederivat LP105 ist ein neuer Inhibitor der Arachidonat-5-Lipoxygenase (LOX5), der im Rahmen dieser Arbeit erstmals in vivo auf seine antianeurysmatischen Eigenschaften hin untersucht wurde. LOX5 katalysiert die Reaktion von Arachidonsäure zu Leukotrien A4 und kontrolliert damit einen wichtigen Schritt in der Synthese proinflammatorischer Leukotriene. LP105 war im Tiermodell nicht in der Lage die Angiotensin II-induzierte Bildung abdominaler Aortenaneurysmen in ApoE-defizienten Mäusen komplett zu unterbinden, führte aber über die Reduktion der vaskulären Inflammation zu einer deutlich verringerten Krankheitslast. LP105 selbst beeinflusste die mRNA-Expression verschiedener Enzyme des Arachidonsäuremetabolismus nicht, verstärkte jedoch durch die Blockade von LOX5 die Metabolisierung von Arachidonsäure über Arachidonat-15-Lipoxygenase und Cytochrom P450-Enzyme.
Auf dem Martberg, einem Bergplateau über dem Unterlauf der Mosel zwischen den Orten Pommern und Karden (Landkreis Cochem-Zell), befand sich nahe einer spätkeltischen Siedlung der Treverer ein gallo-römisches ländliches Heiligtum, eines der bedeutendsten archäologischen Denkmäler im westlichen Mitteleuropa. Seine vollständige Freilegung in den Jahren 1994 bis 2002 ergab neben Erkenntnissen zur Jahrhunderte langen mehrphasigen Baugeschichte des Tempelareals von der Spätlatènezeit bis zum Ende des 4. Jhs. n.Chr. auch eine Fülle an Funden, insbesondere von Münzen, Fibeln, Keramiken und Kleinfunden aus Metall wie Waffen, Amulette, Schmuck, Statuetten und anderes mehr. Viele dieser Funde sind wohl rituell im Tempelbezirk niedergelegt worden, insbesondere für Münzen, Fibeln und Waffen ist dies aus anderen gallo-römischen Heiligtümern bekannt. Weitere Funde wurden möglicherweise während des Betriebs der Tempelanlage verloren, weggeräumt oder kamen bei den häufigen Umbaumaßnahmen in die Erde.
An Hand der Datenbanken der Funde vom Martberg wurde eine systematische Analyse der Fundlagen aller Artefaktgruppen durchgeführt und ihnen mit Hilfe der gut datierbaren Münzen ein zeitliches Gerüst gegeben. Damit konnten die sich im Laufe der Zeit verändernden rituellen Gepflogenheiten anhand der Funde quantifiziert werden. Durch einen Vergleich mit der zeitabhängigen räumlichen Verteilung der Münzen wurden mit Hilfe von Cluster- und Hauptkomponentenanalysen rituell deponierte Artefaktgruppen identifiziert und von nicht rituell deponierten Artefaktgruppen unterschieden. Dazu wurden zunächst die zahlreichen Münzen (über 10.000 Münzen, darunter über 2000 keltische und gallo-römische Münzen) aus archäologischen Befunden im Tempelbezirk und von Lese/Streufunden als Funktion der Zeit vorgestellt beginnend mit den keltischen Münzen aus dem 1. Jh. v.Chr. bis zu den Münzen aus theodosianischer Zeit gegen Ende des 4. Jhs. n.Chr. Dabei wurden auch Besonderheiten unter den Münzen wie Münzen mit Einhieben, Halbierungen/Viertelungen, Imitationen, Gegenstempel, Prägeorte etc. quantitativ erfasst. Die räumlichen Verteilungen der Münzen zeigten deutliche zeitabhängige Unterschiede. Die sich zeitlich und räumlich verändernden kultischen Praktiken verliefen zudem völlig parallel, was die Deponierung von intakten Münzen, Imitationen, Halbierungen und Viertelungen sowie insbesondere Münzen mit Einhieben anging. Im Gegensatz zu den deutlich erkennbaren räumlichen Verschiebungen in den Münzhäufigkeiten bis zur Mitte des 2. Jhs. n.Chr. änderten sich die Verteilungen von Münzen im Tempelbezirk aus den folgenden Jahrhunderten nur wenig.
Diese sich zeitlich verändernden aber gut datierbaren lokalen Fundmünzhäufigkeiten wurden zu einer wenn auch groben Datierung vieler anderer Kleinfundgattungen herangezogen. Mithilfe von statistischen Verfahren (Clusteranalysen bzw. Hauptkomponentenanalysen) konnten zeitliche und räumliche Beziehungen zwischen den einzelnen Fundgattungen identifiziert und teilweise auch datiert werden. Außerdem konnte zwischen absichtlich niedergelegten, geopferten Gegenständen wie Münzen, Schmuck oder Waffenbestandteilen und wohl als Abfall entsorgten Keramik-Waren, Metallteilen oder auch Produkten von Metall-, Keramik- oder anderen Werkstätten unterschieden werden. So waren Lanzenspitzen, keltische Fibeln aus der zweiten Hälfte des 1. Jhs. v.Chr., Statuetten, Spiegel und Phallusamulette ähnlich wie die entsprechenden zeitgleichen keltischen und frühkaiserzeitlichen Münzen verteilt, konnten dadurch auch datiert werden und wurden wohl ähnlich wie die Münzen als Weihegaben deponiert. Frühe keltische Fibeln bildeten zusammen mit Funden aus Blei (Bleiplättchen, Bleibleche, Gussreste) sowie mit Schlacken, Fingerringen und Perlen aus Bronze oder Glas einen eigenen Cluster. Die anderen metallenen Kleinteile waren ähnlich wie die Münzen aus dem 2.-3. Jh. gleichmäßig über das Tempelareal verteilt, wohl weil in dieser Zeit Umbaumaßnahmen zu einer großflächigen Zerstreuung dieser Funde führten. Zusammen mit den Resten der Keramik wurden dabei offensichtlich auch viele metallene Kleinfunde entsorgt, die an Hand der ähnlich verteilten Keramik wiederum zum Teil datiert werden konnten.
Im zweiten Teil der Arbeit wurde versucht, dem Phänomen der sogenannten „claudischen Imitationen“ anhand von Untersuchungen der physikalischen, typologischen und physikochemischen Eigenschaften dieser Münzen sowie von Provenienzstudien des für die Münzen verwendeten Kupfers näher zu kommen. Aus den Ergebnissen von Bleiisotopenanalysen (Massenspektrometrie mit induktiv gekoppeltem Plasma, ICP-MC-MS) an insgesamt 115 claudischen Imitationen ließ sich schließen, dass das Kupfer für die Imitationen mit claudischen und augusteischen Münzbildern ebenso wie die offiziellen claudischen Münzen wohl aus zwei verschiedenen Lagerstätten in Spanien, der Zentralen Iberischen Zone (Kupferminen der Sierra Morena) und aus dem Gebiet des Rio Tinto (Iberischerer Pyrit-Gürtel), stammte. Ob dieses Kupfer (möglicherweise aus verhandelten Barren) direkt zur Herstellung der Imitationen verwendet wurde oder über den Umweg einer Umprägung von offiziellen Münzen, konnte jedoch nur durch eine Analyse der Spurenelementverteilung in den Imitationen selbst im Vergleich zu ähnlichen Messungen an offiziellen Münzen herausgefunden werden. Die Ergebnisse der Spurenelementanalysen (Elektronenstrahlmikrosonde) an über 110 claudischen Imitationen vom Martberg im Vergleich zu früher publizierten Ergebnissen an über 200 offiziellen Kupfermünzen von Augustus bis Claudius haben gezeigt, dass viele der Imitationen mit claudischen Münzbildern sehr stark offiziellen Münzen ähneln, die unter Augustus, Tiberius und Claudius geprägt wurden. Ähnliches gilt für Imitationen mit augusteischen und tiberischen Münzbildern. Etwa ein Drittel der Imitationen enthielten Zink in unterschiedlichen Konzentrationen und unterschieden sich bereits dadurch von den offiziellen Münzen. Man muss aus diesen Ergebnissen den Schluss ziehen, dass die große Mehrheit der Imitationen mit augusteischen oder tiberischen Münzbildern erst in claudischer Zeit aus denselben Münzmetallen wie die Imitationen mit den claudischen Münzbildern hergestellt wurden: aus den in dieser Zeit zur Verfügung stehenden Münzen der vorangehenden Kaiser und/oder den offiziellen Münzen des Claudius.
Da auch an eine Verwendung von Kupfer aus verhandelten Kupferbarren zur Herstellung vieler der Imitationen möglich ist, wurden ähnliche Vergleiche auch mit publizierten Daten von Kupferbarren durchgeführt, die in römischen Schiffswracks im westlichen Mittelmeer gefunden wurden. Die Ergebnisse zeigten, dass für die Herstellung von Imitationen auch die Verwendung von handelsüblichen Kupferbarren denkbar ist.
Im dritten Teil der Arbeit wurde anhand der Münzfunde vom Martberg untersucht, ob Münzen mit bestimmten Rückseitentypen für eine Weihung im sakralen Bereich selektiert oder auch gemieden worden sein könnten. Dazu wurde die Verteilung der Rückseitentypen der auf dem Martberg gefundenen Antoniniane mit Münzreihen verglichen, die in einem zweiten sakralen Kontext, dem Tempelbezirk des Castellberg gefunden wurden, außerdem mit zwei Einzelfundreihen aus zivilen Kontexten und zwei Schatzfunden von Antoninianen. Die sechs Fundkomplexe zeigten eine ähnliche Struktur, da sie aus dem Pool der umlaufenden Münzen zusammengesetzt waren. Die Unterschiede innerhalb der beiden Münzreihen desselben Kontextes waren jedoch erheblich geringer als die zwischen den Münzreihen aus unterschiedlichen Kontexten. Die Ergebnisse einer Hauptkomponentenanalyse zeigten zunächst, dass die beiden Heiligtümer in ganz ähnlicher Weise von der „Referenzkurve“ des Vicus Castellberg abwichen. Die in allen Fundkomplexen am häufigsten vorkommenden Münzbilder Pax, Salus und Spes waren verglichen mit dem Vicus in beiden Heiligtümern deutlich überrepräsentiert. Eine „positive Selektion“ dieser Rückseitentypen, d.h. ihre bewusste Niederlegung, war aber eher unwahrscheinlich. Für die in beiden Heiligtümern unterrepräsentierten Typen wie Laetitia, Fides, Sol, Mars und Jupiter, vielleicht auch Tiere/Fabelwesen, Uberitas und Fortuna war eine bewusste Vermeidung der Niederlegung eher anzunehmen. Neben der eindeutig nachweisbaren Tendenz der Niederlegung von eher geringwertigen Münzen ist davon auszugehen, dass bei der rituellen Niederlegung von Münzen im sakralen Kontext auch die Bilder auf den Rückseiten dieser Münzen eine wie auch immer geartete Rolle gespielt haben müssen. Damit zeigt sich die Funktion der Münzen im rituellen Kontext nicht nur als Wertmesser, als Geld, sondern auch als ein Informationsträger, mit dessen Hilfe möglicherweise auch Zwiesprache mit den Göttern gehalten wurde.
Are books different? : Die Auswirkungen des Falls der Buchpreisbindung in Großbritannien 1995 - 2006
(2013)
Sicherlich gibt es im Buchhandel wie in jeder anderen Branche Zeiten der Krise und des Umsatzrückgangs, aber grundsätzlich legen die Zahlen nicht nah, dass das Ende bevorsteht. Es stellt sich also die Frage, ob zutrifft, was Richter Buckley in seinem zum geflügelten Wort gewordenen Urteil feststellte: Sind Bücher wirklich anders, oder anders gefragt, braucht der Buchhandel den Schutz des Staates, um seine Funktion erfüllen zu können?
Um eine Antwort auf diese Fragen zu finden, soll in dieser Arbeit das Hauptaugenmerk auf die Entwicklung des britischen Buchhandels im Zeitraum von 1995 (dem Jahr der faktischen Abschaffung des Net Book Agreement bis 2006 gelegt werden. Nach dem beinahe hundertjährigen Bestehen der Buchpreisbindung waren diese Jahre richtungweisend für die Neuorientierung des britischen Buchhandels auf die Bedingungen eines freien Marktes, und es soll untersucht werden, welche Umwälzungen sich daraus für die Branche ergeben haben.
Calcium-deficiency rickets (CDR) is a metabolic bone disease in children that is characterized by impaired mineralization and severe bone deformities. As CDR is often an endemic phenomenon that is almost exclusively restricted to tropical areas, environmental conditions are currently considered to be a possible predisposing factor for the CDR. Apart from a lack of macronutrients and micronutrients, an oversupply of potentially toxic elements (PTEs) in the soil-plant pathway of the CDR areas is thought to be involved in the aetiology of CDR. This study is the first to comprehensively analyze the impact of the environment on Ca deficiency and the resulting CDR.
To analyze the impact of the environment on CDR in developing countries, a rural region near Kaduna City, northern Nigeria, was chosen as a study area. From this area, cases of CDR have been reported since the early 2000s with a prevalence rate of 5%. Within this study area, 11 study sites, including areas with a high CDR prevalence (HR), a low CDR prevalence (LR) and no CDR prevalence (NR), were visited. In these HR, LR and NR study sites, the bedrock was investigated and the types of parent materials were identified. Local farmers were interviewed to determine the type and intensity of the land use. The soil types were determined along toposequences. The soil textures as well as the clay mineral fractions were determined. The pH values were measured, and the contents of organic carbon (OC) were determined. The potential cation-exchange capacity (CECpot) and the base saturation (BS) were analyzed. Furthermore, the total and plant-available macronutrient, micronutrient and PTE concentrations were measured in the soils. The drinking water was analyzed for pH values and the concentrations of Ca, Se and F were measured. The maize was analyzed for the Ca, Mg, K and P, Se and phytic acid (PA) contents.
The field and laboratory analyses on the bedrock showed that the HR, LR and NR study sites near Kaduna City, northern Nigeria, were underlain by Older Granites. A direct link between the distribution of the bedrock, the parent materials and the prevalence of CDR was not found. Interviews with the local farmers showed that the land use in the Kaduna study area is dominated by the cultivation of cash crops and food crops. Field analyzes on the soil types in the Kaduna study area showed that the distribution of the soil types is highly dependent on the topography and the distribution of the parent materials. In near vicinity to the inselbergs, Lixisols had developed on grus slope deposits. In the lower pediment and plain positions, Acrisols had developed on grus slope deposits and pisolite slope deposits. In the upper plains, Plinthosols had developed on pisolite slope deposits and in the river valleys, Fluvisols had developed on river deposits. Such soil types and soil type distributions are typical for granite-underlain areas in the northern guinea savanna of West Africa. Similarly, the physical soil conditions were representative for the soils of the northern guinea savanna: sandy topsoils, clayey subsoils and relatively high contents of kaolinite clay minerals in the clay fractions. With regard to the geochemical composition, no significant difference was found between the soils of the Kaduna study area and the soils of other granite-underlain areas in West Africa. Only the concentrations of P were considerably low in the soils of the Kaduna study area. However, P deficiency is a typical phenomenon in West African savanna soils and is not restricted to CDR areas. The micronutrient concentrations in the soils were low, but not critically low. Laboratory analyses on the amounts of PTEs showed that compared to worldwide background levels and international critical limits the PTE concentrations were very low in the soils of the Kaduna study area. In the drinking water, neither a significant lack of macronutrients and micronutrients, nor a noticeable oversupply of PTEs was found. The maize in the HR, LR and NR study sites contained normal contents of Mg, K and P, low contents of Ca and Se as well as slightly elevated concentrations of PA compared to West African food composition tables. Comparisons between the mineral contents of traditional and modern maize cultivars showed that the traditional maize cultivars contained significantly higher contents of Ca and noticeably lower concentrations of PA than the modern maize cultivars.
A direct link between the environmental conditions and the CDR in the Kaduna study area was considered unlikely, as neither a statistically significant lack of macronutrients and micronutrients, nor a statistically significant oversupply of PTEs was found in the environment of this area. Instead, the results indicated that the nutrition rather than the environmental conditions that impacts the prevalence of CDR.
Im Zentralen Nervensystem (ZNS) kommunizieren neuronale Synapsen über eine Kombination von chemischen und elektrischen Signalen, die in ihrer Umgebung eine spezifische Komposition von Ionen benötigen. Um eine strenge Kontrolle des ZNS-Milieus zu gewährleisten, hat sich in Säugetieren eine endotheliale Blut-Hirn-Schranke (BHS) entwickelt. Die BHS limitiert den parazellulären Molekül Transport und wird von den Kapillargefässen des Gehirns gebildet, wobei die physische Barrier von den Tight Junctions (TJs) des vaskulären Endothels generiert wird. Das Gehirnendothel ist Teil einer neurovaskulären Einheit (NVE), zu der auch Perizyten (PZ), Astrozyten (AZ), Mikroglia und Interneurone zählen. Fehlkommunikation oder defekte zelluläre Komponenten in der NVE führen in der Regel zu Störungen in der BHS Funktion und können schwerwiegende neuronale Erkrankungen zur Folge haben.
Vor einigen Jahren haben wir und andere Forschungsgruppen herausgefunden, dass der Wnt/β-Catenin Signalweg essentiell für die Vaskularisierung des Gehirns während der Embryonalentwicklung ist und darüber hinaus auch eine bedeutende Rolle in der Induktion der BHS spielt. Des Weiteren konnte im Zebrafischmodell eine Aktivierung des kanonischen Wnt Signalweges auch im adulten Organismus nachgewiesen werden. Allerdings ist die Quelle der Wnt Wachstumsfaktoren bis dato unbekannt. Der Wnt Signalweg ist eine hoch konservierte und komplexe zelluläre Signalkaskade, die in allen mehrzelligen Organismen vorkommt. Wnt Wachstumsfaktoren sind sekretierte, hydrophobe Signalmoleküle, die sowohl über lange als auch kurze Strecken entweder den β-Catenin-abhängingen („kanonischen“) oder β-Catenin-unabhängingen („nicht-kanonischen“) Wnt Signalweg aktivieren können.
Da die meisten ZNS Erkrankungen mit einem Zusammenbruch der BHS-Funktion assoziiert sind, ist die Forschung bestrebt die Mechanismen, die der Entstehung und Aufrechterhaltung der BHS zugrunde liegen, zu ermitteln und zu verstehen. Das Ziel meiner Doktorarbeit war es herauszufinden, ob AZ Wnts produzieren und ob deren Wirkung auf das Gehirnendothel an der Aufrechterhaltung der BHS beteiligt ist. Zu diesem Zweck, habe ich ein in vitro BHS Kokultivierungs-Modellsystem etabliert das erstmalig ausschliesslich auf der Verwendung von murinen AZ und Gehirnendothelzellen basiert. Zu Beginn der Studie wurden sowohl primäre AZ als auch eine murine Gehirnendothel-zelllinie (MBE) bezüglich ihrer zell-spezifischen Eigenschaften charakterisiert. Dabei konnte belegt werden, dass sowohl die primären AZ als auch die MBE Zelllinie, aufgrund ihrer Proteinexpressionsprofile als repräsentative Vertreter ihres Zelltyps eingestuft werden können. Die darauffolgenden Untersuchungen konnten zeigen, dass primäre AZ über mehrere Passagen hinweg fast alle 19 Wnt Liganden auf mRNA Ebene exprimierten. Ferner konnte in primären Gehirnendothelzellen und zwei Gehirnendothelzelllinien die korrespondierenden Frizzled (FZD) Rezeptoren und low density lipoprotein receptor-related protein (LRP) Korezeptoren nachgewiesen werden. Dieser Befund legte Nahe, dass AZ und Gehirnendothelzellen die basalen Eigenschaften besitzen, um über den Wnt Signalweg miteinander zu kommunizieren. Die Stimulation von pMBEs mit Astrozyten konditioniertem Medium (AKM) induzierte die Hochregulation von Claudin-3 einem bekannten kanonischen Wnt Zielgens. Interessanterweise konnte diese Regulation teilweise durch die Zugabe von dickkopf 1 (Dkk1), einem Wnt/β-Catenin Antagonisten, inhibiert werden.
Um die physiologische Rolle der Wnt Liganden zu bestimmen, habe ich mir die Eigenschaft des universellen Sekretionsmechanismus der Wachstumsfaktoren, welcher von dem Transmembranprotein evenness interrupted (Evi) abhängig ist, zu Nutze gemacht. Die Verpaarung von Evifl/fl mit hGFAP-Cre Mäusen erlaubt die AZ-spezifische Deletion des Evi Proteins (Evi KO), was zur Folge hat, dass die Astrozyten der Nachkommen keine Wnt Wachstumsfaktoren sekretieren können.
In vitro führte der Verlust von Wnts in AKM zu einer teilweisen Delokalisierung von Junction Proteinen. Während die Kokultivierung mit Evi WT AZ einen straken Anstieg im TEER und reduzierte Permeabilitätsmesswerte induzierten, konnten diese pro-BHS Eigenschaften bei Evi KO AZ nicht beobachtet werden. Diese Ergebnisse zeigten deutlich, dass Wnts sekretiert von AZ den BHS Phenotyp positive beeinflussen, indem sie die Zell-Zell-Verbindung verstärken, was wiederum zu erhöhtem Zellwiderstand und reduzierter transzellulärer Permeabilität führt. Die Analyse des in vivo Phänotyps von Evi KO Mäusen ergab, dass mit fortschreitendem, postnatalem Alter makroskopisch erkennbare zerebrale Blutungen auftraten. Ausserdem konnte ich zeigen, dass eine Subpopulation von Blutgefässen Malformationen aufwies, die mit reduzierter Astrozytenendfuss-Assoziierung einhergingen.
Das Wissen um die Beteiligung des Wnt Signalweges an der Regulation der BHS auch im adulten Organismus kann in Zukunft von wichtiger Bedeutung sein, da es potentielle therapeutische Anwendungen ermöglicht.
Am Ende seiner Tage sprach der König Salomon: "Die Sonne geht auf und unter [...]. Was gewesen ist, wird [wieder] sein, was getan worden ist, wird [wieder] getan, und es gibt nichts Neues unter der Sonne".1 Im August des Jahres 1881, beim Spaziergang durch die Wälder am See von Silvaplana, bei einem mächtigen, pyramidal aufgetürmten Block, "6000 Tausend Fuß jenseits von Mensch und Zeit" kam einem Professor der klassischen Philologie jener Gedanke wieder – der Gedanke der "Ewigen Wiederkunft des Gleichen", die er später als das Hauptprinzip der altgriechischen Zeitauffassung formulierte. Der Professor hieß Friedrich Nietzsche.2 Mehr als hundert dreißig Jahre sind nach seinem Spaziergang vergangen, und mehr als hundert dreißig Jahre dauert die Diskussion über die zyklische und lineare Zeit. Es wurde mehrmals behauptet und wieder verworfen, dass der Hauptunterschied zwischen dem "hebräischen" und "griechischen" Denken, zwischen den "Gläubigen" und den "Heiden" gerade in dieser Zeitauffassung besteht. Die mythische Zeit der Griechen sei räumlich und statisch, sie habe kein Ziel und keinen Zweck, sie wandle im ewigen Kreislauf gefühllos und träge, ohne Anfang und Ende, ohne Wohin und Woher, ohne Hoffnung. Die Zeit der Tora hingegen sei zielgerichtet. Die Erschaffung der Welt und die Sintflut, der Auszug aus Ägypten und die Wüstenwanderung – all dies seien einmalige Ereignisse, welche sich nie wiederholen würden. Sie alle hätten einen Zweck – die Erlösung der Menschheit. Jede von ihnen sei ein Fortschritt – ein Schritt auf dem Pfad der Geschichte, der Geschichte mit Anfang und Ende, mit Wohin und Woher, mit Hoffnung.3
Die vorliegende Arbeit beabsichtigt nicht, die intuitive Völkerpsychologie zu untersuchen. Vielmehr handelt es sich hier um die Vorstellungen einer begrenzten Gruppe der mittelalterlichen jüdischen Intellektuellen aus dem Spanien des 12. Jhs. Ihre Gedanken waren gleichzeitig von der griechischen Philosophie und dem jüdischen Messianismus geprägt. Eben diese eigenartige Kombination macht die Frage nach ihrer Zeitauffassung so spannend. Als Quelle bei einer solchen Fragestellung scheinen mir die beiden Bücher des Rabbi Abraham Ibn Daud von Interesse zu sein – sein Geschichtsbuch Sefer ha-Qabalah (SQ) und sein philosophisch-theologisches Traktat Al-ʿAqīdah ar-Rafīʿah (AR).
Abraham Ibn Daud, Geschichtsschreiber, Philosoph, Astronom, vermutlich auch Arzt, wurde geboren um 1110 in Cordoba, der Hauptstadt des umayyadischen Kalifates und dem kulturellen Zentrum Andalusiens des 12. Jhs. Er war ein Sohn der Tochter des berühmten Gelehrten Isaak Albaliyah.4 Die Erziehung genoss er im Hause dessen Sohnes, seines Onkels, und dem Schüler von Isaak Alfasi, – Baruch Albaliyah.5 Aus seinen Schriften kann man schließen, dass er ausreichende Kenntnisse sowohl in der Bibel, dem Talmud, der hebräischen Poesie als auch in den Naturwissenschaften und der griechischen Philosophie besaß. Darüber hinaus soll er auch mit der polemischen Literatur der Christen, der Moslems und der Karäer, eventuell auch mit dem Evangelium und dem Koran vertraut gewesen sein. Von seinen Werken sind uns sieben bekannt, zwei davon allerdings nur ihrem Namen nach.6 Das auf Arabisch verfasste theologisch-philosophische Traktat Al-ʿAqīdah ar-Rafīʿah (AR, "Der erhabene Glaube") ist nur in zwei hebräischen Übersetzungen aus dem 14. Jh. – Emunah Ramah (ER)7 von R. Salomon Ben Labi und Emunah Niśʾah (EN)8 von R. Samuel Moṭoṭ erhalten.9 Das traditionshistorische Buch Sefer ha-Qabalah (SQ, "Buch der Tradition")10 wurde auf Hebräisch verfasst und von drei weiteren ebenso auf Hebräisch geschriebenen Werken begleitet: Divrey Malkey Yisraʾel (DMY, "Geschichte der Könige Israels"),11 Midraš Zeḫaryah (MZ, "Auslegung der Prophetie Sacharjas")12 und Zeḫer Divrey Romi (ZDR, "Chronik der römischen Geschichte").13
Trotz zunehmender Verbesserungen in der Diagnostik und Therapie von Krebserkrankungen leiden onkologische Patienten häufig unter gravierenden tumorund therapiebedingten Symptomen und Nebenwirkungen wie Fatigue, Reduktion der Leistungsfähigkeit und Lebensqualität (Courneya, 2003a; Crevenna et al., 2002; Ferriset al., 2009). Zahlreiche Untersuchungen und Übersichtsarbeiten zeigen, dass körperliche Aktivität in den verschiedenen Phasen der Krebstherapie möglich ist und zu einer Reduktion der Nebenwirkungen sowie zu einer Verbesserung der Lebensqualität und Leistungsfähigkeit führen kann (Cramp & Byron-Daniel, 2012; Jones & Peppercorn, 2010; Mishra et al., 2012b; Schmitz et al., 2010). In aktuellen Leitlinien wird körperliche Aktivität deshalb als wichtige supportive Therapiemaßnahme während der Akuttherapie und im Rahmen der Nachsorge sowie Rehabilitation empfohlen. Analog der zunehmenden Individualisierung medizinischer Diagnostik- und Therapiestrategien in der Onkologie (z. B. vergleichbare oder sequentielle Therapieregime, targeted therapies, Patientenwunsch), gibt es inzwischen auch im Bereich der Sportmedizin Forderungen nach individuell angepassten, effektiven körperlichen Trainingsprogrammen (Jensen et al., 2011). Bei der Erarbeitung dieser Bewegungsangebote sollten Informationen zur Einschätzung der körperlichen Leistungsfähigkeit sowie zu den individuellen persönlichen und medizinischen Voraussetzungen der Betroffenen berücksichtigt werden. Entsprechend muss bei der Planung der körperlichen Aktivität auch die aktuelle Behandlungsphase im Rahmen der onkologischen Therapien einbezogen werden. Neben der zeitlichen Einteilung der Therapiephasen in Akut- oder Rehabilitationsphase gibt es die Möglichkeit, den Therapieprozess in Abhängigkeit der Heilungsaussicht einzuordnen. Dabei wird die Prognose einer Tumorerkrankung in Abhängigkeit des Tumorstadiums, des Lymphknotenbefalls und der möglichen Metastasierung in einen heilbaren (kurativen) und nicht heilbaren (palliativen) Therapieansatz eingestuft. Während ein Großteil der Studien die Wirkung bewegungstherapeutischer Interventionen bei Patienten mit kurativem Therapieansatz untersucht, gibt es bisher nur sehr wenig Untersuchungen bei unheilbar kranken Tumorpatienten (Albrecht & Taylor, 2012). Infolgedessen sind Aussagen zu prognosebezogenen Informationen über die individuelle Leistungsfähigkeit und zu unterschiedlichen physischen und psychischen Reaktionenaufgrund körperlicher Aktivität bei dieser Patientengruppe bisher nur bedingt möglich und erlauben folglich keine zielgruppenspezifischen Empfehlungen.
Angesichts dieses Forschungsdefizits ist das Kernziel der vorliegenden Arbeit, mögliche Unterschiede von Lebensqualität, Fatigue und aerober Kapazität (VO2peak) in Abhängigkeit der Heilungsaussicht (kurativ/palliativ) initial zu identifizieren und gleichzeitig die jeweiligen Veränderungen im Rahmen der Intervention über den Gesamtuntersuchungszeitraum zu überprüfen.
Initial konnten 300 onkologische Patienten (histologisch gesichertes Malignom) mit unterschiedlichen Krebsentitäten, in verschiedenen Behandlungsphasen, mit bekannter klinischer Heilungsprognose (kurativ/palliativ) und unter Berücksichtigung definierter Ein- und Ausschlusskriterien in die Untersuchung eingeschlossen werden. Mit dem Ziel einer individuellen Sportberatung und Trainingsplangestaltung absolvierten die Studienteilnehmer eine sportmedizinische Gesundheits- und Leistungsdiagnostik zur Ermittlung der Ausdauerleistungsfähigkeit und Bestimmung des Trainingsbereichs. Die Messungen erfolgten auf dem Fahrradergometer (0W; 25W Inkrement; 3 Minuten) und umfassten Herzfrequenz, Blutdruck, maximale Sauerstoffaufnahmefähigkeit (VO2peak), Laktatkonzentration und subjektives Belastungsempfinden (Borg Skala). Baseline- und identische Wiederholungs-untersuchungen nach 4-6 und nach 16-20 Wochen dienten gleichzeitig der Erfassung der subjektiven Parameter Lebensqualität und Fatigue (EORTC QLQ-C30) (Aaronson et al., 1993). Der Trainingsplan wurde unter Einbeziehung persönlicher Präferenzen, individueller Leistungsfähigkeit und Empfehlungen zur Gesundheitsprävention der WHO (als Orientierung für den Trainingsumfang von 150 min/Wo.) erstellt und dem Patienten in einem ca. 20minütigen Beratungsgespräch erläutert. Art, Umfang und Häufigkeit des mindestens mit moderater Intensität absolvierten Ausdauertrainings wurde durch die Patienten in einem Trainingstagebuch dokumentiert. Die Gruppenzuteilung erfolgte in Abhängigkeit der Heilungsprognose (kurativ/palliativ) unter Verwendung des TNM-Systems. Patienten mit der Prognose „heilbar“ wurden der kurativen Stichprobe zugeteilt, während Patienten mit histologisch gesichertem Nachweis von Metastasen (M1) als palliativ eingestuft wurden.
Referenzwerte waren für die VO2peak: alters- und geschlechtsentsprechende Normdaten (Median) des American College of Sports Medicine und für die Daten des EORTCQLQ-C30: das Manual „EORTC QLQ-C30 Reference Values“ einer EORTCArbeitsgruppe (Scott, 2008). Die Dateneingabe und die Aufbereitung der Rohdaten erfolgte mit Hilfe von Microsoft Excel. Für die statistische Auswertung wurden alle statistischen Analysen anschließend mithilfe der Statistikprogramme SPSS 19.0 (SPSS Inc., Chicago, IL, USA) und „BIAS für Windows“, Version 10, 2012, Universität Frankfurt) durchgeführt. Das Signifikanzniveau wurde a priori auf p<0,05 festgelegt.
Insgesamt 158 Patienten (99 kurativ, 59 palliativ; 54,9±11,1 Jahre, 108 ♀, 50 ♂) nahmen an allen drei Untersuchungen teil. Der parameterfreie Mann-Whitney-Test zeigte sowohl für Lebensqualität als auch Fatigue-Symptomatik keine signifikanten Unterschiede bei der Eingangsuntersuchung zwischen kurativen und palliativen Teilnehmern. Für die VO2peak ergab der parametrische T-Test ebenfalls keine Unterschiede bei den Initialwerten. Nach Abschluss der Intervention zeigten sich in beiden Patientengruppen sowohl bei der Lebensqualität als auch der Fatigue-Symptomatik signifikante Verbesserungen über den gesamten Untersuchungszeitraum. Anschließende post-hoc-Tests ergaben keine signifikanten Gruppenunterschiede bezüglich der Entwicklung während der verschiedenen Untersuchungszeiträume und der Differenz von Initial- und Abschlusswert. Die Varianzanalyse mit Messwiederholung (Anova) zeigte sowohl für Kurativ- als auch Palliativpatienten signifikante Veränderungen der VO2peak über die Zeit. Einen Haupteffekt im Bezug auf die Gruppe oder eine Interaktion von Zeit und Gruppe gab es dabei nicht. Folglich entwickelten sich beide Gruppen über den Untersuchungszeitraum vergleichbar.
Die vorliegenden Ergebnisse zeigen, dass die Heilungsprognose, kurativ oder palliativ, keinen unterschiedlichen Einfluss auf die Trainierbarkeit der Betroffenen zu haben scheint. Körperliches Training führte bei beiden Patientengruppen dieser Studie zu signifikanten Verbesserungen der Zielparameter. Ein Vergleich der vorliegenden Daten mit bisherigen Untersuchungsergebnissen ist aufgrund der aktuell geringen Anzahl an Studien mit Palliativpatienten und einer bisher nicht einheitlichen Palliativ-Definition schwierig.
Die sporttherapeutische Beratung, welche neben der Vermittlung von Trainingsumfang und –intensität insbesondere Trainingsziele und deren Wirksamkeit aufzeigen soll, kann Patienten und ihrem Umfeld helfen, den Stellenwert von körperlichem Training zuverstehen und bestenfalls die Compliance erhalten. Darüber hinaus kann die allgemeine Leitlinien-Empfehlung von 150 Minuten moderates Ausdauertraining pro Woche als grober Richtwert bestätigt werden. Unterschiedlich hohe Trainingsumfänge in Abhängigkeit initialer Leistungsfähigkeit weisen indessen darauf hin, dass individuelle Trainingsempfehlungen zu bevorzugen sind. Als Konsequenz aus diesen Ergebnissen ist zu empfehlen, dass sich zukünftig körperliche Aktivität als unverzichtbarer Bestandteil des supportiven Therapieangebotes für Krebspatienten mit fortgeschrittener Erkrankung, speziell bei palliativ eingestuften Patienten, etabliert.
Weitere Untersuchungen zu diesem Thema sollten insbesondere darauf abzielen, Dosis-Wirkungs-Zusammenhänge zu ermitteln und diese in symptom- und entitätsspezifische Empfehlungen zu integrieren.
Das Ziel dieser Arbeit ist es, eine authentische Verdeckung eingebetteter virtueller 3D-Objekte in augmentierten Bilderwelten bei einer geringen Anzahl an Fotos innerhalb der Bilderwelt zu erreichen. Für die Verdeckung von realen und virtuellen Anteilen einer Augmented Reality-Szene sind Tiefeninformationen notwendig. Diese stammen üblicherweise aus einer 3D-Rekonstruktion, für deren Erstellung sehr viele Eingangsbilder notwendig sind. Im Gegensatz dazu wurde in dieser Arbeit ein System entwickelt, das eine vollständige 3D-Rekonstruktion umgeht. Dieses beruht auf einem direkten bildbasierten Rendering-Ansatz, welcher auch mit unvollständigen Tiefeninformationen eine hohe Bildqualität in Bezug auf eine authentische Verdeckung erreicht. Daraus erschließen sich neue Anwendungsgebiete, wie z.B. die automatisierte Visualisierung von 3D-Planungsdaten und 3D-Produktpräsentationen in Bildern bzw. Bilderwelten, da in diesen Bereichen oftmals nicht genügend große Bildmengen vorhanden sind. Gerade für diese Anwendungsgebiete sind authentische Verdeckungen für die Nutzerakzeptanz der Augmentierung wichtig. Unter authentischer Verdeckung wird die entsprechend der menschlichen Wahrnehmung visuell korrekte Überlagerung zwischen virtuellen Objekten und einzelnen Bildanteilen eines oder mehrerer Fotos verstanden. Das Ergebnis wird in Form einer Bilderwelt (eine bildbasierte 3D-Welt, die die Fotos entsprechend der Bildinhalte räumlich anordnet) präsentiert, die mit virtuellen Objekten erweitert wurde. Folglich ordnet sich diese Arbeit in das Fachgebiet der Augmented Reality ein. Im Rahmen dieser Arbeit wurde ein Verfahren für die bildbasierte Darstellung mit authentischen Verdeckungen auf der Basis von unvollständigen Tiefeninformationen sowie unterschiedliche Verfahren für die notwendige Berechnung der Tiefeninformationen entwickelt und gegenübergestellt. Das Sliced-Image-Rendering-Verfahren rendert mithilfe unvollständiger Tiefeninformationen ein Bild ohne 3D-Geometrie als dreidimensionale Darstellung und realisiert auf diese Weise eine authentische Verdeckung. Das Berechnen der dafür notwendigen Tiefeninformationen eines 2D-Bildes stellt eine gesonderte Herausforderung dar, da die Bilderwelt nur wenige und unvollständige 3D-Informationen der abgebildeten Szene bereitstellt. Folglich kann eine qualitativ hochwertige 3D-Rekonstruktion nicht durchgeführt werden. Die Fragestellung ist daher, wie einzelne Tiefeninformationen berechnet und diese anschließend größeren Bildbereichen zugeordnet werden können. Für diese Tiefenzuordnung wurden im Rahmen der vorliegenden Arbeit drei verschiedene Verfahren konzipiert, die sich in Bezug auf genutzte Daten und deren Verarbeitung unterscheiden. Das Segment-Depth-Matching-Verfahren ordnet Segmenten eines Bildes mithilfe der 3D-Szeneninformationen der Bilderwelt eine Tiefe zu. Hierfür werden Segmentbilder vorausgesetzt. Als Ergebnis liegt für jedes Foto eine Depth-Map vor. Um eine Tiefenzuordnung auch ohne eine vorangehende Segmentierung zu ermöglichen, wurde das Key-Point-Depth-Matching-Verfahren entwickelt. Bei diesem Verfahren werden die 3D-Szeneninformationen der Bilderwelt auf die Bildebene als kreisförmige Sprites projiziert. Die Distanz zur Kamera wird dabei als Tiefenwert für das Sprite verwendet. Alle projizierten Sprites einer Kamera ergeben die Depth-Map. Beide Verfahren liefern Flächen mit Tiefeninformationen, aber keine pixelgenauen Depth-Maps. Um pixelgenaue Depth-Maps zu erzeugen, wurde das Geometry-Depth-Matching-Verfahren entwickelt. Bei diesem Verfahren wird eine Szenengeometrie des abgebildeten Szenenausschnittes erzeugt und dadurch eine pixelgenaue Depth-Map erstellt. Hierfür wird ein semiautomatischer Skizzierungsschritt vorausgesetzt. Die erzeugte Szenengeometrie stellt keine vollständige 3D-Rekonstruktion der Bilderweltenszene dar, da nur ein Szenenausschnitt aus Sicht einer Kamera rekonstruiert wird. Anhand einer technischen Umsetzung erfolgte eine Validierung der konzeptionellen Verfahren. Die daraus resultierenden Ergebnisse wurden anhand verschiedener Bilderweltenszenen mit unterschiedlichen Eigenschaften (Außen- und Innenraumszenen, detailreich und -arm, unterschiedliche Bildmengen) evaluiert. Die Evaluierung des Sliced-Image-Renderings zeigt, dass mithilfe unvollständiger Tiefeninformationen der entwickelten Depth-Matching-Verfahren und unter Einhaltung der gestellten Anforderungen (wenig Eingabefotos, kleine Szenen, keine 3D-Rekonstruktion) eine authentische Verdeckung eingebetteter virtueller 3D-Objekte in Bilderwelten realisiert werden kann. Mithilfe des entwickelten Systems können bildbasierte Anwendungen auch mit kleinen Fotomengen Augmentierungen mit hoher Bildqualität in Bezug auf eine authentische Verdeckung realisieren.
In dieser Arbeit wird die Richtungsabhängigkeit seismischer Geschwindigkeiten im Erdmantel unterhalb Deutschlands und angrenzender Gebiete durch die Analyse der teleseismischen Kernphase SKS auf Doppelbrechung untersucht (Scherwellen-Splitting). Die Anisotropie wird durch die Splittingparameter Φ und δt beschrieben und erlaubt Rückschlüsse auf geodynamische Prozesse.
Untersucht werden Aufzeichnungen des Deutschen Seismologischen Regionalnetzes (GRSN) und assoziierter Stationen aus dem Zeitraum von 1993 bis 2009. Für drei Stationen des Gräfenberg-Arrays (GRF-Array) sind Wellenformen ab 1976 verfügbar, welche damit einen weltweit einmaligen Datensatz liefern.
Auf Grund des stetigen Ausbaus der seismologischen Netze und des langen Beobachtungszeitraumes können über 3.000 Seismogramme ausgewertet werden. Der Hauptteil dieser Arbeit besteht daher in der Entwicklung einer automatischen Methodik zur Analyse von SKS-Splitting: ADORE ("Automatische Bestimmung von DOppelbrechnungsparametern in REgionalseismischen Netzwerken"). Für regionale Netze wie das GRSN gewährleistet ADORE eine objektive Bestimmung der Splittingparameter. Zunächst wird das seismologische Netzwerk als seismisches Array aufgefasst, um durch eine Frequenz-Wellenzahl-Analyse den Einsatz der SKS-Phase ohne manuellen Eingriff zu bestimmen. Die Berechnung der Splittingparameter erfolgt durch eine Inversion nach der Methode der Minimierung des transversalen Energieanteils. Automatisch wird das optimale Fenster um den SKS-Einsatz positioniert, für jede Beben-Stations-Kombination werden dazu 3.600 Einzelinversionen durchgeführt.
Um diese Vielzahl von Auswertungen in akzeptabler Zeit zu berechnen, nutzt ADORE moderne Rechnerarchitekturen aus, verteilt die Berechnungen auf mehrere Computer im lokalen Netzwerk und erzielt damit eine Beschleunigung um einen Faktor 60.
Die Analyse des gesamten Datensatzes ergibt folgende Ergebnisse: An allen analysierten Stationen wurde ein Scherwellen-Splitting festgestellt, der Stationsuntergrund weist somit überall Anisotropie auf. Für 240 Erdbeben können insgesamt 494 Wertepaare mit höchster Qualität bestimmt werden.
Unter der Annahme einer homogenen ungeneigten anisotropen Schicht unterhalb der jeweiligen Station können die Einzelmessungen pro Station gemittelt werden. Damit sind Regionen mit ähnlichen Merkmalen gut zu identifizieren: Im Norden Deutschlands herrschen NW-SO-, in der Mitte W-O-Richtungen und im Süden SW-NO-Richtungen vor.
Die Verzögerungszeiten liegen im Bereich zwischen 1.0 (Station Taunus) und 2.2 Sekunden (Tannenbergsthal, TANN). Auf Grund des hohen Wertes sind die Ursachen für die hier beobachteten Zeiten dem Erdmantel und nicht der Kruste zuzuordnen. Die bevorzugte Ausrichtung von anisotropen Kristallen auf Grund von Fließprozessen von Mantelmaterial ist Quelle der beobachteten Anisotropie. Rezente Fließprozesse von Mantelmaterial sind vor allem an der Unterkante der Lithosphäre wahrscheinlich. Durch Gebirgsbildungsprozesse, vorhandene Gebirgswurzeln oder regionale Veränderungen in der Mächtigkeit der Lithosphäre entstehen Barrieren für viskoses Mantelmaterial.
Als tektonische Ursachen für die hier gemessenen Orientierungen ist im Norden die Tornquist-Teisseyre-Linie (TTZ), in der Mitte die Variszische Gebirgsbildung und im Süden Einflüsse des Alpenbogens anzusehen. Ausnahmen bilden die Stationen Clausthal-Zellerfeld (CLZ), Rügen und Black-Forest-Observatory (BFO). Während bei letzterer ein Einfluss der Spreizungszone des Oberrheingrabens zu vermuten ist, scheint die Intrusion des Brockengranits die Beobachtungen an CLZ zu prägen. Rügen liegt in einer Übergangszone zwischen Sorgenfrei-Tornquist-Zone und TTZ.
Durch die Vielzahl von vorhandenen Einzelmessungen lassen sich an manchen Stationen komplexe Modelle untersuchen. Dazu zählen neben Gradientmodellen auch die geneigte Schicht und Zwei-Schicht-Modelle. Für sechs Stationen kann ein Zwei-Schicht-Modell erstellt werden: BFO, Gräfenberg A1, Fürstenfeldbruck (FUR), Rüdersdorf (RUE), TANN und Unterbreitzbach (UBBA). Die Interpretation der Richtungen von oberer und unterer Schicht gelingt für einen Teil der genannten Stationen: An BFO liegt die Orientierung der unteren Schicht parallel zur Vorzugsrichtung der variszischen Gebirgsbildung, jene der obere Schicht antiparallel zur Spreizungsrichtung des Rheingrabens. Für die Station FUR ist eine Überlagerung mit der Streichrichtung des Alpenmassivs zu beobachten. An GRA1 wird die untere Schicht offenbar durch rezente oder eingefrorene Anisotropie des Böhmischen Massivs bzw. des Eger-Riftsystems beeinflusst. Eine vergleichbare Wirkung ist durch die TTZ an der Station RUE zu erkennen.
ADORE wurde weiterhin auf einen Datensatz des temporären RIFTLINK-Projektes angewandt.
Protein quality control systems (PQC), i.e. UPS and aggresome-autophagy pathway, have been suggested to be a promising target in cancer therapy. Simultaneous pharmacological inhibition of both pathways have shown increase efficacy in various tumors, such as ovarian and colon carcinoma. Here, we investigate the effect of concomitant inhibition of 26S proteasome by FDA-approved inhibitor Bortezomib, and HDAC6, as key mediator of the aggresome-autophagy system, by the highly specific inhibitor ST80 in rhabdomyosarcoma (RMS) cell lines. We demonstrated that simultaneous inhibition of 26S proteasome and selective aggresome-autophagy pathway significantly increases apoptosis in all tested RMS cell lines. Interestingly, we observed that a subpopulation of RMS cells was able to survive the co-treatment and, upon drug removal, to recover similarly to untreated cells. In this study, we identified co-chaperone BAG3 as the key mediator of this recovery: BAG3 is transcriptionally up-regulated specifically in the ST80/Bortezomib surviving cells and mediates clearance of cytotoxic protein aggregates by selective autophagy. Impairment of the autophagic pathway during the recovery phase, both by conditional knock-down of ATG7 or by inhibition of lysosomal degradation by BafylomicinA1, triggers accumulation of insoluble protein aggregates, loss of cell recovery and cell death similarly to stable short harpin RNA (shRNA) BAG3 knock-down. Our results are the first demonstration that BAG3 mediated selective autophagy is engaged to cope with proteotoxicity induced by simultaneous inhibition of constitutive PQC systems in cancer cell lines during cell recovery. Moreover, our data give new insights in the regulation of constitutive and on demand PQC mechanisms pointing to BAG3 as a promising target in RMS therapy.
Hintergrund: Das Burkitt Lymphom und das Diffus großzellige B-Zell Lymphom können überlappende morphologische und immunhistochemische Eigenschaften aufweisen. Eine Differenzierung beider Entitäten ist klinisch relevant. Mit Hilfe von Genexpressionsanalysen an kryo-konservierten Proben hochmaligner B-Zell Lymphome, bestehend aus Burkitt Lymphomen und Diffus großzelligen B-Zell Lymphomen, gelang 2006 die molekulare Definition des Burkitt Lymphoms (mBL) mit einer burkittspezifischen Gensignatur (Genchip-Klassifikator). Demgegenüber wurden Proben, die nicht diese Signatur aufwiesen als non-mBL bezeichnet. Proben, die weder mBL noch non-mBL klassifiziert wurden, wurden als intermediär eingestuft.
Ziel: Entwicklung einer Methode zur Unterscheidung von mBL und non-mBL mittels quantitativer Echtzeit-Polymerase Kettenreaktion (qPCR) durch die Etablierung eines Assays-Sets einer kleinen Anzahl von Genen der mBL-Signatur an formalinfixiertem, in paraffineingebettetem (FFPE) Gewebe.
Methoden: An 116 Proben, bestehend aus mBL, non-mBL und intermediären Fällen (entsprechend der Genchip-Klassifikation) wurden qPCR Messungen für sechs Gene und ein Referenzgen durchgeführt. Die Expressionsmessungen wurden auf den vorhandenen Genchip-Klassifikator projiziert.
Ergebnisse: 90 von 116 Proben konnten mit dem qPCR-Klassifikator klassifiziert werden. Bei 22 Proben kam es zu Messausfällen. 4 Fälle wurden bioinformatisch ausgesondert.13 von 14 mBL, 59 von 61 non-mBL und 8 von15 intermediären Fällen wurden identisch zu dem Genchip-Klassifikator bewertet.
Diskussion: Der entwickelte qPCR-Klassifikator ist eine objektive, schnelle und kosteneffiziente diagnostische Herangehensweise zur Bestimmung des mBL. Nicht alle FFPE-Proben waren mit dem qPCR Klassifikator eindeutig auswertbar und für eine Klassifikation zu nutzen. Eine Einflussgröße hierbei stellt das Alter der Proben dar. Mit Hilfe dieser Untersuchung können retrospektive Analysen durchgeführt werden. Der Klassifikator kann zusätzlich zur Morphologie und Immunhistochemie mit eindeutiger Klassifikation von 93% (mBL) und 97% (non-mBL) angewendet werden.
ATP synthases are multi-subunit membrane enzymes, which utilize the energy stored in a transmembrane electrochemical ion gradient to produce adenosine-5´-triphosphate (ATP), the universal energy carrier in biological systems. Research on these important enzymes goes back more than 50 years and has produced innumerable studies. The F-type ATP synthase consists of two functionally distinct, but tightly coupled subcomplexes, the water-soluble F1 and the membrane-embedded Fo complex. In its simplest form, F1 consists of five different subunits with a stoichiometry of α 3β3γδε, and harbors three catalytic centers in the α 3β3-headpiece, while Fo consists of three different subunits in a stoichiometry of ab2cn, where n varies between 8 to 15 depending on the species. From a mechanistic standpoint, the complex can also be divided into two different units, namely a stator, α3β3δ-ab2, and a rotor, γε-cn. The enzyme utilizes the energy stored in a transmembrane electrochemical gradient of protons, or in some cases Na+, to drive ATP synthesis. In particular, the downhill translocation of these ions across the Fo complex drives rotation of the γε-cn unit, which is then transduced to the active centers, catalyzing the phosphorylation of adenosine-5`-diphosphate (ADP) with inorganic phosphate (Pi), and the release of ATP....
Biological membranes separate the cell interior from the outside and have diverse functions from signal transduction, apoptosis to transportations of ions and small molecules in and out of the cell. Most of these functions are fulfilled by proteins incorporated in the membrane. However, lipids as the main component of membrane not only serve as structural element for bilayer formation but they are also directly involved e.g. signalling processes and bilayer properties are important to mediate protein interactions. To fully understand the role of lipids, it is necessary to develop a molecular understanding of how certain membrane components modify bulk bilayer structure and dynamics. Membranes are known to have many different motions in different conditions and time scales. Temperature, pH, water content and many other conditions change membrane dynamics in a high degree. In addition to this, time scales of motions in membranes vary from ns to ms range corresponding to fast motion and slow motion, respectively. Therefore, membranes are needed to be studied systematically by varying the conditions and using methods to investigate motions in various time scales separately. The aim of this study was therefore perform a combined solid-state NMR / molecular dynamics study on model membranes. Different substrates, such as potential drugs, polarizing agents and signaling lipids were incorporated into bilayers and their location within the membrane and their effect onto the membrane was probed. NSAIDs (non-steroidal anti-inflammatory drugs), pirinixic acid derivatives, ceramides and polarizing agents were the substrates for membranes in this study. There were several experimental methods that were applied in order to investigate effects of these substrates on membrane dynamics. Different kind of phospholipids including POPC, DMPC and DPPC were used. In addition to experimental work, with the information gathered from solid state NMR experiments molecular dynamics simulations were performed to obtain more information about the membranes at the molecular level. As a result, combination of solid-state NMR with molecular dynamics simulations provides very systematic way of investigating membrane dynamics in a large range of time scales.
Pirinixic acid derivatives were special interest of this study because of their activity on peroxisome proliferator-activated receptor (PPAR) as an agonist as well as on enzymes of microsomal prostaglandin E2 synthase-1 (PGE2s) -1 and 5-lipoxygenase (5-LO) as dual inhibitor. Two potent pirinixic acid derivatives, 2-(4-chloro-6-(quinolin-6-ylamino)pyrimidin-2-ylthio)octanoic acid (compound 2) and 2-(4-chloro-6-(quinolin-6-ylamino)pyrimidin-2-ylthio)octanoate (compound 3), have been worked and their insertion depts were investigated by combining of solid state NMR and molecular dynamics simulations. Both experimental and theoretical results pointed out that compound 3 was inserted the phospholipid bilayer more deeply than 2. NSAIDs – lipid mixtures have been also studied here. It is known that consumption of NSAIDs as in mixture with lipids results much fewer side effects than consumption of the drugs alone. Thus, it is crucial to understand interactions of NSAIDs with lipids and investigate the possible complex formation of drugs with lipids. In this study, interactions of three widely used NSAIDs, ibuprofen, diclofenac and piroxicam, with DPPC were investigated by solid-state NMR. 1H and 31P NMR results depicted that ibuprofen and diclofenac had interactions with lipids, which is an indication of drug-lipid complex formation whereas piroxicam didn’t show any interactions with lipids suggesting that no complex formation occurred in the case of piroxicam. Ceramides are known to play key roles in many cell processes and many studies showed that the functions of ceramides are related with the ceramide effects on biological membranes. Therefore, in this study, influences of ceramides on biophysics of lipid bilayers were investigated by using various solid state NMR techniques and molecular dynamics simulations. Results from molecular dynamics simulations clearly showed that ceramide and lipids have strong interactions. More evidences about ceramide-lipid interactions were provided from 1H and 14N NMR results. In addition, it was indicated by both simulation and experimental methods that ceramide increased the rigidity of DMPC by increasing chain order parameters. BTbk is a biradical, which is used as polarizing agent for dynamic nuclear polarization (DNP) experiments and found to be more efficient than other widely used polarizing agents such as TOTAPOL. Since it is a hydrophobic compound, which prefers to stay inside lipid bilayer it is important to investigate the location and orientation of bTbk along the bilayer in order to understand its enhancement profile in DNP measurements. In this study, both NMR relaxation time measurements and molecular dynamics simulations revealed that bTbk tends to stay more close to hydrophobic chain of lipids than the interfacial part of lipids at bilayer surface.
In the first part of this work, a brief introduction on lipid membranes as well as a theoretical summary on both methods of solid-state NMR and molecular dynamics simulations is given. Then, in the second part methodology is introduced for both solid-state NMR spectrometer and theoretical calculations. Afterwards, results of different membrane systems are discussed in the following parts for both solid state NMR and MD. Finally, in the last part, a summary and the conclusion of the overall results together with some future plans are explained.
In dieser Arbeit wurde das Protein OR1 ausführlich charakterisiert und die Grundlage für weitere Studien an diesem Protein gelegt. Die Zielsetzung dieser Arbeit bestand primär in der biophysikalischen Analyse eines eukaryotischen Proteorhodopsins, da bislang keine Daten zu diesen vorlagen. Dieser Ansatz ist vergleichbar mit der Studie am BR ähnlichen Rhodopsin aus dem Pilz Leptosphaeria maculans (Waschuk et al. 2005). Auch wenn man aus den Eigenschaften von OR1 keine Signatur für eukaryotische PRs herausfiltern kann, so weist OR1 eine Reihe von Charakteristika auf, die es wert sind weiterbearbeitet zu werden. Zu den hervorzuhebenden Ergebnissen dieser Arbeit zählen:
(1) OR1 zeigte in der methylotrophen Hefe Pichia pastoris ein hohes Expressionsniveau weit über der gewohnten Ausbeute bei Membranproteinen.
(2) OR1 offenbarte sich als Proteorhodopsin mit BR ähnlichen Eigenschaften wie dem niedrigen pKs-Wert des Protonenakzeptors und damit guten Protonenpumpeigenschaften über einen großen pH-Bereich. Auch bindet OR1 keinen zweiten Chromophor, was die nahen Verwandten GR und XR hingegen tun.
(3) OR1 demonstriert, dass die Konfiguration des komplexen Gegenions von Proteorhodopsinen stark variiert und sich anscheinend flexibel den physiologischen Erfordernissen des jeweiligen Organismus anpasst. In diesem Zusammenhang spielt auch das konservierte Histidin eine Rolle, da es den primären Protonenakzeptor beeinflusst. Bei OR1 stellte sich heraus, dass das Histidin den pKs Wert der D100 Position nicht signifikant beeinflusst.
(4) OR1 wurde mit 13C und 15N Atomen erfolgreich markiert und das entwickelte Protokoll für die Rekonstitution bewährte sich. Die Proteoliposomen des Wildtyps gaben sehr gut aufgelöste Festkörper-NMR Spektren. In Zukunft sind somit ausführliche NMR Studien an OR1 möglich.
Body Integrity Identity Disorder (BIID) ist eine bisher kaum erforschte Störung, bei der die Betroffenen den Wunsch beziehungsweise das Verlangen nach einer Körperbehinderung verspüren. In den meisten Fällen, wie auch in dieser Studie, ist eine Oberschenkelamputation die gewünschte Modifikation. Durch die Amputation erhoffen die Betroffenen endlich sie selbst zu werden, da sie sich mit ihrem realen Körperbild nicht identifizieren können. Ihr vorgestelltes Körperbild ist das eines Amputierten. Die Störung manifestiert sich bereits im Kindesalter. Im Laufe der Zeit nimmt das Verlangen der Amputation zu, so dass es neben der vermehrten Beschäftigung sogar zu lebensgefährlichen Selbstverletzungen im Zuge einer Verwirklichung kommen kann.
Die vorliegende Studie beschäftigt sich erstmalig mittels funktioneller Magnetresonanztomographie mit der neuronalen Repräsentation der Störung BIID beim Anblick des eigenen realen und des gewünschten amputierten Körpers. Für die Studie wurden Fotos von den Probanden und einer fremden Person gemacht und mit einer Software so modifiziert, dass die Probanden in sechs verschiedenen Kategorien sowohl sich selbst real, sowie amputiert und mit Prothese als auch die fremde Person real, amputiert und mit Prothese gezeigt bekamen. Dasselbe Design wurde auch einer gesunden Kontrollgruppe vorgeführt. Aufgrund der Datenmenge wird in dieser Studie nur der reale und der amputierte Körper berücksichtigt.
Es zeigen sich deutliche Aktivierungsunterschiede zwischen der BIID Gruppe und der Kontrollgruppe beim Anblick des eigenen realen Körpers und beim Anblick des eigenen amputierten Körpers. Beim Anblick des eigenen realen Körpers zeigt die Kontrollgruppe gegenüber der BIID Gruppe einen stärkeren Selbstbezug zu ihrem Körper durch Aktivierungen des medialen frontalen Gyrus, des postzentralen Gyrus oder der Amygdala und einen positiver valenzierten Anblick, der sich im Gruppenvergleich durch eine Mehraktivierung im superioren temporalen Gyrus ausdrückt sowie durch die Ergebnisse der post-fMRT-Fragebögen unterstützt wird. Beim Anblick des eigenen amputierten Körpers zeigt sich durch ein fronto-parietales Netzwerk der stärkere Selbstbezug bei der BIID Gruppe. Die deutliche emotionale Involviertheit wird repräsentiert durch große Teile des limbischen Systems sowie durch präfrontale Bereiche. Hinzu kommen Aktivierungen, die eine deutliche Beteiligung des episodisch-autobiographischen und prozeduralen Gedächtnisses zeigen. So ist eine vollständig geplante Bewegungsabfolge der BIID Probanden beim Anblick ihres amputierten Körpers anhand der aktivierten Areale darstellbar, einschließlich der Feinregulationen in den Basalganglien, dem Nucleus ruber und dem Kleinhirn.
Die Ergebnisse zeigen neuronale Netzwerke der Körperrepräsentation, bei denen fehlende Aktivierungen der BIID Probanden beim Anblick des eigenen realen Körpers auf eine Fehlfunktion hindeuten könnten. Sie zeigen aber auch ein Netzwerk aus Erinnerungen und erlernten Prozessen, die mit Hilfe des mesolimbischen Dopaminsystems zur Aufrechterhaltung der Störung beitragen könnten. Zusammengefasst lässt sich sagen, dass das amputierte Wunschkörperbild neuronal stark und breitgefächert verankert ist und viel dominanter repräsentiert ist als das reale Körperbild. Durch die dargestellten Aktivierungen und Regelkreise leiten sich vor allem neue therapeutische Ansätze ab, die zu einer Linderung der Symptome von BIID beitragen könnten und vielleicht auch neue Anstöße in Hinblick auf eine Heilung der Störung liefern.
ß1-integrins are essential for angiogenesis but the mechanisms regulating integrin function in endothelial cells (EC) and their contribution to angiogenesis remain elusive. BRAG2 is a guanine nucleotide exchange factor for the small Arf-GTPases Arf5 and Arf6. The role of BRAG2 in EC and angiogenesis and the underlying molecular mechanisms remains unclear. siRNA-mediated BRAG2-silencing reduced EC angiogenic sprouting and migration. BRAG2-siRNA-transfection differentially affected a5ß1- and aVß3-integrin function: specifically, BRAG2-silencing increased focal/fibrillar adhesions and EC adhesion on ß1-integrin-ligands (fibronectin and collagen), while reducing the adhesion on the aVß3-integrin-ligand, vitronectin. Consistent with these results, BRAG2-silencing enhanced surface expression of a5ß1-integrin, while reducing surface expression of aVß3-integrin. Mechanistically, BRAG2 mediated recycling of aVß3-integrins and endocytosis of ß1-integrins and specifically of the active/matrix bound a5ß1-integrin present in fibrillar/focal adhesions (FA), suggesting that BRAG2 contributes to the disassembly of FA via ß1-integrin-endocytosis. Arf5 and Arf6 are promoting downstream of BRAG2 angiogenic sprouting, ß1-integrin-endocytosis and the regulation of FA. In vivo silencing of the BRAG2-orthologues in zebrafish embryos using morpholinos perturbed vascular development. Furthermore, in vivo intravitral injection of plasmids containing BRAG2-shRNA reduced pathological ischemia-induced retinal and choroidal neovascularization. These data reveals that BRAG2 is essential for developmental and pathological angiogenesis by promoting EC sprouting through regulation of adhesion by mediating ß1-integrin internalization and associates for the first time the process of ß1-integrin endocytosis with angiogenesis.
Alzheimer’s disease (AD), which was first reported more than a century ago by Alhzeimer, is one of the commonest forms of dementia which affects >30 million people globally (>8 million in Europe). The origin and pathogenesis of AD is poorly understood and there is no cure available for the disease. AD is characterized by the accumulation of senile plaques composed of amyloid beta peptides (Ab 37-43) which is formed by the gamma secretase (GS) complex by cleaving amyloid precursor protein. Therefore GS can be an attractive drug target. Since GS processes several other substrates like Notch, CD44 and Cadherins, nonspecific inhibition of GS has many side effects. Due to the lack of crystal structure of GS, which is attributed to the extreme difficulties in purifying it, molecular modeling can be useful to understand its architecture. So far only low resolution cryoEM structures of the complex has been solved which only provides a rough structure of the complex at low 12-15 A resolution Furthermore the activity of GS in vitro can be achieved by means of cell-free (CF) expression.
GS comprises catalytic subunits namely presenilins and supporting elements containing Pen-2, Aph-1 and Nicastrin. The origin of AD is hidden in the regulated intramembrnae proteolysis (RIP) which is involved in various physiological processes and also in leukemia. So far growth factors, cytokines, receptors, viral proteins, cell adhesion proteins, signal peptides and GS has been shown to undergo RIP. During RIP, the target proteins undergo extracellular shredding and intramembrane proteolysis.
This thesis is based on molecular modeling, molecular dynamics (MD) simulations, cell-free (CF) expression, mass spectrometry, NMR, crystallization, activity assay etc of the components of GS complex and G-protein coupled receptors (GPCRs).
First I validated the NMR structure of PS1 CTF in detergent micelles and lipid bilayers using coarse-grained MD simulations using MARTINI forcefield implemented in Gromacs. CTF was simulated in DPC micelles, DPPC and DLPC lipid bilayer. Starting from random configuration of detergent and lipids, micelle and lipid bilyer were formed respectively in presence of CTF and it was oriented properly to the micelle and bilyer during the simulation. Around DPC molecules formed micelle around CTF in agreement of the experimental results in which 80-85 DPC molecules are required to form micelles. The structure obtained in DPC was similar to that of NMR structure but differed in bilayer simulations showed the possibility of substrate docking in the conserved PAL motif. Simulations of CTF in implicit membrane (IMM1) in CHAMM yielded similar structure to that from coarse grained MD.
I performed cell-free expression optimization, crystallization and NMR spectroscopy of Pen-2 in various detergent micelles. Additionally Pen-2 was modeled by a combination of rosetta membrane ab-initio method, HHPred distant homology modeling and incorporating NMR constraints. The models were validated by all atom and coarse grained MD simulations both in detergent micelles and POPC/DPPC lipid bilayers using MARTINI forcefield.
GS operon consisting of all four subunits was co-expressed in CF and purified. The presence of of GS subunits after pull-down with Aph-1 was determined by western blotting (Pen-2) and mass spectrometry (Presenilin-1 and Aph-1). I also studied interactions of especially PS1 CTF, APP and NTF by docking and MD.
I also made models and interfaces of Pen-2 with PS1 NTF and checked their stability by MD simulations and compared with experimental results. The goal is to model the interfaces between GS subunits using molecular modeling approaches based on available experimental data like cross-linking, mutations and NMR structure of C-terminal fragment of PS1 and transmembrane part of APP. The obtained interfaces of GS subunits may explain its catalysis mechanism which can be exploited for novel lead design. Due to lack of crystal/NMR structure of the GS subunits except the PS1 CTF, it is not possible to predict the effect of mutations in terms of APP cleavage. So I also developed a sequence based approach based on machine learning using support vector machine to predict the effect of PS1 CTF L383 mutations in terms of Aβ40/Aβ42 ratio with 88% accuracy. Mutational data derived from the Molgen database of Presenilin 1 mutations was using for training.
GPCRs (also called 7TM receptors) form a large superfamily of membrane proteins, which can be activated by small molecules, lipids, hormones, peptides, light, pain, taste and smell etc. Although 50% of the drugs in market target GPCRs , only few are targeted therapeutically. Such wide range of targets is due to involvement of GPCRs in signaling pathways related to many diseases i.e. dementia (like Alzheimer's disease), metabolic (like diabetes) including endocrinological disorders, immunological including viral infections, cardiovascular, inflammatory, senses disorders, pain and cancer.
Cannabinoid and adrenergic receptors belong to the class A (similar to rhodopsin) GPCRs. Docking of agonists and antagonists to CB1 and CB2 cannabinoid receptors revealed the importance of a centrally located rotamer toggle switch, and its possible role in the mechanism of agonist/antagonist recognition. The switch is composed of two residues, F3.36 and W6.48, located on opposite transmembrane helices TM3 and TM6 in the central part of the membranous domain of cannabinoid receptors. The CB1 and CB2 receptor models were constructed based on the adenosine A2A receptor template. The two best scored conformations of each receptor were used for the docking procedure. In all poses (ligand-receptor conformations) characterized by the lowest ligand-receptor intermolecular energy and free energy of binding the ligand type matched the state of the rotamer toggle switch: antagonists maintained an inactive state of the switch, whereas agonists changed it. In case of agonists of β2AR, the (R,R) and (S,S) stereoisomers of fenoterol, the molecular dynamics simulations provided evidence of different binding modes while preserving the same average position of ligands in the binding site. The (S,S) isomer was much more labile in the binding site and only one stable hydrogen bond was created. Such dynamical binding modes may also be valid for ligands of cannabinoid receptors because of the hydrophobic nature of their ligand-receptor interactions. However, only very long molecular dynamics simulations could verify the validity of such binding modes and how they affect the process of activation.
Human N-formyl peptide receptors (FPRs) are G protein-coupled receptors (GPCRs) involved in many physiological processes, including host defense against bacterial infection and resolving inflammation. The three human FPRs (FPR1, FPR2 and FPR3) share significant sequence homology and perform their action via coupling to Gi protein. Activation of FPRs induces a variety of responses, which are dependent on the agonist, cell type, receptor subtype, and also species involved. FPRs are expressed mainly by phagocytic leukocytes. Together, these receptors bind a large number of structurally diverse groups of agonistic ligands, including N-formyl and nonformyl peptides of different composition, that chemoattract and activate phagocytes. For example, N-formyl-Met-Leu-Phe (fMLF), an FPR1 agonist, activates human phagocyte inflammatory responses, such as intracellular calcium mobilization, production of cytokines, generation of reactive oxygen species, and chemotaxis. This ligand can efficiently activate the major bactericidal neutrophil functions and it was one of the first characterized bacterial chemotactic peptides. Whereas fMLF is by far the most frequently used chemotactic peptide in studies of neutrophil functions, atomistic descriptions for fMLF-FPR1 binding mode are still scarce mainly because of the absence of a crystal structure of this receptor. Elucidating the binding modes may contribute to designing novel and more efficient non-peptide FPR1 drug candidates. Molecular modeling of FPR1, on the other hand, can provide an efficient way to reveal details of ligand binding and activation of the receptor. However, recent modelings of FPRs were confined only to bovine rhodopsin as a template.
To locate specific ligand-receptor interactions based on a more appropriate template than rhodopsin we generated the homology models of FPR1 using the crystal structure of the chemokine receptor CXCR4, which shares over 30% sequence identity with FPR1 and is located in the same γ branch of phylogenetic tree of GPCRs (rhodopsin is located in α branch). Docking and model refinement procedures were pursued afterward. Finally, 40 ns full-atom MD simulations were conducted for the Apo form as well as for complexes of fMLF (agonist) and tBocMLF (antagonist) with FPR1 in the membrane. Based on locations of the N- and C-termini of the ligand the FPR1 extracellular pocket can be divided into two zones, namely, the anchor and activation regions. The formylated M1 residue of fMLF bound to the activation region led to a series of conformational changes of conserved residues. Internal water molecules participating in extended hydrogen bond networks were found to play a crucial role in transmitting the agonist-receptor interactions. A mechanism of initial steps of the activation concurrent with ligand binding is proposed.
I accurately predicted the structure and ligand binding pose of dopamine receptor 3 (RMSD to the crystal structure: 2.13 Å) and chemokine receptor 4 (CXCR4, RMSD to the crystal structure 3.21 Å) in GPCR-Dock 2010 competition. The homology model of the dopamine receptor 3 was 8 th best overall in the competition.
Introduction: Postural control is a prerequisite to many everyday and sporting activities which requires the interaction of multiple sensorimotor processes. As long as we have no balance disorders, the maintenance of an erect standing position is taken for granted with automatic running control processes. It is well known that with increasing age or disease balance problems occur which often cause fall-related injuries. To assess balance performance, posturography is widely applied in which body sway is traditionally viewed as a manifestation of random fluctuations. Thus, the amount of sway is solely used as an index of postural stability, that is, less sway is an indication of better control. But, traditional measures of variability fail to account for the temporal organisation of postural sway. The concept of nonlinear dynamics suggests that variability in the motor output is not random but structured. It provides the stimulus to reveal the functionality of postural sway. This thesis evaluates nonlinear analysis tools in addition to classic linear methods in terms of age-related modifications of postural control and under different standing conditions in order to broaden the existing knowledge of postural control processes.
Methods: Static posturographic analyses were conducted which included the recording of centre of pressure (COP) time series by means of a force plate. Linear and nonlinear methods were used to quantify postural sway variability in order to evaluate both the amount and structure of sway. Classic time and frequency domain COP parameters were computed. In addition, wavelet transform (WT), multiscale entropy, detrended fluctuation analysis, and scaled windowed variance method were applied to COP signals in order to derive structural COP parameters. Two experiments were performed. 1) 16 young (26.1 ± 6.7 years), healthy subjects were asked to adopt a bipedal stance under single- and dual-task conditions. Three trials were conduced each with a different sampling duration: 30, 60, and 300 seconds [s]. 2) 26 young (28.15 ± 5.86 years) and 13 elderly (72 ± 7 years) subjects stood quietly for 60 s on five different surfaces which imposed different biomechanical constraints: level ground (LG), one foot on a step (ST), uphill (UH), downhill (DH), and slope (SL). Additional to COP recordings, limb load symmetry was assessed via foot pressure insoles.
Results: We found a higher sensitivity of structural COP parameters to modulations of postural control and partly an improved evaluation of sway dynamics in longer COP recordings. WT revealed a reweighing of frequency bands in response to altered standing conditions. Scaling exponents and entropy values of COP signals were task-dependent. Higher entropy values were found under the dual-task and condition ST. The time scales affected under the altered standing positions differed between groups and sway directions. Mainly larger posturograms were found in the elderly. Age effects were especially revealed in position ST and concerning medial-lateral COP signals. Load asymmetry was stronger in elderly subjects for LG, UH, and DH positions.
Discussion: Modifications of multiple time scales corresponds to an interplay of control subsystems to cope with the altered task demands. The affected time scales are age-dependent suggesting a change of control processes. Higher irregularity under the dual-task indicates a more complex motor output which is interpreted as less attentional investment into postural control. Larger complexity is evident for ST in contrast to LG position. ST obviously challenges lateral sway which is counteracted differently between groups. Load asymmetry suggests that especially elderly subjects adopt a step-initiation strategy.
Conclusion: A continued application of nonlinear methods is necessary to broaden the understanding of postural control mechanisms and to identify classifiers for balance dysfunctions. Structural COP parameters provide a more comprehensive indication of postural control system properties between groups and task demands. COP recordings of at least 60 s are recommended to adequately quantify COP signal structure. The analysis of postural strategies in everyday activities increases the ecological validity of postural control studies and can provide valuable information regarding the development of effective rehabilitation programs.
This work presents a biochemical, functional and structural characterization of Aquifex aeolicus F1FO ATP synthase obtained using both a native form (AAF1FO) and a heterologous form (EAF1FO) of this enzyme.
F1FO ATP synthases catalyze the synthesis of ATP from ADP and inorganic phosphate driven by ion motive forces across the membrane and therefore play a key cellular function. Because of their central role in supporting life, F1FO ATP synthases are ubiquitous and have been remarkably conserved throughout evolution. For their biological importance, F1FO ATP synthases have been extensively studied for many decades and many of them were characterized from both a functional and a structural standpoint. However, important properties of ATP synthases – specifically properties pertaining to their membrane embedded subunits – have yet to be determined and no structures are available to date for the intact enzyme complex. Therefore, F1FO ATP synthases are still a major focus of research worldwide. Our research group had previously reported an initial characterization of AAF1FO and had indicated that this enzyme presents unique features, i.e. a bent central stalk and a putatively heterodimeric peripheral stalk. Based on such a characterization, this enzyme revealed promising for structural and functional studies on ATP synthases and became the focus of this doctoral thesis. Two different lines of research were followed in this work.
First, the characterization of AAF1FO was extended by bioinformatic, biochemical and enzymatic analyses. The work on AAF1FO led to the identification of a new detergent that maintains a higher homogeneity and integrity of the complex, namely the detergent trans-4-(trans-4’-propylcyclohexyl)cyclohexyl-α-D-maltoside (α-PCC). The characterization of AAF1FO in this new detergent showed that AAF1FO is a proton-dependent, not a sodium ion-dependent ATP synthase and that its ATP hydrolysis mechanism needs to be triggered and activated by high temperatures, possibly inducing a conformational switch in subunit γ. Moreover, this approach suggested that AAF1FO may present unusual features in its membrane subunits, i.e. short N-terminal segments in subunits a and c with implications for the membrane insertion mechanism of these subunits.
Investigating on these unique features of A. aeolicus F1FO ATP synthase could not be done using A. aeolicus cells, because these require a harsh and dangerous environment for growth and they are inaccessible to genetic manipulations. Therefore, a second approach was pursued, in which an expression system was created to produce the enzyme in the heterologous host E. coli. This second approach was experimentally challenging, because A. aeolicus F1FO ATP synthase is a 500-kDa multimeric membrane enzyme with a complicated and still not entirely determined stoichiometry and because its encoding genes are scattered throughout A. aeolicus genome, rather than being organized in one single operon. However, an artificial operon suitable for expression was created in this work and led to the successful production of an active and fully assembled form of Aquifex aeolicus F1FO ATP synthase. Such artificial operon was created using a stepwise approach, in which we expressed and studied first individual subunits, then subcomplexes, and finally the entire F1FO ATP synthase complex. We confirmed experimentally that subunits b1 and b2 form a heterodimeric subcomplex in the E. coli membranes, which is a unique case among ATP synthases of non-photosynthetic organisms. Moreover, we determined that the b1b2 subcomplex is sufficient to recruit the soluble F1 subcomplex to the membranes, without requiring the presence of the other membrane subunits a and c. The latter subunits can be produced in our expression system only when the whole ATP synthase is expressed, but not in isolation nor in the context of smaller FO subcomplexes. These observations led us to propose a novel mechanism for the assembly of ATP synthases, in which first the F1 subcomplex attaches to the membrane via subunit b1b2, and then cring and subunits a assemble to complete the FO subcomplex. Furthermore, we could purify the heterologous ATP synthase (EAF1FO) to homogeneity by chromatography and electro-elution. Enzymatic assays showed that the purified form of EAF1FO is as active as AAF1FO. Peptide mass fingerprinting showed that EAF1FO is composed of the same subunits as AAF1FO and all soluble and membrane subunits could be identified. Finally, single-particle electron microscopy analysis revealed that the structure of EAF1FO is identical to that of AAF1FO. Therefore, the EAF1FO expression system serves as a reliable platform for investigating on properties of AAF1FO.
Specifically, in this work, EAF1FO was used to study the membrane insertion mechanism of rotary subunit c. Subunits c possess different lengths and levels of hydrophobicity across species and by analyzing their N-terminal variability, four phylogenetic groups of subunits c were distinguished (groups 1 to 4). As a member of group 2, the subunit c from A. aeolicus F1FO ATP synthase is characterized by an N-terminal segment that functions as a signal peptide with SRP recognition features, a unique case for bacterial F1FO ATP synthases. By accurately designing mutants of EAF1FO, we determined that such a signal peptide is strictly necessary for membrane insertion of subunit c and we concluded that A. aeolicus subunit c inserts into E. coli membranes using a different pathway than E. coli subunit c. Such a property may be common to other ATP synthases from extremophilic organisms, which all cluster in the same phylogenetic group.
In conclusion, the successful production of the fully assembled and active F1FO ATP synthase from A. aeolicus in E. coli reported in this work provides a novel genetic system to study A. aeolicus F1FO ATP synthase. To a broader extent, it will also serve in the future as a solid reference for designing strategies aimed at producing large multi-subunit complexes with complicated stoichiometry.
Characterization of mouse NOA1 : subcellular localizaion, G-Quadruplex binding and proteolysis
(2013)
Mitochondria contain their own protein synthesis machinery with mitoribosomes that are similar to prokaryotic ribosomes. The thirteen proteins encoded in the mitochondrial genome are members of the respiratory chain complexes that generate a proton gradient, which is the electromotoric force for ATP synthesis.
NOA1 (Nitric Oxide Associated Protein-1) is a nuclear encoded GTPase that positively influences mitochondrial respiration and ATP production. Although a role in mitoribosome assembly was assigned to NOA1 the underlying molecular mechanism is poorly understood. This work shows that the multi-domain protein NOA1 serves multiple purposes for the function of mitochondria. NOA1 is a dual localized protein that makes a detour through the nucleus before mitochondrial import. The nuclear shuttling is mediated by a nuclear localization signal and the now identified nuclear export signal. SELEX (Systemic Evolution of Ligands by Exponential Enrichment) analysis revealed a G-quadruplex binding motif that characterizes NOA1 as ribonucleoprotein (RNP). G-quadruplex binding was coupled to the GTPase activity and increased the GTP hydrolysis rate. The sequence of localization events and the identification of NOA1 being a RNP lead to the discussion of an alternative import pathway for RNPs into mitochondria. The short-lived NOA1 contains ClpX recognition motifs and is specifically degraded by the mitochondrial matrix protease ClpXP. NOA1 is the first reported substrate of ClpXP in higher eukaryotes and augments the contribution of the ClpXP protease for mitochondrial metabolism. To assess the direct action of NOA1 on the mitoribosome co-sedimentation assays were performed. They showed that the interaction of NOA1 and the mitoribosome is dependent on the GTPase function and the nascent peptide chain. In vitro, NOA1 facilitated the membrane insertion of newly translated and isotope labeled mitochondrial translation products into inverted mitochondrial inner membrane vesicles. In conclusion, NOA1 is a G-quadruplex-RNP that acts as mitochondrial membrane insertion factor for mtDNA-encoded proteins.
This thesis provides a comprehensive model of the molecular function of NOA1 and is the basis for future research. The identification of NOA1 as ClpXP substrate is a major contribution to the field of mitochondrial research.
Eine Infektion mit dem Hepatitis B Virus (HBV) kann bei 5-10 % der infizierten Erwachsenen und 70-90 % der infizierten Kinder chronisch verlaufen. Trotz einer verfügbaren Impfung gegen die Erkrankung sind heute nach Angaben der WHO weltweit etwa 350 Mio. Menschen chronisch HBV-infiziert [Lupberger and Hildt, 2007, Hollinger and Liang, 2001]. In 5-10 % der Fälle führt eine chronische Infektion zu einer Leberfibrose und Zirrhose, welche letztlich zur Ausbildung eines hepatozellulären Karzinoms (HCC) führen kann. HCCs sind die dritthäufigste karzinomassoziierte Todesursache weltweit [Blum, 2005]. Um Therapien gegen eine HBV-Infektion und das damit erhöhte Risiko einer HCC-Entstehung entwickeln zu können, müssen die einzelnen Schritte des HBV-Replikationszyklus verstanden sein. Wesentliche Schritte der frühen Infektionsphase, insbesondere der Rezeptor bzw. Rezeptorkomplex, welcher den Zelleintritt des Virus vermittelt sowie der Transport des Virusgenoms in den Zellkern, sind bisher noch unklar. Auch der Exportprozess und die Freisetzung der Viruspartikel ist bisher noch nicht im Detail verstanden. Es ist jedoch bekannt, dass die Viruspartikel unter Nutzung der zellulären ESCRT (endosomal sorting complex required for transport)-Maschinerie aus der Zelle freigesetzt werden [Lambert et al., 2007]. Auf der Suche nach Faktoren, die in diese Vorgänge involviert sind, konnte in dieser Arbeit das vesikeltransportassoziierte Protein α-Taxilin identifiziert werden. Der Einfluss von HBV auf die α-Taxilin-Bildung und seine mögliche Beteiligung am viralen Export wurden dabei näher charakterisiert. In HBV-positiven Zellen konnte in vivo und in vitro eine signifikante Steigerung der α-Taxilin-Expression nachgewiesen werden. Diese wird hierbei durch die HBV-Proteine HBx und LHBs über den Raf/Mek/Erk-Signalweg induziert [Glatzel, 2011]. Mithilfe von knockdown-Experimenten konnte beobachtet werden, dass α-Taxilin für den Export der Viruspartikel, nicht aber für den Export subviraler Partikel (SVPs) essentiell ist. Der Export der Virionen findet hierbei über das ESCRT-System statt. Den HBV-Strukturproteinen fehlen jedoch die für die Interaktion mit dem ESCRT-System essentiellen late-Domänen. Die Proteinstruktur von α-Taxilin dagegen weist diese late-Domänen auf. In dieser Arbeit konnte diese interaktionsvermittelnde Funktion von α-Taxilin zwischen dem Virus und dem ESCRT-System charakterisiert werden. Über eine Interaktion von α-Taxilin mit dem viralen LHBs-Protein auf der einen Seite und der tsg101-Komponente des ESCRT-I-Komplexes auf der anderen Seite agiert α-Taxilin als eine Art Linker zwischen dem ESCRT-System und HBV.
Darüber hinaus wurde Annexin A5 als zellulärer Interaktionspartner für α-Taxilin identifiziert [Röttger, 2011]. Es dirigiert α-Taxilin in einer Art shuttle-Funktion auf die Zellmembran suszeptibler Zellen und bindet es an deren Zelloberfläche. Diese Exposition von α-Taxilin nimmt während der Dedifferenzierung in Korrelation mit dem Suszeptibilitätsverlust primärer Hepatozyten ab. Eine Maskierung von α-Taxilin durch eine vorherige Inkubation der Zellen mit α-Taxilin-spezifischen Antikörpern konnte die Bindung und die Aufnahme der Viren inhibieren. Überexpressionsstudien bestätigten die essentielle Rezeptorfunktion von α-Taxilin. Die verstärkte Produktion von α-Taxilin führte zur Suszeptibilität der Zellen. Auch die Speziesspezifität der Bindung zwischen humanem α-Taxilin und HBV konnte in einem Co-Immunpräzipitationsexperiment mit den rezeptorbindenden Domänen von HBV, WHV und DHBV identifiziert werden.
In der vorliegenden Arbeit konnte somit zum ersten Mal eine Rezeptorfunktion von α-Taxilin bei der Aufnahme von HBV in die Wirtszelle nachgewiesen werden. Darüber hinaus schreiben die in dieser Arbeit gemachten Beobachtungen α-Taxilin eine essentielle Funktion für die Vermittlung des ESCRT-abhängigen Exports der Virionen aus der Zelle zu. Die hierbei gewonnen Erkenntnisse sind von hoher Relevanz für die weitere Erforschung der HBV-assoziierten Pathogenese und die Etablierung eines in vivo Infektions-Modells.
Autophagie ist ein evolutionär stark konservierter Degradationsmechanismus für geschädigte Proteine bis hin zu ganzen Organellen eukaryotischer Zellen. Dabei umhüllt eine Doppelmembran, bisher unbekannten Ursprungs, das zu degradierende Material und bildet das Autophagosom. Dies fusioniert später mit Lysosomen, wodurch dessen Inhalt proteolytisch zersetzt und die Bestandteile der Zelle wieder zur Verfügung gestellt werden kann.
In dieser Abeit wurde der Fokus auf den mitochondrialen Abbau über Autophagie (Mitophagie) und dessen Funktion als ein mitochondrialer Qualitätsmechanismus gesetzt. Als Zellmodell wurden primäre humane Endothelzellen der Nabelschnurvene (HUVEC) verwendet. Diese zeichenen sich durch einen Übergang von einer mitotischen, jungen in eine lange postmitotische, seneszente Phase während der Kultiverungszeit aus. Dabei durchlaufen sie einer zelluläre und mitochondriale Morphologieänderung. , wodurch sich die Möglichkeit bot , die Autophagie unter verschiedenen Parametern zu betrachten.
So wird generell eine Abnahme des autophagosomalen / lysosomalen Weges mit dem Alter beschrieben und die Abhängigkeit der Mitophagie von der mitochondrialen Länge.
Mitophagie ist unter normalen Kultivierungsbedingungen ein mikroskopisch selten zu beobachtender Vorgang. Daher wurde ein mitochondriales Schädigungsystem etabliert, welches die photosensibiliesierende Wirkung des Farbstoffs MitoTracker Red Cmx Ros (MTR) nutzt, um Mitochondrien gezielt oxidativ zu schädigen und die Mitophagie zu aktivieren.
Mitotische HUVEC zeigten 2 h – 8 h nach oxidativer Schädigung eine mitochondriale Fragmentierung größtenteils begleitet von einem Verlust des Membranpotentials. Über einen Zeitraum von 72h-120h kam es zur Regeneration des mitochondrialen Netzwerks durch Neusynthese mitochondrialer Biomoleküle. Entgegen der rescue Hypothese konnten oxidativ geschädigte Mitochondrien nicht durch eine Fusion mit funktional intakten Mitochondrien gerettet werden und wurden über den autophagosomalen / lysosomalen Weg abgebaut, gekennzeichnet durch die Ubiquitin-Ligase Parkin vermittelte Markierung und finaler Kolokalisation mit den autophagosomalen und lysosomalen Markerproteinen LC3B und LAMP-2A. Auf mRNA- und Proteinebene zeigte sich in diesem Zeitraum eine erhöhte Expression autophagie-relevanter Gene (ATGs) ATG5, ATG12 und LC3B.
Der Vergleich von mitotischen mit postmitotischen HUVEC nach oxidativer Schädigung wies zwei grundlegende Unterschiede auf.
Zum einem behielten, in Gegensatz zu jungen Zellen, die Mitochondrien alter HUVEC ihre Morphologie und ihr Membranpotential bei. Diese erhöhte Widerstandfähigkeit gegenüber oxidativem Stress konnte auf die erhöhte Expression der mitochondrial lokalisierten Serin / Threonin Kinase PINK1 zurückgeführt werden, ein Schlüsselgen in Parkinson.
Die PINK1-Transkription stand invers zu der Expression der mitochondrialen Teilungsfaktoren Fis1- und Drp1, welche in postmitotischen HUVEC stark vermindert war.
Andererseits wiesen alte Zellen eine verminderte Degradationsfähigkeit geschädigter Mitochondrien auf. Dieser Umstand war durch eine verminderte lysosomale Azidität bedingt. Eine externe ATP-Zugabe förderte die Azidität der Lysosomen alter Zellen und die Fusion mit Autophagosomen, wodurch Mitochondrien und ihre geringere ATP-Produktion im Alter als ein Faktor der Autophagie ermittelt weden konnte.
Die Autophagierate steht in Verbindung mit der Lebensspanne von Zellen bis hin zu ganzen Organismen. Durch die Überexpression autophagie-relevanter GFP-Fusions-Proteine ATG5, ATG12 und LC3B, welche nach oxidativer Schädigung in ihrer Expression verstärkt wurden, förderten die Mitophagie und wurden stabil in junge HUVEC exprimiert. Diese Überexpressionen bewirkten eine verbesserte mitochondriale Qualität, veranschaulicht durch ein erhöhtes Membranpotential und die ATP-Bereitstellung, einer besseren mtDNA Integrität und sie verlängerten die Lebensspanne signifikant, wobei die Produktion von reaktiven Sauerstoffspezien (ROS), entgegen der von Harman aufgestellten Alterungstheorie, keine Verminderung zeigte. Dennoch wiesen sie einen erhöhten Gehalt oxidativ modifizierter Proteine auf, welche letztendlich auf die erhöhten Autophagosomenanzahl zurückgeführt werden konnte, in denen höchstwahrscheinlich das oxidativ geschädigte Material gelagert wird.
In dieser Arbeit kann gezeigt werden, dass Mitochondrien nach oxidativer Schädigung eine Teilung vollziehen und geschädigte Mitochondrien selektiv über Autophagie abgebaut werden. Dabei fungiert Mitophagie als ein mitochondrialer Qualitätmechanismus und steht unmittelbar mit der Lebensspanne in Verbindung.
Cheating and Cheaters in Pfaffe Amis and Reinhart Fuchs An Alsatian poet named Heinrich, writing around 1180, composed a beast epic, based on French sources, about a trickster fox named Reinhart. Some sixty years later, a poet known to us only as Der Stricker composed a work of similar length and structure, about a trickster priest named Amis, and his diligent efforts to cheat various anonymous individuals out of their money. Other works by this poet bear out the Stricker's consistent emphasis on strategy over brute force, prudence and intelligence over unconsidered actions. These stories both illustrate that power, when not directed by intelligence, is useless or dangerous, even to the one who wields it. Tricksters and cheating also appear in a surprising range of works contemporary to the Stricker's Pfaffe Amis and Heinrich's Reinhart Fuchs. Romances have their own trickster characters, conducting their cheats using methods and structures that recall those of these two Schwank-type epics. Cheaters like Amis, and Tristan's Isolde generate twin situations. One of them is true/hidden, and can influence the characters, and one is false/apparent, to which the victim characters are forced to respond. This artificial, apparent reality persists even after the cheater has left the scene, occasionally taking on a truth of its own. Both Reinhart and Amis, whatever their motivations, work evil everywhere they go; and yet the audience is expected to treat them as sympathetic characters. Because the trickster universe functions to turn systems upside-down, it also rejects the concepts of good and evil, forming a universe in which all that matters is who wins and who loses. The place of the villain belongs now to the fool; any character who becomes deceived deserves to be, and is treated with indignation by the narrator, just as the traditional villain might be.
Metallorganische Netzwerke (engl. metal-organic frameworks, MOFs) sind eine neuartige Klasse mikro/mesoporöser Materialien, für die eine Vielzahl von möglichen Anwendungen demonstriert werden konnte. Das Ziel dieser Arbeit besteht in der Synthese von MOF Mikro/Nanopartikeln sowie der Herstellung von sogenannten Oberflächen-deponierten MOFs (engl. surface-attached metal-organic frameworks, SURMOFs). MOF Partikel mit kontrollierbarer Morphologie und Größe wurden unter milden Bedingungen synthetisiert. Um MOFs als Sensoren, intelligente Membrane, oder in nanotechnologischen Bauelementen verwenden zu können, ist die Integration auf der jeweiligen Oberfläche wichtig. Daher beschäftigt sich der Großteil dieser Arbeit mit der kontrollierten Abscheidung von SURMOFs auf verschiedenartigen Trägermaterialien. Etliche interessante Eigenschaften (z.B. die Fluoreszenz in Abhängigkeit von der Gegenwart von Gastmolekülen und die dynamische Gasadsorptionskapazität) der SURMOFs wurden untersucht.
Die Funktion der äußeren Haarsinneszellen geht weit über die normale Rezeptoreigenschaft der Kategorie Mechanorezeptor hinaus. Äußere Haarzellen mit ihrer reichhaltigen efferenten Innervierung sind nicht nur für die sensorische Aufnahme mechanischer Bewegung zuständig, sondern ermöglichen aufgrund ihrer motorischen Funktionen die mechanische Verstärkung der Wanderwelle in der Cochlea. Äußere Haarzellen sind eine maßgebliche Komponente des ´cochleären Verstärkers` und ihr Ausfall führt zur Schwerhörigkeit. Beiprodukte des cochleä-ren Verstärkers sind otoakustische Emissionen, deren Messung Aufschluss über aktive mechanische Prozesse im Innenohr gibt.
Die äußeren Haarsinneszellen bilden Synapsen mit dem olivo-cochleären efferenten System, welches im Zentrum der vorliegenden Untersuchung steht. Es vermittelt den Einfluss des Zentralnervensystems auf das Corti-Organ des Innenohrs. Über die akustische Reizung des olivo-cochleären Reflexbogens ist man in der Lage, das efferente System zu aktivieren und gleichzeitig die Antworteigenschaften der Cochlea zu verändern. Efferente Modulationen des cochleären Verstärkers können sich z. B. in einer Veränderung des Emissionspegels bemerk-bar machen. Die Fledermausspezies Carollia perspicillata ist aufgrund ihres Echoortungs-systems mit einem sehr sensitiven und hochauflösenden Hörvermögen ausgestattet und eignet sich hervorragend als Modelltier in der Hörforschung, insbesondere auch deshalb, da oto-akustische Emissionen sehr gut messbar sind.
Das efferente System von C. perspicillata wurde in dieser Untersuchung durch akustische Stimulation der kontralateralen Cochlea angeregt. Die Stimuli, die nicht nur in ihrem Pegel sondern auch in ihrer Bandbreite und in der Mittelfrequenz in Relation zu den ipsilateralen Stimulusfrequenzen variierten, beeinflussten dabei die Generierung der otoakustischen Emis-sionen (DPOAE, engl: distortion product otoacoustic emissions) im ipsilateralen Ohr: akustische Stimulation der kontralateralen Cochlea bewirkte zuverlässig eine Änderung der DPOAE- Amplitude im kontralateralen Ohr. Vor allem eine Suppression des cochleären Verstärkers in Form von DPOAE-Pegelverminderungen wurde beobachtet. Die supprimieren-den Effekte erreichten trotz leiser bis moderater kontralateraler Rauschpegel (bis maximal 54 dB SPL) Werte von bis zu 14, 17.1 und 13.9 dB SPL (bei f2 = 20, 40 und 60 kHz und effek-tivstem kontralateralen Rauschstimulus) und waren damit deutlich größer als in vorangegang-enen Studien an anderen Spezies. Die DPOAE-Pegelverminderungen waren positiv mit dem x Pegel der kontralateralen akustischen Stimulation, ebenso wie seiner Bandbreite und der Mittelfrequenzen in Relation zu den ipsilateralen Stimulusfrequenzen korreliert. Es gab keinen absoluten Frequenzbereich, in dem die efferenten Effekte am größten gewesen wären. Vielmehr traten maximale Effekte immer durch etwas oberhalb der ipsilateralen Stimulusfre-quenzen gelegene kontralaterale Rauschstimuli auf. Die Effekte waren auch abhängig von der Bandbreite des kontralateralen Rauschstimulus und maximal bei einer relativen Bandbreite von 1.5 Oktaven. Die Verschiebung des efferenten Effekts hin zu hohen Frequenzen und die Bandbreitenabhängigkeit sind vereinbar mit den anatomischen Eigenschaften der Projektio-nen der medialen olivo-cochleären Efferenzen in der Säugetiercochlea. Kontralaterale akusti-sche Reizung bewirkte auch eine Verschiebung der Wachstumsfunktionen der 2f1-f2 -DPOAE in einen unsensitiven Bereich und außerdem eine Verformung der Wachstumsfunktion. Bei-des könnte durch Beeinträchtigung des cochleären Verstärkers verursacht sein. Eine Beteili-gung des Mittelohrmuskels an den Effekten kann nahezu ausgeschlossen werden und die beobachteten Effekte sind höchstwahrscheinlich dem olivo-cochleären System zuzuschreiben.
Funktionell ist denkbar, dass bei C. perspicillata das mediale olivo-cochleäre System im Kontext einer Frequenzverschärfung bei der cochleären Verstärkung der Basilarmembranbe-wegung aktiv wird. Aus diesem Grund wurden ipsilateral sogenannte DPOAE-Suppressions- Abstimmkurven gemessen, welche die mechanische Abstimmschärfe im Innenohr beschrei-ben. Während und nach kontralateraler Reizung kam es zu Veränderungen der Abstimmkur-ven. Signifikante Effekte konnten allerdings nicht festgestellt werden, da die Veränderungen der Suppressions-Abstimmkurven variabel und schlecht kategorisierbar war.
Die vorliegenden Ergebnisse unterstützen weit verbreitete Hypothesen zur Funktion der medialen olivo-cochleären Effernzen in Bezug auf mechanische Suppression, Verbesserung des cochleären Signal-Rauschverhältnisses und einer generellen frequenzspezifischen Wirkung.
The biogenesis and function of photosynthetically active chloroplasts relies on the import of thousands of nuclear encoded proteins via the coordinated actions of two multiprotein translocon machineries in the outer and inner envelope membrane. Trafficking of preproteins across the soluble compartment of InterMembrane Space (IMS) is currently envisioned to be facilitated by an IMS complex composed of outer envelope proteins Toc64 and Toc12, a soluble IMS component, Tic22 and an IMS-localized Hsp70. Among them, currently Tic22 is the only component that stands undisputed in terms of its existence. Having two closely related homologs in A. thaliana, their biochemical and functional characterization was still lacking. A critical analysis of Tic22 knockout mutants displayed growth phenotype reminiscent of ppi1, the mutant of Toc33. However, both the genes have similar expression patterns with no clear preference for photosynthetic or nonphotosynthetic tissues, which explained the absence of a detectable phenotype in single mutants. In addition, transgenic complementation study with either of the homolog affirmed the identical localization of both proteins in the IMS which characterizes the two homologs as functionally redundant. Based on the pale-yellow phenotype exhibited by the double mutant plants, an attempt to analyze the import capacity of a stromal substrate in the double mutant revealed threefold reduction when compared to wild-type acknowledging the essential role of Tic22 in the import mechanism. Initially, Tic22 was identified together with another protein, Tic20, which has been heavily discussed as a protein conducting channel in the inner membrane. Despite being characterized, in A. thaliana, two out of four homologs of Tic20 are differentially localized with one being additionally localized in mitochondria and the other, exclusively residing in the thylakoids.
According to in silico analysis, for all the Tic20 proteins, a four-helix transmembrane topology was predicted. Accordingly, its topology was mapped by employing the recently established selfassembling GFP-based in vivo experiments. Astonishingly, the expression of one of the inner envelope localized Tic20 homolog enforces inner membrane proliferation affecting the shape and organization of the membrane. Therefore this study focuses on analyzing the effects of high envelope protein concentrations on membrane structures, which together with the existing results, an imbalance in the lipid to protein ratio and a possible role of signaling pathway regulating membrane biogenesis is discussed.
Paging is one of the most prominent problems in the field of online algorithms. We have to serve a sequence of page requests using a cache that can hold up to k pages. If the currently requested page is in cache we have a cache hit, otherwise we say that a cache miss occurs, and the requested page needs to be loaded into the cache. The goal is to minimize the number of cache misses by providing a good page-replacement strategy. This problem is part of memory-management when data is stored in a two-level memory hierarchy, more precisely a small and fast memory (cache) and a slow but large memory (disk). The most important application area is the virtual memory management of operating systems. Accessed pages are either already in the RAM or need to be loaded from the hard disk into the RAM using expensive I/O. The time needed to access the RAM is insignificant compared to an I/O operation which takes several milliseconds.
The traditional evaluation framework for online algorithms is competitive analysis where the online algorithm is compared to the optimal offline solution. A shortcoming of competitive analysis consists of its too pessimistic worst-case guarantees. For example LRU has a theoretical competitive ratio of k but in practice this ratio rarely exceeds the value 4.
Reducing the gap between theory and practice has been a hot research issue during the last years. More recent evaluation models have been used to prove that LRU is an optimal online algorithm or part of a class of optimal algorithms respectively, which was motivated by the assumption that LRU is one of the best algorithms in practice. Most of the newer models make LRU-friendly assumptions regarding the input, thus not leaving much room for new algorithms.
Only few works in the field of online paging have introduced new algorithms which can compete with LRU as regards the small number of cache misses.
In the first part of this thesis we study strongly competitive randomized paging algorithms, i.e. algorithms with optimal competitive guarantees. Although the tight bound for the competitive ratio has been known for decades, current algorithms matching this bound are complex and have high running times and memory requirements. We propose the algorithm OnlineMin which processes a page request in O(log k/log log k) time in the worst case. The best previously known solution requires O(k^2) time.
Usually the memory requirement of a paging algorithm is measured by the maximum number of pages that the algorithm keeps track of. Any algorithm stores information about the k pages in the cache. In addition it can also store information about pages not in cache, denoted bookmarks. We answer the open question of Bein et al. '07 whether strongly competitive randomized paging algorithms using only o(k) bookmarks exist or not. To do so we modify the Partition algorithm of McGeoch and Sleator '85 which has an unbounded bookmark complexity, and obtain Partition2 which uses O(k/log k) bookmarks.
In the second part we extract ideas from theoretical analysis of randomized paging algorithms in order to design deterministic algorithms that perform well in practice. We refine competitive analysis by introducing the attack rate
parameter r, which ranges between 1 and k. We show that r is a tight bound on the competitive ratio of deterministic algorithms.
We give empirical evidence that r is usually much smaller than k and thus r-competitive algorithms have a reasonable performance on real-world traces. By introducing the r-competitive priority-based algorithm class OnOPT we obtain a collection of promising algorithms to beat the LRU-standard. We single out the new algorithm RDM and show that it outperforms LRU and some of its variants on a wide range of real-world traces.
Since RDM is more complex than LRU one may think at first sight that the gain in terms of lowering the number of cache misses is ruined by high runtime for processing pages. We engineer a fast implementation of RDM, and compare it
to LRU and the very fast FIFO algorithm in an overall evaluation scheme, where we measure the runtime of the algorithms and add penalties for each cache miss.
Experimental results show that for realistic penalties RDM still outperforms these two algorithms even if we grant the competitors an idealistic runtime of 0.
Silicon wafers such as Silicon on Insulator (SOI) and strained silicon on Insulator (sSOI) are the essential and basic materials of advanced microelectronic devices. However, they often show various kinds of crystal defects which impair the function of these devices. The most efficient method to date, for detecting such defects and for determining their density, is to delineate them by etching the wafers with a suitable etching solution and characterise them via light optical microscopy. Etch pits are formed at defect sites which are etched at a faster rate than at the perfect lattice. The standard etching solution used for SOI and sSOI is a dilute version of Secco. As Secco contains carcinogenic and environmentally hazardous chromium (VI), the use of which is or will be restricted by law in many countries, suitable chromium (VI)-free etching solutions like Organic Peracid Etches (OPE), modified Chemical Polishing Etches (CP) like CP4 mod and mixtures with organic oxidizing agents like chloranil (CA) have been developed for the successful delineation of various types of crystal defects.
However there are still nanometer-sized defects which are hard to detect or escape detection by this method. Copper decoration is a well known method to magnify these defects. It consists in applying a copper nitrate solution to the back of the SOI or sSOI wafer. On annealing, copper diffuses through the substrate and the BOX (buried oxide) to the SOI/sSOI film and on quenching to room temperature, copper precipitates as copper silicide, SiCu3, foremost at crystal defects where the lattice strain is greater than at perfect lattice sites. These silicides increase the volume in these parts of the crystal lattice and defect magnification occurs. A considerable disadvantage of this method is its tendency for artefact formation, when the copper concentration used is too high, with the copper precipitating at the film surface. The consequence is a higher density of etch pits whereby true defect etch pits cannot be differentiated from those caused by artefacts.
The aim of this thesis is to show that the processes of decorating and etching can be combined successfully to delineate all crystal defects in SOI and sSOI. An ideal result would have been to find a copper decoration procedure that decorates all existing crystal defects at a copper concentration that avoids artefact formation.
Development of prototype components for the Silicon Tracking System of the CBM experiment at FAIR
(2013)
The CBM experiment at future accelerator facility FAIR will investigate the properties of nuclear matter under extreme conditions. The experimental programm is different from the heavy-ion experiments at RHIC (BNL) and LHC (CERN) that create nuclear matter at high temperatures. In contrast, the study of the QCD phase diagram in the region of the highest net baryon densities and moderate temperatures that is weakly explored will be performed with high precision. For this, collisions of different heavy-ion beams at the energies of 10–45GeV/nucleon with nuclear target will be measured.
The physics programme of the CBM experiment includes measurement of both rare probes and bulk observables that originate from various phases of a nucleus-nucleus collision. In particular, decay of particles with charm quarks can be registered by reconstructing the decay vertex detached from the primary interaction point by several hundreds of micrometers (e.g., decay length c Tau = 123 µm for D0 meson). For this, precise tracking and full event reconstruction with up to 600 charged particle tracks per event within acceptance are required. Other rare probes require operation at interaction rate of up to 10MHz. The detector system that performs tracking has to provide high position resolution on the order of 10 µm, operate at high rates and have radiation tolerant design with low material budget.
The Silicon Tracking System (STS) is being designed for charged-particle tracking in a magnetic field. The system consists of eight tracking station located in the aperture of a dipole magnet with 1T field. For tracks with momentum above 1GeV, momentum resolution of such a system is expected to be about 1%. In order to fulfill this task, thorough optimization of the detector design is required. In particular, minimal material budget has to be achieved.
Production of a detector module requires research and development activities with respect to the module components and their integration. A detector module is a basic functional unit that includes a sensor, an analogue microcable and frontend electronics mounted on a support structure. The objective of the thesis is to perform quality assurance tests of the prototype module components in order to validate the concept of the detector module and to demonstrate its operation using radioactive sources and particle beams.
Double-sided silicon microstrip detectors have been chosen as sensor technology for the STS because of the combination of a good spatial resolution, two-dimensional coordinate measurement achieved within low material budget (0.3%X0), high readout speed and sufficient radiation tolerance. Several generations of double-sided silicon microstrip sensors have been manufactured in order to explore the radiation hard design features and the concept of a large-area sensor compatible with ladder-type structure of the detector module. In particular, sensors with double metal layer on both sides and active area of 62×62mm2 have been produced. Electrical characterization of the sensors has been performed in order to establish the overall operability as well as to extract the device parameters. Current-voltage, capacitance-voltage characteristics and interstrip parameters have been measured.
Readout of the sensors has been done using self-triggering front-end electronics. A front-end board has been developed based on the n-XYTER readout chip with data driven architecture and capable of operating at 32MHz readout rate. The front-end board included an external analog-to-digital converter (ADC). Calibration of the ADC has been performed using both 241Am X-ray source and external pulse generator. Threshold calibration and investigation of temperature dependence of chip parameters has been carried out.
Low-mass support structures have been developed using carbon fibre that has the rigidity to hold the detector modules and introduce minimal Coulomb scattering of the particle tracks. Analogue microcables have been produced with aluminium traces on a polyimide substrate, thus combining good electrical connection with low material budget. Microcable structure includes several layers optimized for low trace capacitance and thus low-noise performance.
A demonstrator tracking telescope has been constructed and operated in several beam tests including 2.5GeV proton beam at COSY synchrotron (Jülich). Three tracking stations have been complemented with several beam hodoscopes. Analysis of the beam data has yielded information on analogue and timing response, beam profile. Tracking and alignment information has been obtained. Beam stability has been evaluated using specially developed monitoring tools.
As a result of conducted studies, performance of the module components have been evaluated and requirements to the detector module have been formulated. Practical suggestions have been made with respect to the structure of the detector module, whereas precise definition of the final detector module design was outside of the scope of this thesis.
Heterodyne array receivers are employed in radio astronomy to reduce the observing time needed for mapping extended sources. One of the main factors limiting the amount of pixels in terahertz receivers is the difficulty of generating a sufficient amount of local oscillator power. Another challenge is efficient diplexing and coupling of local oscillator and signal power to the detectors. These problems are attacked in this dissertation by proposing the application of two vacuum electronic terahertz amplifier types for the amplification of the LO-signal and by introducing a new method for finding the defects in a quasioptical diplexer.
A traveling wave tube (TWT) design based on a square helix slow wave structure (SWS) at 825 GHz is introduced. It exhibits a simulated small-signal gain of 18.3 dB and a 3-dB bandwidth of 69 GHz. In order to generate LO-power at even higher frequencies, the operation of an 850-GHz square helix TWT as a frequency doubler has been studied. A simulated conversion efficiency of 7% to 1700 GHz, comparable with the state-of-art solid-state doublers, has been achieved for an input power of 25 mW.
The other amplifier type discussed in this work is a 1-THz cascade backward wave amplifier based on a double corrugated waveguide SWS. Specifically, three input/output coupler types between a rectangular waveguide and the SWS are presented. The structures have been realized with microfabrication, and the results of loss measurements at 1 THz will be shown.
Diplexing of the LO- and signal beams is often performed with a Martin-Puplett interferometer. Misalignment and deformation of the quasioptical components causes the polarization state of the output signal to be incorrect, which leads to coupling losses. A ray-tracing program has been developed for studying the influence of such defects. The measurement results of the diplexer of a multi-pixel terahertz receiver operated at the APEX telescope have been analyzed with the program, and the results are presented. The program allows the quasioptical configuration of the diplexer to be corrected in order to obtain higher receiver sensitivity.
Die Diskussion über die zeitgenössische Globalethik im Kontext von Hans Küng und Iḫwān aṣ-ṣafāʾ
(2013)
Die Menschheit befindet sich in einer globalen Krise, die sich nicht nur im wirtschaftlichen, politischen und ökologischen Bereich zeigt. Auch Religion und Moral sind davon betroffen. Die Modernisierung führt zunehmend dazu, dass menschliche Werte wie bedingungslose Solidarität, Aufrichtigkeit, Hilfsbereitschaft und Großzügigkeit immer mehr durch Geldgier und Ausbeutung der Umwelt ersetzt werden. Man beschwert sich oft über die Kriegsgefahren, über die Probleme des Bevölkerungswachstums, die Umweltverschmutzung und die Vergiftung von Gewässern sowie über die Gefahr des globalen Terrors. Viele dieser Probleme berühren Religion und Moral, die nicht unabhängig von modernen Problemen denkbar sind. Globaler Terror hat beispielsweise neben vielen anderen Faktoren auch religiös begründete Motive.
In der vorliegenden Arbeit konnte gezeigt werden, dass bestimmte neuronale microRNAs im Rückenmark und in den Spinalganglien konstitutiv exprimiert und nach peripherer Entzündung mit Formalin oder Zymosan differenziell reguliert werden. Bei der SNI-induzierten Neuropathie konnte indessen keine signifikante Regulation der untersuchten microRNAs nachgewiesen werden. Aufgrund der Lokalisation in den Neuronen der Schmerz-verarbeitenden Laminae I und II des Dorsalhorns des Rückenmarks und angesichts der Regulation in entzündlich stimulierten Neuronen und Mikroglia wurde der Fokus der Arbeit auf die Untersuchung von microRNA-124a gelegt. Anhand von Expressionsanalysen konnte gezeigt werden, dass eine periphere entzündliche Stimulation mit Formalin oder Zymosan microRNA-124a im Rückenmark inhibiert, die Expression pro-inflammatorischer und pro-nozizeptiver Gene hiernach ermöglicht und ein vermehrtes Schmerzverhalten bewirkt. Die funktionelle Relevanz von microRNA-124a wurde in vivo mittels intravenöser Applikation von microRNA-124a-Modulatoren bei einem Modell für entzündliche Schmerzen, dem Formalin-Modell untersucht. Dabei führte die Hemmung von microRNA-124a zu einem verstärkten Schmerzverhalten, welches mit einer Hochregulation verschiedener Entzündungsmarker einherging. Die Überexpression von microRNA-124a dagegen antagonisierte die Hochregulation entzündlicher Mediatoren und führte zu einer Schmerzhemmung. Darüber hinaus konnte in der vorliegenden Arbeit der antinozizeptive Effekt von microRNA-124a mit der Regulation der Epigenetik-regulierenden Targets MeCP2, HDAC5 und MYST2 assoziiert werden und u.a. über die Hemmung des neuromodulierenden, pro-inflammatorischen Peptids BDNF verifiziert werden. Die spezielle Darreichung von microRNA-124a könnte demzufolge einen vielversprechenden Ansatz zur Therapie chronisch-entzündlicher Schmerzen liefern. Zukünftig werden weitere Studien notwendig sein um die eindeutige Funktion, die individuelle Wirkung sowie die therapeutische Relevanz von microRNA-124a zu analysieren. Darüber hinaus müssten Dosis-Wirkungs-Beziehungen und Nebenwirkungsprofile für microRNA-124a erstellt werden, um potenzielle Risiken, Chancen und Vorteile der microRNA-Modulation hinsichtlich einer humanen Schmerztherapie bewerten zu können.
Die Transkription ist ein entscheidender Schritt in der Transition der genetischen Information, welche durch die DNA codiert und im Genom hinterlegt ist, zu dreidimensionalen Funktionseinheiten in der Zelle, den Proteinen. Während der Transkription wird die Information von der Ebene der DNA in RNA umgewandelt, welche in der Zelle zusätzlich zu dessen Rolle als Informationsmediator in Form der mRNA eine Vielzahl von Funktionen ausübt. Die Transkription benötigt in Hinblick auf ihre essentielle Rolle in der Errichtung des Proteoms und der notwendigen Adaption von Genexpressionsprogrammen an externe zelluläre Stimuli, den Zellzyklus etc. eine präzise und gleichzeitig flexible Regulation. Besonders für die Transkription von mRNA dient die eukaryotische RNA-Polymerase II (RNAP II) in diesem Prozess als eine zentrale Einheit, die einer Vielzahl regulativer Mechanismen wie post-translationaler Modifikationen und der Assemblierung dynamischer Proteinkomplexe unterliegt. Während Komponenten dieser Regulation wie die Zusammensetzung und Dynamik des Prä-Initiationskomplex bereits seit Jahrzehnten beschrieben sind, ist eine besondere Form der RNAP II-abhängigen Regulation erst in den letzten Jahren Gegenstand genauerer Untersuchungen geworden. So erfährt die RNAP II bei einer Vielzahl von Genen unmittelbar nach der Initiation einen Arrest, der das Enzym nicht weiter über die DNA prozessieren lässt und somit die produktive Elongation des Gens blockiert. Die Aufhebung dieser Blockade wird durch den positiven Transkriptions-elongationsfaktor b (P-TEFb) dominiert, der durch distinkte post-translationale Modifikationen der C-terminalen Domäne der RNAP II und assoziierter Faktoren die produktive Elongation ermöglicht. P-TEFb selbst unterliegt dabei einer strengen Regulation durch eine inaktivierende Assoziation mit Speicherkomplexen. P-TEFb wurde abseits dieser Komplexe in einer Vielzahl von Elongations-assoziierten Proteinkomplexen identifiziert, der Mechanismus der Transition aus dem inaktiven Speicherkomplex zur aktiven Form an der RNAP II war jedoch unbekannt.
Ein zentrales Element aller aktiven Komplexe ist die Anwesenheit von Proteinen der AF4/FMR2-Familie, darunter das AF4 Protein. Bemerkenswerterweise war die genaue Rolle dieses Proteins in den Komplexen bisher unbekannt oder wurde lediglich auf die strukturelle Integrität der Komplexe beschränkt. AF4 und speziell dessen N-Terminus ist über diese Rolle hinaus als Bestandteil des Fusionsproteins AF4-MLL eng mit der onkogenen Zelltransformation im Falle einer durch die t(4;11)(q21;q23) chromosomalen Translokation bedingter, akuter lymphoblastischer Leukämie assoziiert.
In dieser Arbeit konnte gezeigt werden, dass das AF4 Protein und im Speziellen sein N-Terminus in der Lage ist, die zelluläre Transkription durch die Aktivierung und Rekrutierung von P-TEFb zu aktivieren. In Anwesenheit von AF4 wird die Kinase-Untereinheit CDK9 des P-TEFb post-translational an Lysinresten modifiziert und damit aktiviert sowie die C-terminale Domäne der RNAP II im Kontext stärker phosphoryliert. Gleichzeitig wurde das P-TEFb inaktivierende Protein HEXIM1 stärker exprimiert. AF4 und AF4-MLL waren weiterhin in der Lage ein Elongations-kontrolliertes Reportergen zu aktivieren. Gleichzeitig führte die Überexpression des AF4 zu einer Erhöhung der zellulären RNA Menge. Zur genaueren Untersuchung der AF4-abhängigen Mechanismen wurden zwei Zelllinien erstellt, die zum Einen eine induzierbare und reproduzierbare Überexpression und Reinigung des AF4 erlaubten (TCZP-AF4ST) und zum Anderen durch lentiviralen knock-down eine an AF4-Mangelsituation nachstellten (AF4kd V100). Es konnte so gezeigt werden, dass AF4 über P-TEFb hinaus eine regulative Funktion gegenüber Transkription-assoziierten Faktoren wie CDK7, MENIN und NF?B besitzt und dass diese Faktoren vorrangig, analog zu P-TEFb, mit dem N-Terminus des AF4 interagieren. Die Überexpression von AF4 führte über die Bindung an die 7SK snRNA und deren Degradation zur Rekrutierung des P-TEFb aus den Speicherkomplexen in distinkte AF4-assoziierte Komplexe und zu einer Umverteilung des Faktors auf distinkte Loci im Zellkern, wobei der AF4 N-Terminus für sich alleine jedoch nicht in der Lage war, diese Funktion auszuüben. Im Falle eines Mangels an AF4 kam es zur Wachstumsretardierung der Zellen sowie zu einem völligen Aktivitätsverlust in Reportergenversuchen.
Die Tatsache, dass AF4 ein zentrales Element in der Elongationskontrolle darstellt führte zu der weitergehenden Vermutung, dass virale immediate early (IE) Proteine zur Kontrolle viraler Genexpression auf der Ebene der Elongation ebenfalls auf dieses Wirtsprotein zugreifen können. Es konnte vor diesem Hintergrund gezeigt werden, dass AF4 tatsächlich mit den IE-Proteinen IE1 (HCMV) und Zta (EBV) aus der Familie der Herpesviren interagiert und durch die Stabilisierung des AF4 Proteins eine kooperative, transaktivierende Funktion auf ein ALOX5 Reportergen ausgeübt wurde. Es wurde gezeigt, dass die viralen IE-Proteine dabei Komponenten der AF4 Komplexe sind und in der Zelle zur epigenetischen Regulation des ALOX5 Gens führen. Weiterhin konnte in diesen Experimenten dargestellt werden, dass AF4 über seine Rolle in der Elongationskontrolle hinaus auch distinkte Effekte in der Aktivierung von Promotoren und damit in der Initiation der Transkription zeigt. Damit konnte in dieser Arbeit zum ersten Mal die essentielle Rolle des AF4 Proteins in der Elongationskontrolle und der Initiation der Transkription als auch in der Infektion durch Herpesviren gezeigt werden.
In der vorliegenden Arbeit wird untersucht, wie das Gehirn Bewusstsein erzeugt. Diese Frage wird als eines der größten Rätsel der heutigen Wissenschaft angesehen: Wie kann es sein, dass aus der Aktivität der Nervenzellen unsere subjektive Welt entsteht? Es ist offensichtlich nicht einfach, diese Frage wissenschaftlich zu untersuchen. Eine der vorgeschlagenen Strategien für die Untersuchung von Bewusstsein behauptet, dass man zunächst die neuronalen Korrelate des Bewusstseins finden sollte (Koch, 2004). Einer Definition zufolge sind die neuronalen Korrelate des Bewusstseins die kleinste Menge neuronaler Prozesse, die hinreichend für eine bestimmte bewusste Erfahrung sind (zum Beispiel für die bewusste Erfahrung des Blaubeergeschmacks). Manche behaupteten, die Entdeckung der neuronalen Korrelate des Bewusstseins würde es erlauben, dem Rätsel des Bewusstseins näher zu kommen (Crick & Koch, 1990). Nur wie soll man die neuronalen Korrelate des Bewusstseins finden? Eine relativ einfache Strategie dafür wurde schon vor mehr als 20 Jahren beschrieben. Es sollten einfach experimentelle Bedingungen erschaffen werden, in welchen ein Reiz manchmal bewusst wahrgenommen wird und manchmal nicht (Baars, 1989). Solche Analysen, die Bedingungen mit und ohne bewusste Wahrnehmung vergleichen, werden als „Kontrastierungsanalyse“ bezeichnet (da zwei Bedingungen miteinander kontrastiert werden). Es existieren viele verschiedene experimentelle Paradigmen, bei welchen man den Reiz unter denselben Bedingungen präsentieren kann, so dass er bei manchen Versuchsdurchgängen bewusst wahrgenommen wird, bei anderen nicht (Kim & Blake, 2005). Mit solchen experimentellen Paradigmen kann man angeblich die neuronalen Korrelate des Bewusstseins finden, wenn man a) bei jedem Durchgang die Versuchsperson fragt, ob oder was die Versuchsperson bei dem Durchgang wahrgenommen hat und b) gleichzeitig die neuronalen Prozesse misst (zum Beispiel mit EEG, MEG oder fMRT). Anschließend kann man die erhobenen neuronalen Daten unter den Bedingungen mit und ohne bewusste Wahrnehmung vergleichen.
Mittlerweile gibt es viele Studien, in denen solche experimentelle Paradigmen – und damit die Kontrastierungsanalyse – angewendet wurden. Insofern könnte man glauben, die neuronalen Korrelate des Bewusstseins seien schon gefunden worden. Allerdings ist dies nicht der Fall. Es existiert in der Literatur weiterhin Uneinigkeit darüber, ob die Korrelate des Bewusstseins früh oder spät in der Zeit liegen, und ob die Korrelate in sensorischen Arealen oder eher im hierarchisch höheren fronto-parietalen Kortex zu finden sind.
Nach unserer Meinung sind die experimentellen Paradigmen, die üblicherweise zum Auffinden der neuronalen Korrelate des Bewusstseins verwendet werden, nicht spezifisch genug, um diese eindeutig zu lokalisieren. Eher glauben wir, dass die klassische Kontrastierungsanalyse auch andere Prozesse als Ergebnisse hervorbringt und uns deshalb prinzipiell nicht zu den neuronalen Korrelaten des Bewusstseins führen kann.
Im Kapitel 2 wird erklärt, wieso die typischen experimentellen Paradigmen nicht die neuronalen Korrelate des Bewusstseins ausfindig machen können. Wir behaupten, dass der Vergleich neuronaler Daten aus experimentellen Bedingungen mit und ohne bewusste Wahrnehmung auch die neuronalen Prozesse widerspiegeln könnte, die bewussten Wahrnehmungen entweder vorausgehen oder folgen. Es ist beispielsweise bekannt, dass neuronale Prozesse vor Auftreten des Reizes darüber bestimmen können, ob der Reiz bewusst wahrgenommen wird oder nicht (Busch, Dubois, & VanRullen, 2009; Mathewson, Gratton, Fabiani, Beck, & Ro, 2009). Wenn man experimentelle Bedingungen mit und ohne bewusster Wahrnehmung miteinander vergleicht, werden auch solche Prozesse als Ergebnis auftauchen, obwohl diese zeitlich klar vor dem Reiz stattfinden und deshalb keine neuronalen Korrelate des Bewusstseins sein können. Es ist natürlich einfach zu entscheiden, dass diese Prozesse, die schon vor dem Reiz stattfinden, der bewussten Wahrnehmung vorausgehen müssen, aber es ist unmöglich zu sagen, ob ein neuronaler Prozess 100 oder 200 Millisekunden nach der Präsentation des Reizes immer noch ein Vorläuferprozess ist schon ein neuronales Korrelat des Bewusstseins darstellt. Deshalb ist die typische Kontrastierungsanalyse nicht spezifisch genug und wir wissen nicht, ob neuronale Prozesse, die durch die Kontrastierungsanalyse aufgedeckt werden, direkt die neuronalen Korrelate des Bewusstseins oder eher Prozesse vor der bewussten Wahrnehmung widerspiegeln.
Nicht nur die Vorläuferprozesse der bewussten Warnehmung stellen ein Problem dar. Auch Konsequenzen der bewussten Verarbeitung werden durch die Kontrastierungsanalyse gefunden. Beispielsweise wurden im medialen Temporallappen Neurone gefunden, die nur dann feuern, wenn ein Patient eine Person auf einem Bild bewusst erkennt, aber nicht feuern, wenn der Patient die Person auf dem Bild nicht bewusst wahrnimmt (Quiroga, Mukamel, Isham, Malach, & Fried, 2008). So könnte man vorerst meinen, dass das Feuern dieser Neurone das neuronale Korrelat des Bewusstseins sein könnte. Nach einer Läsion, sprich neuronalen Schädigung des medialen Temporallappens kann man die Welt jedoch weiterhin bewusst wahrnehmen (man hat jedoch Probleme mit dem Gedächtnis und Wiedererkennen). Insofern kann das Feuern dieser Neurone nicht das neuronale Korrelat des Bewusstseins sein und ist eher ein Beispiel für die Konsequenz der bewussten Verarbeitung. Wir behaupten, dass es noch viele andere solcher Vorläuferprozesse und Konsequenzen gibt, die notwendigerweise als Ergebnis bei der Kontrastierungsanalyse auftauchen, und also ist die typische Kontrastierungsanalyse extrem unspezifisch bezüglich der neuronalen Korrelate des Bewusstseins. In anderen Worten: Die typische Kontrastierungsanalyse, bei welcher man experimentelle Bedingungen mit und ohne bewusste Wahrnehmung miteinander vergleicht, wird uns nicht helfen die neuronalen Korrelate des Bewusstseins zu finden.
Wir glauben, dass neue experimentelle Paradigmen entwickelt werden sollten, um die neuronalen Korrelate des Bewusstseins ausfindig zu machen. Wahrscheinlich gibt es kein einfaches Experiment, mit dem man die Vorläuferprozesse und Konsequenzen vollständig vermeiden kann, um damit direkt die neuronalen Korrelate des Bewusstseins zu bestimmen. Eher braucht man viele verschiedene Experimente, die Schritt für Schritt unser Wissen über die neuronalen Korrelate des Bewusstseins erweitern.
In der vorliegenden Arbeit (in Kapiteln 3, 4 und 5) wird ein neues experimentelles Paradigma angewandt. Dieses Paradigma wird nicht alle oben erwähnten Probleme lösen, wird aber hoffentlich erlauben, einige Vorläuferprozesse der bewussten Wahrnehmung von den neuronalen Korrelaten des Bewusstseins auseinanderzuhalten. Der Vorteil unseres experimentellen Paradigmas besteht darin, dass die bewusste Wahrnehmung durch zwei verschiedene Vorläuferprozesse beeinflusst wird. Die Versuchspersonen müssen auf schnell präsentierten und mittels Rauschens undeutlich gemachten Bildern eine Person detektieren. Die experimentellen Bedingungen sind derart gestaltet, dass die Versuchspersonen nicht bei jedem Durchgang die Person auf dem Bild wahrnehmen können. Damit können wir den Wahrnehmungsprozess manipulieren. Bei einer Manipulation variieren wir den Anteil des Rauschens auf dem Bild und damit die sensorische Evidenz. Je weniger Rauschen, desto besser können die Versuchspersonen die Bilder wahrnehmen und desto öfter sehen sie auch bewusst die Person auf dem Bild. Bei der anderen experimentellen Manipulation der Wahrnehmung werden einige Bilder den Versuchspersonen vorher klar und ohne Rauschen gezeigt. Damit erschafft man Wissen über bestimmte Bilder, die später mit Rauschen präsentiert werden. Man kann zeigen, dass solch bestehendes Wissen tatsächlich die Wahrnehmung beeinflusst. Wenn die Versuchspersonen bestehendes Wissen über ein Bild haben, ist es wahrscheinlicher, dass sie die Person auf dem Bild bewusst wahrnehmen. Damit haben wir zwei verschiedene Vorläuferprozesse – sensorische Evidenz und bestehendes Wissen, die beide die bewusste Wahrnehmung beeinflussen. Beide Vorläuferprozesse erhöhen den Anteil der Durchgänge, in welchen die Versuchspersonen die Person auf dem Bild bewusst wahrnehmen.
Mit diesem experimentellen Paradigma möchten wir einige Aussagen über die neuronalen Korrelate des Bewusstseins testen. Wenn über einen neuronalen Prozess behauptet wird, dass er einem neuronalen Korrelat des Bewusstseins entspricht, müsste dieser Prozess von den beiden manipulierten Vorläuferprozessen in ähnlicher Weise beeinflusst werden, da bewusste Wahrnehmung durch beide manipulierten Vorläuferprozessen in ähnlicher Weise erleichtert wird. Wenn aber der Prozess, über den behauptet wird, er sei ein neuronales Korrelat des Bewusstseins, nicht durch beide Manipulationen geändert wird, kann dieser Prozess kein neuronales Korrelat des Bewusstseins sein, da er nicht beeinflusst wird, obwohl die bewusste Wahrnehmung geändert wurde.
Mit diesem experimentellen Paradigma und dieser Logik haben wir zwei unterschiedliche neuronale Prozesse getestet, von denen behauptet wird, dass sie den neuronalen Korrelaten des Bewusstseins entsprechen könnten. In Kapitel 3 wurde untersucht, ob lokale kategorienspezifische Gammabandaktivität die neuronalen Korrelate des Bewusstseins reflektieren könnte. In Kapitel 4 wurde mit diesem experimentellen Paradigma untersucht, ob die neuronale Synchronisierung dem neuronalen Korrelat des Bewusstseins entsprechen könnte.
Unsere Arbeit im Kapitel 3 baut auf der von Fisch und Kollegen (2009) auf. Fisch und Kollegen (2009) zogen aus ihrer experimentellen Arbeit den Schluss, dass lokale kategorienspezifische Gammabandaktivität die neuronalen Korrelate des Bewusstseins reflektieren könnte. Sie hatten Elektroden auf dem visuellen Kortex von Epilepsiepatienten implantiert und von diesen Elektroden die Gammabandaktivität abgeleitet. Im ersten Schritt suchten sie nach Elektroden, die kategorienspezifische Antworten zeigen. Bei den kategorienspezifischen Elektroden ist die Gammabandaktivität abhängig vom präsentierten Stimulusmaterial. Zum Beispiel kann man bei einer Elektrode auf dem Fusiform Face Area starke Gammabandaktivität nur dann messen, wenn ein Gesicht auf dem Bild zu sehen ist. Die Autoren benutzten solche kategorienspezifischen Elektroden, um nach den neuronalen Korrelaten des Bewusstseins zu suchen. Sie zeigten den Patienten Bilder von Gesichtern, Häusern und Objekten, die direkt nach der kurzen Präsentation maskiert wurden, so dass die Patienten nur bei manchen Durchgängen erkannten, was auf dem Bild war, bei anderen Durchgängen nicht. Dies entspricht der typischen Kontrastierungsanalyse. Die Ergebnisse haben klar gezeigt, dass bei diesen kategorienspezifischen Elektroden die Gammabandaktivität erhöht wurde, als die Patienten bewusst wahrnahmen, was auf dem Bild zu sehen war. Aus diesen Ergebnissen zogen die Autoren den Schluss, dass lokale kategorienspezifische Gammabandaktivität dem neuronalen Korrelat des Bewusstseins entspricht. Diese Aussage wollten wir mit unserem experimentellen Paradigma testen.
Um diese Behauptung zu untersuchen, erhoben wir sehr ähnliche Daten wie Fisch et al. (2009) und analysierten die Daten auf ähnliche Weise. Unsere experimentelle Frage war, ob die lokale kategorienspezifische Gammabandaktivität durch unsere beiden Manipulationen – sensorische Evidenz und bestehendes Wissen – in ähnlicher Weise erhöht wird. Dies sollte der Fall sein, wenn die lokale kategorienspezifische Gammabandaktivität dem neuronalen Korrelat des Bewusstseins entspricht, da sensorische Evidenz und bestehendes Wissen beide den Anteil der Durchgänge, in welchen die Versuchsperson die Person auf dem Bild bewusst wahrnimmt, erhöhen. Dieses Ergebnis wurde nicht gefunden. Stattdessen fanden wir, dass die lokale kategorien-spezifische Gammabandaktivität nur durch sensorische Evidenz erhöht wurde, bestehendes Wissen aber keinen Effekt auf diese Aktivierung hatte. Da bestehendes Wissen auch den Anteil der Durchgänge mit bewusster Wahrnehmung erhöht, die kategorienspezifische Gammabandaktivität aber nicht durch bestehendes Wissen erhöht wurde, kann man schlussfolgern, dass die kategorienspezifische Gammabandaktivität nicht die neuronalen Korrelate des Bewusstseins reflektieren kann.
Als nächstes (Kapitel 4) haben wir die Hypothese getestet, dass Synchronizität dem neuronalen Korrelat des Bewusstseins entspricht. Um diese Idee zu testen, maßen wir mittels Magnetoenzephalographie die magnetischen Felder des Gehirns, schätzten aus diesen Daten mittels Beamforming die neuronalen Aktivitätsquellen und quantifizierten die Synchronizität zwischen diesen Quellen. Wenn die interareale Synchronizität dem neuronalen Korrelat des Bewusstseins entspräche, sollte die Synchronizität für Bedingungen mit mehr sensorischer Evidenz und mit bestehendem Wissen erhöht sein. Dies wurde nicht beobachtet. Wir fanden, dass Synchronizität (gemittelt über die Quellen) nur bei den Bildern erhöht war, für die bestehendes Wissen vorlag. Ein ähnlicher Effekt für sensorische Evidenz wurde nicht gefunden. Insofern können wir sagen, dass unsere Befunde dagegen sprechen, dass neuronale Synchronizität den Mechanismus für Bewusstsein darstellt. Allerdings können wir das in diesem Fall auch nicht völlig ausschließen, denn Synchronizität könnte die Informationsverarbeitung auf einem kleineren Maßstab koordinieren als wir es mit dem MEG messen können (Singer, in press).
Im Kapitel 5 untersuchten wir, wie schnell bestehendes Wissen bewusste Verarbeitung beeinflussen kann. Um dies herauszufinden machten wir uns die intraindividuellen Unterschiede der perzeptuellen Leistung zu Nutze. Wir fanden, dass bestehendes Wissen bewusste Verarbeitung schon innerhalb der ersten 100 Millisekunden nach der Präsentation des Reizes beeinflusst. Wir beobachteten auch, dass ein größerer perzeptueller Effekt des bestehenden Wissens in geringerer neuronaler Aktivität in Durchgängen mit bestehendem Wissen hervorruft. Diese Ergebnisse sind im Einklang mit Theorien, die besagen, dass unsere Wahrnehmung bestehendes Wissen nutzt, um vorherzusagen, wie die visuelle Welt sich ändert und um die neuronalen Antworten zu verringern (Friston, 2010).
In der vorliegenden Arbeit wurde diskutiert, warum die typische Kontrastierungsanalyse uns nicht zu den neuronalen Korrelaten des Bewusstseins führen kann. Wir schlugen vor, dass neue experimentelle Paradigmen nötig sind, um näher an die neuronalen Korrelate des Bewusstseins heranzukommen. Es wurde ein neues Paradigma benutzt, um zwischen Vorläuferprozessen und neuronalen Korrelate des Bewusstseins zu unterscheiden. Mit diesem Paradigma wurden zwei sehr unterschiedliche Hypothesen getestet und gefunden, dass die kategorienspezifische Gammabandaktivität nicht die neuronalen Korrelate des Bewusstseins widerspiegeln kann. Wir hoffen, dass unsere Experimente eine Entwicklung von vielen weiteren und besseren experimentellen Paradigmen stimuliert, die zwischen den Vorläuferprozessen, den Konsequenzen und den eigentlichen Korrelaten des Bewusstseins unterscheiden können. Wenn man über die Kontrastierungsanalyse hinausgeht, kann man die gegenwärtigen Theorien des Bewusstseins testen und damit Schritt für Schritt näher an die neuronalen Grundlagen des Bewusstseins kommen.
Im Mittelpunkt dieser Arbeit stand die Untersuchung der Reaktivität von Chlorsilanen gegenüber Elektronenpaardonoren. Als Basis hierfür diente die Alkylamin-katalysierte (NMe3, NMe2Et, NEt3) quantitative Disproportionierung von Si2Cl6 bzw. Si3Cl8 zum Neopentasilan 3 und SiCl4 (T ≤ RT, Schema 40). Obwohl diese Reaktion bereits seit über 60 Jahren bekannt ist, sind für ihren Mechanismus nur Vermutungen aufgestellt worden. In Kooperation mit der Gruppe um M. Holthausen ist es hier gelungen, das SiCl2-Amin-Addukt 57 als entscheidende Zwischenstufe zu identifizieren (1H29Si-HMBC-NMR-Experiment sowie DFT-Rechnungen). Si(SiCl3)4, die thermodynamische Senke des Systems, entsteht durch anschließende Insertion des Dichlorsilylens in Si−Cl-Bindungen – bevorzugt am höchst substituierten Si-Zentrum (es bilden sich keine linearen bzw. weniger verzweigten Oligosilane). Zudem lässt sich das koordinierte Amin vom SiCl2-Addukt wieder abspalten, was die Si(SiCl3)4-Synthese überhaupt erst ermöglicht. Dieses Verhalten unterscheidet sich grundlegend vom jenen literaturbekannter stabilisierter Chlorsilylene: hier bindet der Donor so stark an das Si-Atom, dass er den ambiphilen Charakter des Silylens zugunsten der Lewis-basischen Funktion einschränkt. Daher kann man mit diesen Addukten auch keine Oligosilane aufbauen, die mittlerweile auch das Interesse der chemischen Industrie erweckt haben...
In der vorliegenden Arbeit wurden mikroskopische Studien zur Äquilibrierung von partonischer und hadronischer Materie im Rahmen einer Nichtgleichgewichts-Transporttheorie durchgeführt, die sowohl hadronische als partonische Freiheitsgrade enthält und den Übergang zwischen beiden Phasen dynamisch beschreibt. Des Weiteren wurden die thermischen Eigenschaften des Gleichgewichtszustandes der stark wechselwirkenden Materie untersucht, insbesondere Fluktuationen in der Teilchenzahl wie auch höhere Momente von Observablen und deren Verhältnisse. Besonderes Interesse galt dabei den Transportkoeffizienten wie Scher- und Volumenviskosität sowie der elektrischen Leitfähigkeit.
Die Methode der Nichtgleichgewichts-Green'schen Funktionen - initiiert von Schwinger sowie Kadanoff und Baym - wurde vorgestellt um hochenergetische Kern-Kern Kollisionen zu beschreiben. Weiterhin wurde der Schwinger-Keldysh Formalismus benutzt um im Sinne einer Zweiteilchen-irrediziblen Näherung (2PI) die Dynamik von 'resummierten' Propagatoren und Kopplungen in konsistenter Weise zu beschreiben. Des Weiterhin wurden generalisierte Transportgleichungen auf der Basis der Kadanoff-Baym Gleichungen (in Phasenraumdarstellung) abgeleitet und ein Testteilchenverfahren zur Lösung dieser Gleichungen vorgestellt. Damit wurde der formale Rahmen der Parton-Hadron-String Dynamik (PHSD) abgesteckt.
Das PHSD Transportmodell wurde sodann für die Lösung der expliziten Fragestellungen in dieser Arbeit verwendet. Die 'Eingangsgrößen' des Modells wurden in Kapitel 3 aufgeführt. Weiterhin wurde aufgezeigt, dass das Transportmodell alle Phasen einer relativistischen Schwerionenkollision konsistent beschreibt, d.h. angefangen von den primären harten Stoßprozessen und der Bildung von 'Strings' zur Formierung einer partonischen Phase, den Wechselwirkungen in dieser Phase sowie die
dynamische Beschreibung der Hadronisierung. Weiterhin enthält das Modell zudem die hadronischen Endzustandswechselwirkungen bis zum Ausfrieren der hadronischen Freiheitsgrade bei geringer Dichte. ...
Mantle convection is the process by which heat from the Earth’s core is transferred upwards to the surface and it is accepted to explain the dynamics of the Earth’s interior. On geological time-scales, mantle material flows like a viscous fluid as a consequence of the buoyancy forces arising from thermal expansion. Indeed, mantel convection provides a framework which links together the major disciplines, such as seismology, mineral physics, geochemistry tectonic and geology. The numerical model has been applied to understand the dynamic, structure and evaluation of the Earth, and other terrestrial planets and the investigations continue to explore, different aspects of the mantle convection.
In fact, to model this phenomenon, two complementary approaches are possible. On the one hand, one can solve self-consistently the equations of thermal convection, including parameters and employing physical relationships derived from mineral physics. Our understanding of mantle convection depends ultimately upon the success of such fully self-consistent dynamic models in explaining observable features of the flow. Although, these models presently unable to predict the actual convection pattern of the Earth, they are extremely useful to investigate general characteristics of given physical systems. On the other hand, to permit comparison with specific observables associated with the flow, one can consider a more restricted problem. Instead of focusing on the time evolution of mantle flow, if we know a priori the temperature - and hence presumably the density - anomalies that drive the convection, we can try to build a snapshot of the present-day flow pattern, consistent with those anomalies, that can successfully predict the observables. As matter of fact, the aim of this study is to investigate both approaches in comparison with the main geophysical constraints on mantle structure. These constraints include the geoid anomalies, the dynamic surface and core-mantle boundary topography and tectonic plate motions.
The most appropriate mathematical basis functions for describing a bounded and continuous function on a spherical surface are spherical harmonics. We may therefore expand the geodynamic observables in terms of spherical harmonics. We have investigated two methods of the global spherical harmonic analysis by specific attention to the dynamic geoid computation of the geodynamic models. The first method is the quadrature method in which the loss of the orthogonality of the Legendre functions in transition from continues to discrete case is the major drawback to the method. Particularly, we showed that in the absence of the tesseral harmonics, quadrature formulation leads to obtain inaccurate results. The second method is the least-squares which can be considered as the best linear unbiased estimator that provides the exact results. We showed that even with a low resolution grid data it is possible to reconstruct the data and achieve an accurate result by using this method, which is extremely remarkable in three-dimensional global convection studies. However, special care has to be taken since there is some source of errors that might influence the efficiency of this method.
In general, to better understanding of the properties of the mantle, it is useful to assess observable characteristics of plumes in the mantle, including geoid, topography and heat flow anomalies. However, only few studies exist on geoid and topography for axi-symmetric convection and their models were restricted to isoviscous (or stratified) mantle and low Rayleigh numbers. We studied fully coupled depth and temperature dependent Arrhenius type of viscosity in axi-symmetric spherical shell geometry in order to investigate the shape of geoid anomalies and dynamic topography above a plume. Indeed, the topography and geoid anomalies produced from plumes are sensitive to rheology of the mantle and rheology of the plume; both have effects on shape and amplitude of the geoid anomalies. As results we are able to define different classes of plumes by their geoid signals.
Mainly depth-dependent viscosity models show a geoid with negative sign above the plume which can turn to the positive sign by decrease the viscosity contrast. This can be considered as a transition between the strongly depth dependent and the constant viscosity case. Our results basically support the idea by Morgan [1965] and McKenzie [1977]. They have shown the magnitude and even the sign of the total gravity anomaly depend on the spatial variation in effective viscosity. In addition, Hager [1984] has concluded that the total gravity field is depend on the radial distribution of effective viscosity, and a small change in viscosity contrast leads to varying sign of the response function.
In the case of temperature-dependent viscosity, the formation of an immobile lithosphere is a natural result, and the flow as well as the total geoid becomes strongly time dependent. When we increase the activation energy, all geoids associated with the first arriving plumes look like bell shaped whereas for typical plumes, after reaching a statistical steady state, bell-shaped geoids with decreasing amplitude as well as linear flank shaped geoids are observed. It is surprising that in spite of large differences in lateral and depth varying viscosities, the shapes of the geoid anomalies remained rather similar. We also identified different behaviors in the combined model with temperature-and pressure-dependent viscosity. In fact, in spite of the strongly different rheology, the geoid anomalies in all cases were surprisingly similar. Furthermore, we proposed a scaling law for the geoid which makes our results directly applicable to other planets. Moreover, we can apply the results of our calculation to find relations between different rheology and sub-lid temperature, since we know that the mantle temperature can change significantly with variation in pressure-temperature dependent viscosity. It is also possible to define a range of stagnant lid thickness related to the amplitude of the geoid which can be reasonable for study of the lid thickness in Venus or Mars.
Nevertheless, in these series of models, we simplified a number of complexities within the Earth. One of the most important of such simplification is the Boussinesq approximation. This approximation is valid if the temperature scale height (i.e. the depth over which temperature increases by a factor of “ ” due to adiabatic compression) is much greater than the convection depth. However, a temperature scale height in the Earth’s mantle is at best only slightly greater than the mantle depth. Hence, the Boussinesq approximation could mask some very important stratification and compressibility effects that influence both the spatial and temporal structure of the convection. Therefore, in more advance models we considered compressibility in our mantle convection models, assuming that density vary both radially and laterally, being determined as a function of pressure and temperature through an appropriate equation of the state. Moreover, thermodynamic properties assumed to be a function of depth.
We examined the details of the structure of the spherical axi-symmetric Anelastic Liquid Approximation model (ALA) with special attention to the Arrhenius rheology, and compare it to the cases of compressible convection without depth dependent thermodynamical properties, and to cases of the extended Boussinesq approximation. At the same time, the effects of the interaction between temperature and pressure-dependent viscosity and thermodynamic parameters in the compressible mantle convection on the geoid and topography have been studied. We showed that assuming compressible convection with depth-dependent thermodynamic properties strongly influence the geoid undulations. Using compressible convection with constant thermodynamic properties is physically inconsistent and may lead to spurious results for the geoid and convection pattern. Indeed, by a systematic study of different approaches of compressibility in the spherical shell convection for different Arrhenius viscosity laws we proved that only in the unrealistic case of zero activation energy the different compressibility modes result in comparable convection and geoid patterns. In all other rheological cases, large differences have been obtained, that stressing the important role of consistent compressible thermodynamic properties for mantle convection.
In addition, we examine the impact of compressibility as well as different rheologies on the power law relation that connects the Nusselt number to the Rayleigh number. We have discovered that the power law index of the relationship is controlled by the rheology, independent of which approximation is used. Instead, the bound of this relation is controlled by a combination of different approximation and rheology.
Next, instead of focusing on the time evolution of mantle flow, we have carried out three-dimensional spherical shell models of mantle circulation to investigate the effects of joint radial and lateral viscosity variations on the Earth’s non-hydrostatic geoid, surface and core-mantle boundary topographies. These models include realistic lateral viscosity variations (LVV) in the lithosphere, upper mantle and lower mantle in combination with different stratified viscosity structures. We have demonstrated that the contradictory results concerning the effects of LVV can be clarified by the most straight-forward problem in geoid modeling; namely, rather poorly known stratified viscosity structure. We explored three classes of dynamic geoid models due to lateral viscosity variations. In the first class, the LVV strongly improved the fit to the observed geoid. Indeed, when the viscosity contrast between lower and upper mantles is not large enough to produce a good fit to geoid the LVVs are able to perform this action by adjusting amplitudes, so that it becomes comparable with observation. In the second class, inducing the LVV moderately improved the fit. Actually, when the geoid induced by a stratified viscosity structure already has a good correlation with observation, then the LVV causes its amplitude to further improve. In the last class, if the viscosity contrast between upper and lower mantle would be high enough, inducing LVV deteriorate the fit to the observed geoid.. Indeed, depending on the stratified viscosity, inducing the LVV may take place in one of these categories.
We also quantified the effects of LVV in the mantle and lithosphere individually. We found that the presence of LVV in the mantle (upper and lower) improves the fit to the observed geoid regardless of stratified viscosity. While LVV in the lithosphere is a crucial parameter, and dependent of the stratified viscosity, may increase or decrease the geoid fit. In fact, when the lower mantle considers being viscous enough, it would support the negative buoyancy of subducting slabs. Thus, it transmits some of the stress back to the top boundary and causes a weak coupling between slab and surface. Therefore, by including the low viscous plate boundaries in this model, the slabs and overriding plates decouples and the fit to the observed geoid degrades. In contrast, when the lower mantle viscosity is not sufficiently stiff, the presence of the low viscous plate boundaries assists to weaken the strong mechanical coupling between slab and surface. Hence, a better fit achieved.