Refine
Year of publication
Document Type
- Doctoral Thesis (5591) (remove)
Language
- German (3554)
- English (2008)
- French (9)
- Latin (5)
- Spanish (5)
- Portuguese (4)
- Italian (3)
- Multiple languages (2)
- mis (1)
Has Fulltext
- yes (5591)
Is part of the Bibliography
- no (5591)
Keywords
- Deutschland (15)
- Gentherapie (14)
- HIV (13)
- Apoptosis (12)
- Membranproteine (12)
- NMR-Spektroskopie (11)
- RNA (11)
- RNS (10)
- Nanopartikel (9)
- Proteomics (9)
Institute
- Medizin (1469)
- Biowissenschaften (813)
- Biochemie und Chemie (723)
- Physik (581)
- Pharmazie (329)
- Biochemie, Chemie und Pharmazie (286)
- Geowissenschaften (138)
- Neuere Philologien (114)
- Gesellschaftswissenschaften (110)
- Psychologie (97)
Random ordinary differential equations (RODEs) are ordinary differential equations (ODEs) which have a stochastic process in their vector field functions. RODEs have been used in a wide range of applications such as biology, medicine, population dynamics and engineering and play an important role in the theory of random dynamical systems, however, they have been long overshadowed by stochastic differential equations.
Typically, the driving stochastic process has at most Hoelder continuous sample paths and the resulting vector field is, thus, at most Hoelder continuous in time, no matter how smooth the vector function is in its original variables, so the sample paths of the solution are certainly continuously differentiable, but their derivatives are at most Hoelder continuous in time. Consequently, although the classical numerical schemes for ODEs can be applied pathwise to RODEs, they do not achieve their traditional orders.
Recently, Gruene and Kloeden derived the explicit averaged Euler scheme by taking the average of the noise within the vector field. In addition, new forms of higher order Taylor-like schemes for RODEs are derived systematically by Jentzen and Kloeden.
However, it is still important to build higher order numerical schemes and computationally less expensive schemes as well as numerically stable schemes and this is the motivation of this thesis. The schemes by Gruene and Kloeden and Jentzen and Kloeden are very general, so RODEs with special structure, i.e., RODEs with Ito noise and RODEs with affine structure, are focused and numerical schemes which exploit these special structures are investigated.
The developed numerical schemes are applied to several mathematical models in biology and medicine. In order to see the performance of the numerical schemes, trajectories of solutions are illustrated. In addition, the error vs. step sizes as well as the computational costs are compared among newly developed schemes and the schemes in literature.
Melting inside earth is a common phenomenon and can be observed in many different regions where melt travels through the mantle and crust to eventually reach the surface where it crystallizes to build large volcanic provinces, whole stratigraphic layers of flood basalts, or even the oceanic crust. Often, melt reaching the surface is a good source of information. It can be used to achieve a better understanding about processes taking place in deeper regions inside the mantle and it is therefore essential to fundamentally understand melting and melt percolation processes. In order to achieve a deeper understanding, the aim of this thesis is to investigate processes that are connected to melting by using numerical models.
The physical model used is a so called two-phase flow model which describes the ability of melt to percolate through a viscously deforming, partially molten matrix. A famous feature of two-phase flow are solitary porosity waves, which are waves of locally higher porosity ascending through a partially molten background, keeping its shape constant, driven by decompaction and compaction of the solid matrix in front and behind the wave.
The viscosity law for shear- and volume viscosity was strongly simplified in most previous studies that modeled solitary waves. Often the porosity dependency is underestimated or its influence on the volume viscosity is even neglected, leading to too high viscosities. In this work more realistic laws are used that strongly decrease for small melt fractions. Those laws are incorporated into a 2D Finite Difference mantle convection code with two-phase flow to study the ascent of solitary porosity waves.
The model results show that an initial Gaussian-shaped wave rapidly evolves into a solitary wave with a certain amplitude, traveling upwards with constant velocity. Even though strongly weaker viscosities are used, the effect on dispersion curves and wave shape are only minor as long as the background porosity is rather small. The results are still in agreement to semi-analytical solutions which neglect shear stresses in the melt segregation equation. Higher background porosities and wave amplitudes lead to significant decrease in phase velocity and wave width, as the viscosity is strongly effected. However, the models show that solitary waves are still a possible mechanism for more realistic matrix viscosities.
While the ascending of porosity waves are mostly described by the movement of fluid melt, partially molten regions inside Earth trigger upwelling of both, solid and fluid phases, which can be called diapirism. While diapirs can have a wide variety of wavelengths, porosity waves are restricted to a few times the compaction length. The size of a melt perturbation in terms of compaction length therefore describes whether material is transported by diapirism or porosity waves. In this thesis we study the transition from diapiric rise to solitary porosity waves by systematically changing the size of a porosity perturbation from 1.8 to 120 times the compaction length. In case of a perturbation of the size of a few times the compaction length a single porosity wave will emerge, either with a positive or negative vertical matrix flux and if melt is not allowed to move relative to the matrix a diapir will emerge. In between these physical end members a regime can be observed where the partially molten perturbation will split up into numerous solitary waves, whose phase velocity is low compared to the Stokes velocity and the swarm of solitary waves will ascend jointly as a diapir, slowly elongating due to a higher amplitude main solitary wave.
Solitary waves will always emerge from a melt perturbation as long as two-phase flow is enabled, but the time for a solitary wave to emerge increases non-linearly with the perturbation radius in terms of compaction length. In nature, in many cases this time might be too long for solitary waves to emerge.
Another important feature when it comes to two-phase flow is the transport of trace elements in melt. Incompatible elements prefer to go into the melt, which eventually enriches the area where it crystallizes again. In order to model this redistribution, the code FDCON was extended to allow for fully consistent transport of elements in melt, including melting, freezing and re-equilibration with time. A 2D model, a simple representation of a volcanic back arc, is set up to investigate the behavior of trace elements. The influence of retention number and re-equilibration time is examined. Lava-lamp like convection can be observed in the lower part of the model, producing melt, that eventually leads to enrichment in trace elements in the upper high-viscous layer. The total enrichment in this layer approaches an asymptotic value and a 0D model is introduced to recreate this behavior.
Das Funneling-Prinzip ist für Großprojekte wie SNS und IFMIF zur Erzeugung hoher Strahlströme bei hoher Brillanz von großem Interesse und bietet die Möglichkeit der Strahlstromerhöhung bei gleichbleibender Emittanz. Das Frankfurter Funneling-Experiment ist ein skalierter Aufbau einer ersten Funneling-Stufe von HIDIF. Hauptbestandteile des Experimentes sind zwei Multicusp-Ionenquellen, ein Zwei-Strahl-RFQ-Beschleuniger, ein Einzellen- und ein Mehrzellen-Deflektor sowie eine Emittanzmeßanlage. Das Zusammenführen zweier Ionenstrahlen nach dem Funneling-Prinzip konnte am IAP im Jahr 2000 erstmalig realisiert werden. Allerdings war aufgrund der unmodulierten End-Elektroden des RFQ-Beschleunigers der Strahlradius und die Emittanz bereits bei Eintritt in den Deflektor viel zu groß. Die dadurch aufgetretenen Strahlverluste an den Elektroden führten also nicht zu der gewünschten Strahlstromverdoppelung. Daraufhin wurden die letzten Elektrodenstücke der beiden Beschleuniger gegen modulierte Elektroden ausgetauscht. Der Fokus der Ionenstrahlen wird nun mittels eines sogenannten 3D-Matchings in den Strahlkreuzungspunkt gelegt. Experimente mit den neuen RFQ-End-Elektroden und dem überarbeiteten Mehrzellen- Deflektor stehen noch aus. Die vorliegende Arbeit entstand als theoretischer Teil im Rahmen des Frankfurter Funneling-Experimentes. Es sind zahlreiche Simulationsrechnungen zum bestehenden experimentellen Aufbau durchgeführt worden, die in Auszügen in Kapitel 7 dargestellt wurden. Weiterhin wurde die Teilchendynamik und die Raumladung in Deflektoren, das Emittanzwachstums während des Funnelings, der Einfiuß der inhomogenen Felder bei verschiedenen Deflektorgeometrien ausführlich untersucht und ausgewertet (Kapitel 8). Für diese Aufgaben sind einerseits neue Programme für eine dreidimensionale Deflektorsimulation und andererseits Software zur Auswertung mit graphischer Darstellung geschrieben worden. Diese wurden in Kapitel 6 vorgestellt. Die für diese Arbeit entwickelten Programme ermöglichen die Berechnung der Potential- und Feldverteilungen in elektrischen Hochfrequenz-Funneling-Deflektoren sowie die Simulation des Funnelingprozesses zweier Ionenstrahlen. Ferner sind diverse Auswertemethoden in tabellarischer oder graphischer Form wie Strahlverlauf, Emittanzebenen, Dichteverteilungen und Verlustgraphen verfügbar. Damit sind umfangreiche Simulationen und Auswertungen bezüglich des Deflektordesigns und der Strahldynamik sowie Optimierungen solcher Systeme möglich. Der Einfluß der Raumladungskräfte und der inhomogenen Felder auf den Funnelingprozeß konnten in Kapitel 8 gezeigt werden. Für den im Experiment verwendeten Mehrzellen-Deflektor sollten folgende Strahlparameter eingehalten werden: der Strahlradius in der x-y-Ebene sollte vor Eintritt in den Deflektor kleiner als 0.5 cm sein, die Energiebreite deltaW < +- 2% und die Phasenbreite deltaPhi < +- 30° betragen. Ansonsten treten Teilchenverluste durch Elektrodenkontakt auf oder der Bunch wird in longitudinaler Richtung zu groß, so daß die Möglichkeit besteht, das eine Überlappung der Bunche stattfindet. Mit der vorliegenden Arbeit sind Programme zur detaillierten Berechnung und Analyse von Funneling-Systemen entwickelt worden. Zukünftige Aufgaben sind neben der Untersuchung der Randfelder in Deflektoren die Minimierung des Emittanzwachstums durch die inhomogenen Felder. Nach ersten Strahltests und Funnelingergebnissen ist zu entscheiden, ob eine Matching-Sektion zwischen RFQ-Beschleuniger und Funneling-Deflektor zur weiteren Strahlanpassung eingebracht werden muss.
In dieser Arbeit wird die erstmals von Stevenson et al. (89, GRL) beschriebene spannungsangetriebene Schmelzsegregation, die Kanalisierungsinstabilität, numerisch mit Hilfe des 2D Finite-Differenzen-Codes FDCON (Schmeling, 00, Kluwer) untersucht. Diese Untersuchung stellt eine Weiterführung der numerischen Experimente von Richardson et al. (96, JGR) und Hall et al. (00, GRL) dar, so dass die Erforschung der Kanalisierungsinstabilität erweitert wird um den Aspekt ihres Verhaltens bezüglich eines äußeren Spannungsfeldes bei verschiedenen initialen Porositätsverteilungen, der Untersuchung der Kanalisierungsinstabilität bei großen Dehnungen und der damit verbundenen Analyse der entstehenden Strukturen, des Einflusses des Auftriebs auf die Ausbildung von Kanalnetzwerken und um die abschließende Prüfung, ob durch ein durch die Kanalisierungsinstabilität ausgebildetes Kanalnetzwerk die Möglichkeit besteht, Schmelze zu einem MOR zu fokussieren. Die Kanalbildung wird derzeit von Holtzman et al. (03, G3) (Hochdruckexperimente an synthetischem Olivin+MORB), Spiegelman et al. (03, G3) (theoretische Untersuchung der Kanalisierungsinstabilität) und Rabinowicz et al. (04, JGR) (numerische Simulation und theoretische Betrachtung der Kanalisierungsinstabilität) intensiv untersucht, die Fokussierung der Schmelze behandeln Sparks et al. (94, Academic Press), Hall et al. (03, G3) sowie Kühn (05, in-press). Viskositätsunterschiede in einer schmelzgefüllten porösen Matrix verursachen bei deren Deformation einen Druckgradienten, welcher die Schmelze in Richtung der maximalen Hauptspannung anreichert und zur Ausbildung von Kanälen, welche eine inhomogene Schmelzverteilung aufweisen, führt. Die Wachstumsrate Alpha dieser Kanäle weist zur Wellenzahl k eine Proportionalität von Alpha ~ ak^2/(1+bk^2) auf. Dieser Zusammenhang hat zur Folge, dass sich ab einer bestimmten Wellenzahl alle Schmelzverteilungen größerer Wellenzahl gleich verstärken. Bei anhaltender Dehnung kann beobachtet werden, dass die ausgebildeten Kanäle an den verarmten Kanalstellen auseinander gerissen werden. Nachfolgend verbinden sich die hierdurch entstandenen Schmelzlinsen unter der Bildung von en-echelon arrays wieder, wodurch sich wiederum ein langer, in etwa um 45° ausgelenkter (linksdrehendes Koordinatensystem, mit 0° gleich der Vertikalen) Kanal bildet. Diese Beobachtungen fanden unter der Bedingung, dass kein Auftrieb zwischen Schmelze und Matrix existiert, statt. Wird dieser Auftrieb hinzugefügt, so ist erkennbar, dass eine Kombination zwischen den die Kanalisierungsinstabilität und den Auftrieb bestimmenden Parametern existiert, bei der sich Solitonen ausbilden. Diese Solitonen folgen bei ihrem schnelleren Aufstieg dem Verlauf der schmelzgefüllten Kanäle und passieren dabei, ohne ihre Form zu verändern, andere kleine Solitonen, die ihren Weg kreuzen. Die durchschnittliche Aufstiegsgeschwindigkeit der Solitonen entspricht einem Vielfachen der Aufstiegsgeschwindigkeit der Schmelze aufgrund von Segregation. Weiterhin deckt sich die Solitonaufstiegsgeschwindigkeit mit der von Schmeling angegebenen. Bisher konnte in die Theorie für trockene (wasserfreie) Medien kein frühzeitiger Abfall der Wachstumsrate bei großen Wellenzahlen implementiert werden. Lediglich unter dem Gesichtspunkt der Diffusion von Wasser zwischen der Matrix und der Schmelze und des erweichenden Effekts von Wasser konnte bei einer spezifischen Wellenzahl eine maximale Wachstumsrate gefunden werden (Hall et al., 2000, GRL). Der Versuch der Anwendung der bisher erzielten Ergebnisse auf die Interaktion eines aufsteigenden Plumes mit einer spreizenden Kruste erbrachte keine direkte Fokussierung der Schmelze zum MOR hin. Die Spannungsverteilung dieser Experimente zeigt, dass der Plumestamm aufgrund eines defokussierenden Kanalnetzwerks im Stamm sowie eines nahezu vertikal verlaufenden Kanalnetzwerks am Rand des Plumestammes von einer Zone erhöhter Schmelzkonzentration ummantelt sein könnte. In dieser Ummantelung steigt die Schmelze dann in vertikal verlaufenden Kanälen auf, wobei sie in den hier vorgestellten Experimenten (Plumekopfausdehnung ~150 km) in einer Entfernung von ~100 km zum MOR auf die Lithosphärenunterseite (Tiefe ~50 km) treffen würde. Aufgrund der Lithosphärenstruktur (Wurzel-t-Gesetz) könnte die Schmelze an der schrägen Lithosphärenunterseite zum MOR hin strömen (Sparks et al., 94, Academic Press sowie Hall et al., 03 G3). Diese Prozesse (Kanalisierungsinstabilität (Stevenson et al., 89, GRL), Entlangströmen der Schmelze an der Lithosphärenunterseite (Sparks et al., 94, Academic Press sowie Hall et al., 03, G3) und der Recyclingprozess der Schmelze) stellen das Erklärungsmodell dieser Arbeit dar, wie eine Fokussierung von Schmelze zum MOR bei einer Interaktion von diesem mit einem Plume aussehen könnte.
O programa de ajustamento estrutural na república da Guiné-Bissau : Uma avaliação política e ética
(2007)
Os guineenses assumiram o desenvolvimento como uma das metas a atingir e a estabilização e o ajustamento foi-lhes imposta como solução para os problemas estruturais existentes. No entanto, a forma como têm vindo a ser concebidos pelo Banco Mundial e pelo Fundo Monetário Internacional, direccionada sobretudo para a área económica, acabou por limitar o papel dos Programas de Ajustamento Estrutural (PAE) tidos como indutores do desenvolvimento, tornando-os num agregado de premissas austeras, com resultados não esperados. As propostas do FMI e do BM, tendendo para a liberalização económica e estímulo dos mercados em detrimento da intervenção estatal, traduzem-se em medidas de redução de taxas de utilização dos serviços públicos, supressão de subsídios, redimensionamento da administração pública, cortes, congelamentos salariais e privatizações. Os resultados destas reformas foram catastróficos, porquanto não só não melhoraram o défice orçamental, como os efeitos negativos das restrições orçamentais sobre o bem-estar, geraram um ambiente de promiscuidade social e o agravamento do sector informal como estratégia de sobrevivência Tendo em conta o objecto em estudo, isto é, a relação de forças que encontrámos entre o relacionamento entre os actores políticos guineenses e as Instituições Financeiras Internacionais, notámos que a ausência de comportamentos éticos também influiu nos resultados. Por um lado, o BM e o FMI, perante um Estado fragilizado, apresentaram condicionalismos à obtenção de empréstimos e ajudas, por outro lado, os actores guineenses, mesmo perante este dilema, não se coibiram do exercício da corrupção, do clientelismo e do neo-patrimonialismo, como estratégia para o enriquecimento fácil. Palavras-chave: Programas de Ajustamento Estrutural; Desenvolvimento; Boa governação; Ética e Moral.
Für ein System ('ideales Gas') von N miteinander nicht wechselwirkenden Teilchen oder Zuständen, deren Wellenfunktionen φ(x) der Randbedingung φ(x)=0 für x aus Ŵ. gehorchen sollen, (W sei dabei die Oberfläche eines geschlossenen Hohlraumes Ŵ beliebiger Gestalt), ist von verschiedenen Autoren eine halbklassische Eigenwertdichteformel angegeben worden. Diese hängt nur linear über die Integrale V ,W und L über Ŵ (Volumen, Oberflächeninhalt und totale Krümmung von Ŵ) von der Gestalt. des Hohlraumes ab. Während von H. Weyl mathematisch bewiesen, werden konnte, daß der führende Volumterm im Gebiet großer Eigenwerte alle folgenden Terme überwiegt, konnte für den Oberflächenterm eine gleichartige Vermutung bisher nur numerisch begründet werden. Von dieser halbklassischen Eigenwertdichteformel ausgehend, werden die thermodynamischen Relationen des idealen Gases aufgebaut und einige Größen wie innere Energie, spezifische Wärme sowie die Oberflächen- und Krümmungs-Spannung für die Grenzfälle starker, ein Gebiet mittlerer und schwacher Entartung explizit berechnet, und zwar sowohl für die Fermi-Dirac als auch die Bose-Einstein-Statistik, als auch für deren klassischen Grenzfall, die Boltzmann-Maxwell-Statistik (s.Diagramm). Ausgenommen wird nur der Spezialfall der Einsteinkondensation, weil hier die (nur im Gebiet großer Eigenwerte gültige) halbklassische Eigenwertdichteformel nicht angewendet werden darf. Die in dieser Arbeit untersuchten quantenmechanisch bedingten Oberflächeneffekte idealer Quantengase sind experimentell bisher wenig untersucht worden; für Molekülgase sind sie verschwindend klein. Die experimentell beobachtete Oberflächenspannung stabiler Atomkerne wird von dem Modell, das den Kern als ideales, entartetes Fermigas der Temperatur T beschreibt, im wesentlichen richtig wiedergegeben. Mit dem in Kap. 3b) abgeleiteten Ausdruck für die Oberflächenspannung stark entarteter idealer Fermigase endlicher Temperatur kann eine Voraussage über die Oberflächenspannung angeregter Atomkerne gemacht werden.
Ein professioneller Orchestermusiker verbringt die meiste Zeit in körperlich ungünstiger Sitzhaltung beim Spielen. Die Folge ist ein Anstieg des Risikos für die Entwicklung von muskuloskelettalen Beschwerden [44, 127, 128]. Eine Verbesserung der Arbeitsbedingungen lässt sich u.a. durch den Einsatz von ergonomischen Stühlen erzielen, da sie einen Einfluss auf die Körperhaltung des Orchestermusikers besitzen. Im Mittelpunkt der vorliegenden Arbeit standen daher sechs unterschiedliche von der Firma Mey für Orchestermusiker konzipierte Stühle. Die Studie beinhaltete eine Untersuchung des Einflusses der Stühle auf die Oberkörperstatik und die Sitzdruckverteilung von Orchestermusikern und den Einfluss auf ihr Instrumentalspiel im Vergleich zur habituellen Sitzhaltung. Das Probandenkollektiv umfasste 24 Berufsmusiker des Polizeiorchesters Mainz (Rheinland-Pfalz, Deutschland) und bestand zum größten Teil aus Blasinstrumentalisten (3 Frauen, 21 Männer). Das Durchschnittsalter betrug 45 Jahre. Die Überprüfung der Oberkörperstatik erfolgte durch einen 3D-Rückenscanner (ABW GmbH, Frickenhausen, Deutschland), eine Evaluation der Druckverhältnisse im Gesäß durch eine Druckmessmatte (GeBioM GmbH, Münster, Deutschland), womit sich bei jedem Stuhl ein bestimmtes Druckmuster kennzeichnen ließ. Die Messung erfolgte pro Stuhl und Messgerät stets im Wechsel zwischen der statischen Position ohne Instrument (oI) und der statischen Position mit Instrument (mI). Bei der statistischen Auswertung kam es zur Verwendung nicht parametrischer Tests (Friedman-, Wilcoxon Matched- Pairs-Test), wobei das Signifikanzniveau bei ≤0,05 lag. Es erfolgte eine Unterteilung in einen Inter- und einen Intrastuhlvergleich.
Die Ergebnisse des Interstuhlvergleichs zeigten bezüglich der Schulterregion keine signifikanten Veränderungen, wohingegen im Hinblick auf die WS-Parameter Signifikanzen zwischen Stuhl 2 und 5 verzeichnet wurden: in der habituellen Position offenbarte die Rumpflänge D die größte Abweichung mit einem Längenunterschied von 14mm (p≤0,001), so auch die Rumpflänge S (16 mm; p≤0,001). Bezüglich dieser Stühle wiesen die restlichen WS-Parameter Abweichungen von max. 4° bzw. 3mm auf. Zwischen Stuhl 2 und 3 ergaben sich m.I. im Hinblick auf den thorakalen (p≤0,01) und lumbalen Biegungswinkel (p≤0,001) max. Diskrepanzen von 2,5°. Die größten Unterschiede in der Beckenregion zeigten sich beim Beckenabstand zwischen Stuhl 3 und 5 o.I. (7mm) und m.I. (4mm), (beide Bedingungen p≤0,001). Im Hinblick auf die Druckparameter fand sich eine Abhängigkeit zwischen belasteter Fläche und Sitzbeinhöckerdruck (SBH): eine kleine Fläche bedeutete eine schlechte Druckverteilung und umgekehrt. Stühle 1 und 4 besaßen den geringsten SBH (p≤0,001). Im Intrastuhlvergleich zeigten die Bereiche der WS, Schultern und Becken jeweils mindestens einen signifikanten Parameter auf, wie z.B. Schulterblattabstand, sagittale Rumpfneigung und Beckenabstand. Korrelationen zwischen den Parametern waren nicht zu erkennen. M.I. kommt es hinsichtlich des SBH auf der linken Hälfte im Schnitt auf allen Stühlen zu einer Druckerhöhung von 8,46%, auf der rechten zu einer von 11,11%. Im Hinblick auf den Oberschenkeldruck (OS) vollzieht sich die größte Veränderung (7,4bar) der rechten Gesäßhälfte auf Stuhl 2 mit p≤0,001. Der Interstuhlvergleich zeigt also, dass die Wahl eines Stuhls keine Auswirkung auf die Körperhaltung hat. Ursache für Diskrepanzen hinsichtlich des SBH ist die unterschiedliche Polsterung und Größe der Sitzfläche, welche eine hohe Relevanz in Bezug auf die Umverteilung des Drucks und den subjektiven Komfort besitzt. Eine gepolsterte und große Oberfläche ist gleichzusetzen mit einer günstigen Druckverteilung und einem angenehmen individuellen Sitzgefühl. Der Intrastuhlvergleich offenbart ebenfalls keine klinisch relevanten Veränderungen im Oberkörper. Ausschließlich in der Druckverteilung ist eine signifikante Variabilität hinsichtlich des OS rechts bei Stuhl 2 vorhanden (p≤0,001). Die Sitzposition der Probanden ist symmetrisch. Die Symmetrie bezieht sich sowohl auf den Schulter-, WS- und Beckenbereich, als auch auf die Druckverhältnisse im Gesäßbereich.
In der vorliegenden Studie konnte belegt werden, dass gepolsterte und breite Sitzoberflächen mit gleichmäßiger Druckverteilung und gleichzeitig hohem Komfort einhergehen. Im Hinblick auf das Musizieren über einen längeren Zeitraum ist das Vorhandensein eines hohen Komforts für den Orchestermusiker von Bedeutung. Diese Erkenntnisse sind bei der Weiterentwicklung von ergonomischen Stühlen zu berücksichtigen. Eine Analyse der Schulter- und Rumpfmuskulatur und Messung des Beckenwinkels ist in weiteren Studien zusätzlich erforderlich, um zu erforschen, inwieweit die Stühle die Fehlfunktionen des Bewegungsapparates beeinflussen.
Object recognition is such an everyday task it seems almost mundane. We look at the spaces around us and name things seemingly effortlessly. Yet understanding how the process of object recognition unfolds is a great challenge to vision science. Models derived from abstract stimuli have little predictive power for the way people explore "naturalistic" scenes and the objects in them. Naturalistic here refers to unaltered photographs of real scenes. This thesis therefore focusses on the process of recognition of the objects in such naturalistic scenes. People can, for instance, find objects in scenes much more efficiently than models derived from abstract stimuli would predict. To explain this kind of behavior, we describe scenes not solely in terms of physical characteristics (colors, contrasts, lines, orientations, etc.) but by the meaning of the whole scene (kitchen, street, bathroom, etc.) and of the objects within the scene (oven, fire hydrant, soap, etc.). Object recognition now refers to the process of the visual system assigning meaning to the object.
The relationship between objects in a naturalistic scene is far from random. Objects do not typically float in mid-air and cannot take up the same physical space. Moreover, certain scenes typically contain certain objects. A fire hydrant in the kitchen would seem like an anomaly to the average observer. These "rules" can be described as the "grammar" of the scene. Scene grammar is involved in multiple aspects of scene- and object perception. There is, for instance, evidence that overall scene category influences identification of individual objects. Typically, experiments that directly target object recognition do not involve eye movements and studies that involve eye movements are not directly aimed at object recognition, but at gaze allocation. But eye movements are abundant in everyday life, they happen roughly 4 times per second. Here we therefore present two studies that use eye movements to investigate when object recognition takes place while people move their eyes from object to object in a scene. The third study is aimed at the application of novel methods for analyzing data from combined eye movement and neurophysiology (EEG) measurements.
One way to study object perception is to violate the grammar of a scene by placing an object in a scene it does not typically occur in and measuring how long people look at the so-called semantic inconsistency, compared to an object that one would expect in the given scene. Typically, people look at semantic inconsistencies longer and more often, signaling that it requires extra processing. In Study 1 we make use of this behavior to ask whether object recognition still happens when it is not necessary for the task. We designed a search task that made it unnecessary to register object identities. Still, participants looked at the inconsistent objects longer than consistent objects, signaling they did indeed process object and scene identities. Interestingly, the inconsistent objects were not remembered better than the consistent ones. We conclude that object and scene identities (their semantics) are processed in an obligatory fashion; when people are involved in a task that does not require it. In Study 2, we investigate more closely when the first signs of object semantic processing are visible while people make eye movements.
Although the finding that semantic inconsistencies are looked at longer and more often has been replicated often, many of these replications look at gaze duration over a whole trial. The question when during a trial differences between consistencies occur, has yielded mixed results. Some studies only report effects of semantic consistency that accumulate over whole trials, whereas others report influences already on the duration of the very first fixations on inconsistent objects. In study 2 we argue that prior studies reporting first fixation duration may have suffered from methodological shortcomings, such as low trial- and sample sizes, in addition to the use of non-robust statistics and data descriptions. We show that a subset of fixations may be influenced more than others (as is indicated by more skewed fixation duration distributions). Further analyses show that the relationship between the effect of object semantics on fixation durations and its effect on oft replicated cumulative measures is not straightforward (fixation duration distributions do not predict dwell effects) but the effect on both measures may be related in a different way. Possibly, the processing of object meaning unfolds over multiple fixations, only when one fixation does not suffice. However, it would be very valuable to be able to study how processing continues, after a fixation ends.
Study 3 aims to make such a measure possible by combining EEG recordings with eye tracking measurements. Difficulties in analyzing eye tracking–EEG data exist because neural responses vary with different eye movements characteristics. Moreover, fixations follow one another in short succession, causing neural responses to each fixation to overlap in time. These issues make the well-established approach of averaging single trial EEG data into ERPs problematic. As an alternative, we propose the use of multiple regression, explicitly modelling both temporal overlap and eye movement parameters. In Study 3 we show that such a method successfully estimates the influence of covariates it is meant to control for. Moreover, we discuss and explore what additional covariates may be modeled and in what way, in order to obtain confound-free estimates of EEG differences between conditions. One important finding is that stimulus properties of physically variable stimuli such as complex scenes, can influence EEG signals and deserve close consideration during experimental design or modelling efforts. Overall, the method compares favorably to averaging methods.
From the studies in this thesis, we directly learn that object recognition is a process that happens in an obligatory fashion, when the task does not require it. We also learn that only a subset of first fixations to objects are affected by the processing of object meaning and its fit to its surroundings. Comparison between first fixation and first dwell effects suggest that, in active vision, object semantics processing sometimes unfolds over multiple fixations. And finally, we learn that regression-based methods for combined eye tracking-EEG analysis provide a plausible way forward for investigating how object recognition unfolds in active vision.
Im Rahmen der vorliegenden Arbeit sollte überprüft werden, ob es bei hyperfunktionellen Dysphonien besondere Merkmale des Stimmeinsatzes gibt und inwieweit er sich vom Stimmeinsatz, der aus einer eutonen Grundhaltung heraus angestimmt wird unterscheidet. Weiterhin sollte eine Möglichkeit geschaffen werden, funktionelle Stimmstörungen objektivierbar zu machen und ihr Vorhandensein leichter zu dokumentieren. Obwohl in der wissenschaftlichen Literatur hyperfunktionelle Stimmstörungen beschrieben werden, so ist doch wenig über die Stimmeinsätze und die dabei stattfindenden physiologischen Vorgänge bekannt. Auch finden sich nur sehr wenige Ansätze funktionelle Stimmstörungen mit objektiven Meßmethoden zu klassifizieren. Durch die Untersuchung von 15 Patienten mit hyperfunktioneller Dysphonie in der Klinik für Phoniatrie und Pädaudiologie der Johann Wolfgang Goethe-Universität Frankfurt am Main sollte im folgenden geklärt werden, ob und, wenn ja, auf welche Weise sich die Stimmeinsätze bestimmten Typen zuordnen ließen. Weiterhin sollte bestimmt werden, ob die gefundenen Typen immer im selben Kontext auftraten, oder ob sie sich intraindividuell gehäuft fanden. Der Prozeß der Datengewinnung soll nun nochmals sehr kurz erläutert werden (näheres unter Kapitel 4). Alle Patienten wurden gebeten, den Text „Ein einäugiges Ungeheuer“ in ihrer gewohnten Sprechstimmlautstärke vorzulesen. Diese Aufnahmen wurden im Phonetiklabor durchgeführt und mit dem Programm „Cool Edit 96“ von Syntrillium gespeichert. In dem Text findet sich eine besondere Häufung von Vokalen und Diphthongen in den Stimmeinsätzen. Aus dem Text wurden 18 verschiedene Stimmeinsätze mit der Silbe /EIN-/ ausgewählt und als Einzelsequenz abgespeichert. Anschließend erfolgte eine manuelle Bearbeitung der Stimmeinsätze mit dem Programm „Glottal Segmentation of voice and speech“. Dabei wurden jeweils die ersten zwölf glottalen Zyklen des Stimmeinsatzes erfaßt und analysiert. Die so gewonnenen Daten wurden mit dem Zusatzprogramm „Periodendauerstatistik“ graphisch dargestellt. Dabei wurde ein Frequenz-Zeit-Diagramm angezeigt, welches in der Ordinate die Frequenz und in der Abszisse jeweils einen glottalen Zyklus abbildet. Diese Darstellung nimmt keinen direkten Bezug auf die Periodendauer, es wird lediglich die Anzahl der glottalen Zyklen mit der dazugehörigen Frequenz erfaßt. Eine Zusatzfunktion des Programms ist es, daß alle Darstellungen der 18 Stimmeinsätze wiederum in einer Abbildung, zum besseren Vergleich untereinander, wiedergegeben werden können. Insgesamt wurden über 500 Stimmeinsätze untersucht. Bei allen untersuchten Stimmeinsätzen fanden sich vier immer wieder vorkommende Typen. Drei davon sind typisch für hyperfunktionelle Dysphonien, der vierte (Typ 1) entspricht dem physiologischen, weichen Stimmeinsatz und findet sich bei hyperfunktionellen Dysphonien eher selten. Diese Form des Stimmeinsatzes sollte während einer Therapie angestrebt werden, da der Sprecher hier aus einer eutonen Grundspannung heraus intoniert. Eine Häufung der einzelnen Typen kann individuell vermehrt auftreten. Beim interindividuellen Vergleich hingegen konnte keine Typuspräferenz pro Worteinsatz festgestellt werden. Im Verlauf einer erfolgreichen Therapie kann am Patienten eine Verschiebung zum Typ 1 hin vermerkt werden, dies wurde jedoch bislang nur beispielhaft überprüft und wird Gegenstand weiterer Forschungen sein. Mit den vorgestellten Ergebnissen, steht ein objektives Verfahren zur Therapieverlaufsbeobachtung bei funktionellen Dysphonien zur Verfügung. Dabei ist wichtig, daß sowohl Stimmschallsignal als auch Elektroglottogramm ohne Beeinträchtigung der Phonation des Patienten aufgezeichnet werden können. Diese Aufzeichnungen können zu einem späteren Zeitpunkt beliebig oft vom Untersucher/Therapeuten angehört und auch visuell beurteilt werden. Die daraus gewonnenen Ergebnisse können mit dem Patienten besprochen werden. Bei erfolgreicher Therapie kann der Patient anhand der wechselnden Kurvenverläufe seine Fortschritte nicht nur selbst hören, sondern auch anhand der erfolgenden Typisierung visualisieren. Dies fällt dem Patienten in der Regel leichter, als die auditive Kontrolle, da unsere visuelle Wahrnehmung in der heutigen Umgebung stärker trainiert wird, als die auditive. Die Befunde belegen deutlich, daß hyperfunktionelle Funktionsabläufe nicht nur auf die Ebene der Glottis beschränkt sind, sondern vielmehr auf Verengungen im Hypo- und Mesopharynx, in Kombination mit erhöhter Spannung in der Vokaltraktwand, dem Mundboden sowie der Zunge und der mimischen Gesichtsmuskulatur zurückzuführen sind. Die entstehende faukale Enge durch Dorsalverlagerung des Zungengrundes sowie ein unphysiologischer Hochzug des Kehlkopfes behindern zusätzlich die Resonanz im Vokaltrakt und die wechselseitige Beeinflussung von Kopf- und Brustresonanz. Die Resonatoren können nicht im optimalen Verhältnis zueinander schwingen, dadurch behindern sie sich gegenseitig und es kann kein tragfähiger, reiner Klang entstehen. Genau an diesem Punkt, der Abstimmung der Resonatoren untereinander, setzen die meisten Therapieverfahren an. Diese Therapieerfolge können mit der dargestellten Methode jetzt auch quantitativ nachgewiesen und dokumentiert werden.
Ziel der vorliegenden Studie war es, mittels Vergleichsanalysen einen Einblick zu erhalten, in wie weit sich die Ergebnisse der visuellen (subjektiv) Farbwahrnehmung und instrumentengestützter Farbmessung (objektiv) unterscheiden. Die Studie beinhaltet einen In- Vitro, sowie einen In-vivo-Versuchsaufbau. Im In-vitro-Versuch waren 20 Probanden, zusammengestellt aus zehn Frauen und zehn Männern entweder Studierende der Zahnheilkunde, Zahnärzte/innen und Zahntechniker, aufgefordert, in einem Phantomkopf jeweils einen mit Ober- und Unterkieferkunststoffseitenzähnen bestücktes Kiefermodell, hinsichtlich der Farberscheinung zu beurteilen bzw. zu messen. Der Versuch wurde jeweils einmal mit und einmal ohne Zahnfleischmaske durchgeführt. In der anschließenden Auswertung der Ergebnisse wurde untersucht, ob die Beurteilungen bzw. Messwerte sowohl subjektiv als auch objektiv bei Frauen und Männern, mit und ohne Zahnfleischmaske gleich ausfallen oder ob es zu großen Unterschieden kommt. In der In-vivo-Studie bestimmten die Teamleiter (Frau/ Mann) an den 20 Probanden jeweils einen Seitenzahn ohne Füllung von vestibulär visuell und mit dem Digital Shade Guide. Auch hier wurden die Ergebnisse ausgewertet nach den Gruppen Frauen/Männer und subjektiv/objektiv. Es ist kein Unterschied bei der Beurteilung der Farben durch Frauen oder Männern ersichtlich. Zusammenfassend wird festgestellt, dass unter der Limitation einer In-vitro-Studie kein Vorteil in der objektiven gegenüber der subjektiven Farbnahme zu erkennen ist. Die Zahnfleischmaske nimmt keinen Einfluss auf die Farbwahrnehmung. Auch in der In-vivo-Studie sind keine nennenswerten gleichbleibenden Ergebnisse innerhalb der instrumentengestützten Farbnahme zu erhalten. Allenfalls eine Kombination aus subjektiver und objektiver Farbnahme scheint hilfreich zu sein, um eine exakte Farbbestimmung durchzuführen.