Refine
Year of publication
Document Type
- Doctoral Thesis (5576) (remove)
Language
- German (3546)
- English (2001)
- French (9)
- Latin (5)
- Spanish (5)
- Portuguese (4)
- Italian (3)
- Multiple languages (2)
- mis (1)
Has Fulltext
- yes (5576)
Is part of the Bibliography
- no (5576)
Keywords
- Deutschland (15)
- Gentherapie (14)
- HIV (13)
- Apoptosis (12)
- Membranproteine (12)
- NMR-Spektroskopie (11)
- RNA (11)
- RNS (10)
- Nanopartikel (9)
- Proteomics (9)
Institute
- Medizin (1463)
- Biowissenschaften (813)
- Biochemie und Chemie (722)
- Physik (578)
- Pharmazie (329)
- Biochemie, Chemie und Pharmazie (285)
- Geowissenschaften (138)
- Neuere Philologien (112)
- Gesellschaftswissenschaften (110)
- Psychologie (97)
Die nach dem Verfall des Moskauer Imperiums innerhalb der nordatlantischen Allianz entstandene Diskussion über eine eigenständigere europäische Sicherheitspolitik ist nicht neu. Ist diese Diskussion heute jedoch eingebunden in eine generelle Debatte über die künftigen sicherheitspolitischen Strukturen und einer stärkeren organisatorischen Verflechtung beispielsweise von Vereinten Nationen, Europäischer Union, OSZE und NATO, so stand in den späten fünfziger und frühen sechziger Jahren vor allem die Frage einer verstärkten politischen Konsultation und Kooperation innerhalb des Bündnisses und damit verbunden die Teilhabe der (kontinental-)europäischen Mitglieder der Atlantischen Allianz am nuklearen Entscheidungsprozeß auf der Tagesordnung. Dahinter stand die zwiespältige europäische Besorgnis, die USA könnten sich entweder mit Moskau einigen und ihre Streitkräfte in Europa reduzieren oder ganz abziehen, oder aber sie würden bleiben und die europäischen Staaten dominieren. Für beide Fälle wollten die Europäer, unter ihnen in vorderster Linie Bundeskanzler Konrad Adenauer und - als Sonderfall - Charles de Gaulle, Vorsorge treffen, wobei die nukleare Partizipation als Königsweg zu Macht und Einfluß in der Allianz galt. Die amerikanische Regierung hingegen war stets an einer stärkeren Teilung der Verteidigungslasten interessiert, ohne aber ihren Einfluß aufgeben oder von den Verbündeten zu abhängig werden zu wollen. Zur Vertrauensbildung und engeren Anbindung war Washington hierbei auch zu Zugeständnissen in der Teilhabe an der nuklearen Verfügungsgewalt bereit, womit jedoch möglichst neue nationale Nuklearstreitmächte vermieden werden sollten. ...
Im Rahmen unserer Arbeit haben wir die diagnostische Aussagekraft von dem Nukleären Matrix-Protein 22 (NMP22) bei Urothelkarzinomen anhand des Standard-Laborverfahrens „Two-Side-ELISA“ ( Enzym-Immunoassay) überprüft. Unsere Studie umfasste 107 Patienten, diese Anzahl erwies sich als ausreichend, um signifikante Ergebnisse über die Eignung des Tests zu erhalten. Unser repräsentatives Patientengut aus der Urologischen Klinik – mit dem Symptom Makrohämaturie – setzte sich aus benignen und malignen Harnwegserkrankungen, darunter 54 Harnblasenkarzinome, 8 Nierenbeckenkarzinome, 2 Ureterkarzinome und 43 benigne Harnwegserkrankungen (z.B. Zystitis, Urethritis, Pyelonephritis, Blasenhalssklerose, Harnleiter- und Blasenpapillome) zusammen. Patienten mit unterschiedlichen Stadien des Urothelkarzinoms G1, G2 und G3 wurden gezielt in unsere Studie aufgenommen. Die Tumorstadienklassifizierung erfolgte mit Hilfe der histologischen Untersuchungen nach der TNM-Klassifikation. Unsere gewonnenen histologischen Ergebnisse wurden mit den NMP22-Werten korreliert. Für die Ermittlung der NMP22-Levels bei den 107 gesammelten Urinproben wurde ein kommerzieller Kit verwendet (MATRITECH, WallacADL-GmbH, Freiburg, Deutschland). Die Aussagekraft des NMP22-Tests konnte anhand eigener Untersuchungen und durch Vergleich mit Untersuchungen in der Fachliteratur- anhand bestehender Vergleichskriterienbeurteilt werden. Die Auswertung erfolgte gemäß den in der Fachliteratur etablierten Kenngrößen Sensitivität und Spezifität. Die Sensitivität und Spezifität des NMP22-Tests in unserer Studie wurden bei einem von uns bestimmten Cut-off-Wert von 7,5 U/ml, der mit dem Cut-off-Wert vom NMP22-Kit Hersteller übereinstimmt, errechnet. Es zeigte sich eine Sensitivitätsabhängigkeit vom Grading. Der Bereich der Sensitivität bei dem Tumormarker NMP22 reichte von 38%-77%. Die Spezifität schwankte zwischen 66% und 80%. Die Spezifität bei den Patienten, die unter Harnwegsinfektionen litten betrug 42.9%. Die allgemeine Sensitivität des NMP22-Tests betrug bei den Blasentumoren 55.6 %. Die Sensitivität für die oberflächlichen Blasenkarzinome (Ta, T1) war 36%. Invasive Blasentumore wurden in 80% der Fälle entdeckt. Abhängig von dem Grading der Blasentumore fanden wir folgende Sensitivitäten des NMP22-Tests : G1 38%, G2 52% und G3 77%. Die Spezifität war 66.9%. Zusammenfassend können wir sagen, dass wir in Übereinstimmung mit allen uns bekannten Studien eine sehr hohe Sensitivität für den NMP22-Test bei Patienten mit invasivem Blasenkrebs finden. Im Grading 1 befinden sich allerdings in unserer Studie die meisten Werte im Normbereich. Aus diesem Grunde haben wir bei Urothelkarzinomen bei Grading 1 eine totale Einschränkung der Aussage des NMP22-Immunoassays und deshalb ist es für das Grading 1 nicht geeignet. NMP22 ist erst für die Früherkennung der Grading 2 und 3 der Blasenkrebse geeignet. Gutartige urologische Erkrankungen, wie die Zystitis oder andere Harnwegsinfektionen, führten zu falsch-positiven Ergebnissen. Unsere Schlussfolgerung ist, dass der NMP22-Test erst ab fortgeschrittenen Stadien, d.h. ab Grading 2 und Grading 3 echte positive Ergebnisse liefert und somit eine diagnostische Aussage macht. Unsere Werte für Sensitivität und Spezifität decken sich weitgehend mit den Angaben aus der Literatur. Unsere Studie hat gezeigt, dass zum gegenwärtigen Zeitpunkt die routinemäßige Anwendung des Harnblasentumormarkers NMP22 für die Primärdiagnostik von Urothelkarzinomen nicht geeignet ist. Zusammenfassend kann derzeit der NMP22 Test somit nicht die Zystoskopie und die Zytologie als Standarddiagnostik für die Frühdetektion von Blasentumoren ersetzen. Wegen der hohen Rate an falschpositiven Resultaten durch entzündliche Reizzustände der Blase bzw. benigne Harnwegserkrankungen wie z.B. Harnwegsinfekte und Harnsteine und wegen der sehr arbeits- und zeitaufwendigen Durchführung können wir den NMP22-ELISA-Test nicht zur routinemäßigen Blasenkrebsfrüherkennung empfehlen. Als Voraussetzung zur richtigen Interpretation der erhaltenen NMP22-Messwerte sollten bestimmte Ausschlusskriterien beachtet werden, so dass andere Ursachen für erhöhte NMP22- Messwerte weitestgehend ausgeschlossen werden können. Unter diesen Bedingungen erachten wir die Einsatzmöglichkeiten für den NMP22-Test als immunologischen nicht-invasiven Test in Verbindung mit der Zystoskopie und der Zytologie bei der Früherkennung von Blasentumoren als sinnvoll. Der Einsatz des NMP22-Tests könnte beispielsweise bei bereits erfolgreich behandelten Blasenkrebs-Patienten als Maßnahme zur Beobachtung in Verbindung mit der Zystoskopie und Zytologie sinnvoll sein. Alle Untersuchungen gemeinsam ermöglichen eine umfassende Diagnostik und eine höhere Sicherheit, und sie sind somit bei der Detektion des Harnblasenkarzinoms aussagekräftiger. Für die Zukunft sind nicht nur weitere randomisierte, prospektive Studien bedeutsam, die über ein geeignetes heterogenes, klinisch relevantes Patientengut verfügen, sondern auch die Vereinfachung der NMP22-Test Durchführung, so dass die Akzeptanz des Testsystems in Klinik und Praxis erhöht werden kann.
Random ordinary differential equations (RODEs) are ordinary differential equations (ODEs) which have a stochastic process in their vector field functions. RODEs have been used in a wide range of applications such as biology, medicine, population dynamics and engineering and play an important role in the theory of random dynamical systems, however, they have been long overshadowed by stochastic differential equations.
Typically, the driving stochastic process has at most Hoelder continuous sample paths and the resulting vector field is, thus, at most Hoelder continuous in time, no matter how smooth the vector function is in its original variables, so the sample paths of the solution are certainly continuously differentiable, but their derivatives are at most Hoelder continuous in time. Consequently, although the classical numerical schemes for ODEs can be applied pathwise to RODEs, they do not achieve their traditional orders.
Recently, Gruene and Kloeden derived the explicit averaged Euler scheme by taking the average of the noise within the vector field. In addition, new forms of higher order Taylor-like schemes for RODEs are derived systematically by Jentzen and Kloeden.
However, it is still important to build higher order numerical schemes and computationally less expensive schemes as well as numerically stable schemes and this is the motivation of this thesis. The schemes by Gruene and Kloeden and Jentzen and Kloeden are very general, so RODEs with special structure, i.e., RODEs with Ito noise and RODEs with affine structure, are focused and numerical schemes which exploit these special structures are investigated.
The developed numerical schemes are applied to several mathematical models in biology and medicine. In order to see the performance of the numerical schemes, trajectories of solutions are illustrated. In addition, the error vs. step sizes as well as the computational costs are compared among newly developed schemes and the schemes in literature.
Melting inside earth is a common phenomenon and can be observed in many different regions where melt travels through the mantle and crust to eventually reach the surface where it crystallizes to build large volcanic provinces, whole stratigraphic layers of flood basalts, or even the oceanic crust. Often, melt reaching the surface is a good source of information. It can be used to achieve a better understanding about processes taking place in deeper regions inside the mantle and it is therefore essential to fundamentally understand melting and melt percolation processes. In order to achieve a deeper understanding, the aim of this thesis is to investigate processes that are connected to melting by using numerical models.
The physical model used is a so called two-phase flow model which describes the ability of melt to percolate through a viscously deforming, partially molten matrix. A famous feature of two-phase flow are solitary porosity waves, which are waves of locally higher porosity ascending through a partially molten background, keeping its shape constant, driven by decompaction and compaction of the solid matrix in front and behind the wave.
The viscosity law for shear- and volume viscosity was strongly simplified in most previous studies that modeled solitary waves. Often the porosity dependency is underestimated or its influence on the volume viscosity is even neglected, leading to too high viscosities. In this work more realistic laws are used that strongly decrease for small melt fractions. Those laws are incorporated into a 2D Finite Difference mantle convection code with two-phase flow to study the ascent of solitary porosity waves.
The model results show that an initial Gaussian-shaped wave rapidly evolves into a solitary wave with a certain amplitude, traveling upwards with constant velocity. Even though strongly weaker viscosities are used, the effect on dispersion curves and wave shape are only minor as long as the background porosity is rather small. The results are still in agreement to semi-analytical solutions which neglect shear stresses in the melt segregation equation. Higher background porosities and wave amplitudes lead to significant decrease in phase velocity and wave width, as the viscosity is strongly effected. However, the models show that solitary waves are still a possible mechanism for more realistic matrix viscosities.
While the ascending of porosity waves are mostly described by the movement of fluid melt, partially molten regions inside Earth trigger upwelling of both, solid and fluid phases, which can be called diapirism. While diapirs can have a wide variety of wavelengths, porosity waves are restricted to a few times the compaction length. The size of a melt perturbation in terms of compaction length therefore describes whether material is transported by diapirism or porosity waves. In this thesis we study the transition from diapiric rise to solitary porosity waves by systematically changing the size of a porosity perturbation from 1.8 to 120 times the compaction length. In case of a perturbation of the size of a few times the compaction length a single porosity wave will emerge, either with a positive or negative vertical matrix flux and if melt is not allowed to move relative to the matrix a diapir will emerge. In between these physical end members a regime can be observed where the partially molten perturbation will split up into numerous solitary waves, whose phase velocity is low compared to the Stokes velocity and the swarm of solitary waves will ascend jointly as a diapir, slowly elongating due to a higher amplitude main solitary wave.
Solitary waves will always emerge from a melt perturbation as long as two-phase flow is enabled, but the time for a solitary wave to emerge increases non-linearly with the perturbation radius in terms of compaction length. In nature, in many cases this time might be too long for solitary waves to emerge.
Another important feature when it comes to two-phase flow is the transport of trace elements in melt. Incompatible elements prefer to go into the melt, which eventually enriches the area where it crystallizes again. In order to model this redistribution, the code FDCON was extended to allow for fully consistent transport of elements in melt, including melting, freezing and re-equilibration with time. A 2D model, a simple representation of a volcanic back arc, is set up to investigate the behavior of trace elements. The influence of retention number and re-equilibration time is examined. Lava-lamp like convection can be observed in the lower part of the model, producing melt, that eventually leads to enrichment in trace elements in the upper high-viscous layer. The total enrichment in this layer approaches an asymptotic value and a 0D model is introduced to recreate this behavior.
Das Funneling-Prinzip ist für Großprojekte wie SNS und IFMIF zur Erzeugung hoher Strahlströme bei hoher Brillanz von großem Interesse und bietet die Möglichkeit der Strahlstromerhöhung bei gleichbleibender Emittanz. Das Frankfurter Funneling-Experiment ist ein skalierter Aufbau einer ersten Funneling-Stufe von HIDIF. Hauptbestandteile des Experimentes sind zwei Multicusp-Ionenquellen, ein Zwei-Strahl-RFQ-Beschleuniger, ein Einzellen- und ein Mehrzellen-Deflektor sowie eine Emittanzmeßanlage. Das Zusammenführen zweier Ionenstrahlen nach dem Funneling-Prinzip konnte am IAP im Jahr 2000 erstmalig realisiert werden. Allerdings war aufgrund der unmodulierten End-Elektroden des RFQ-Beschleunigers der Strahlradius und die Emittanz bereits bei Eintritt in den Deflektor viel zu groß. Die dadurch aufgetretenen Strahlverluste an den Elektroden führten also nicht zu der gewünschten Strahlstromverdoppelung. Daraufhin wurden die letzten Elektrodenstücke der beiden Beschleuniger gegen modulierte Elektroden ausgetauscht. Der Fokus der Ionenstrahlen wird nun mittels eines sogenannten 3D-Matchings in den Strahlkreuzungspunkt gelegt. Experimente mit den neuen RFQ-End-Elektroden und dem überarbeiteten Mehrzellen- Deflektor stehen noch aus. Die vorliegende Arbeit entstand als theoretischer Teil im Rahmen des Frankfurter Funneling-Experimentes. Es sind zahlreiche Simulationsrechnungen zum bestehenden experimentellen Aufbau durchgeführt worden, die in Auszügen in Kapitel 7 dargestellt wurden. Weiterhin wurde die Teilchendynamik und die Raumladung in Deflektoren, das Emittanzwachstums während des Funnelings, der Einfiuß der inhomogenen Felder bei verschiedenen Deflektorgeometrien ausführlich untersucht und ausgewertet (Kapitel 8). Für diese Aufgaben sind einerseits neue Programme für eine dreidimensionale Deflektorsimulation und andererseits Software zur Auswertung mit graphischer Darstellung geschrieben worden. Diese wurden in Kapitel 6 vorgestellt. Die für diese Arbeit entwickelten Programme ermöglichen die Berechnung der Potential- und Feldverteilungen in elektrischen Hochfrequenz-Funneling-Deflektoren sowie die Simulation des Funnelingprozesses zweier Ionenstrahlen. Ferner sind diverse Auswertemethoden in tabellarischer oder graphischer Form wie Strahlverlauf, Emittanzebenen, Dichteverteilungen und Verlustgraphen verfügbar. Damit sind umfangreiche Simulationen und Auswertungen bezüglich des Deflektordesigns und der Strahldynamik sowie Optimierungen solcher Systeme möglich. Der Einfluß der Raumladungskräfte und der inhomogenen Felder auf den Funnelingprozeß konnten in Kapitel 8 gezeigt werden. Für den im Experiment verwendeten Mehrzellen-Deflektor sollten folgende Strahlparameter eingehalten werden: der Strahlradius in der x-y-Ebene sollte vor Eintritt in den Deflektor kleiner als 0.5 cm sein, die Energiebreite deltaW < +- 2% und die Phasenbreite deltaPhi < +- 30° betragen. Ansonsten treten Teilchenverluste durch Elektrodenkontakt auf oder der Bunch wird in longitudinaler Richtung zu groß, so daß die Möglichkeit besteht, das eine Überlappung der Bunche stattfindet. Mit der vorliegenden Arbeit sind Programme zur detaillierten Berechnung und Analyse von Funneling-Systemen entwickelt worden. Zukünftige Aufgaben sind neben der Untersuchung der Randfelder in Deflektoren die Minimierung des Emittanzwachstums durch die inhomogenen Felder. Nach ersten Strahltests und Funnelingergebnissen ist zu entscheiden, ob eine Matching-Sektion zwischen RFQ-Beschleuniger und Funneling-Deflektor zur weiteren Strahlanpassung eingebracht werden muss.
In dieser Arbeit wird die erstmals von Stevenson et al. (89, GRL) beschriebene spannungsangetriebene Schmelzsegregation, die Kanalisierungsinstabilität, numerisch mit Hilfe des 2D Finite-Differenzen-Codes FDCON (Schmeling, 00, Kluwer) untersucht. Diese Untersuchung stellt eine Weiterführung der numerischen Experimente von Richardson et al. (96, JGR) und Hall et al. (00, GRL) dar, so dass die Erforschung der Kanalisierungsinstabilität erweitert wird um den Aspekt ihres Verhaltens bezüglich eines äußeren Spannungsfeldes bei verschiedenen initialen Porositätsverteilungen, der Untersuchung der Kanalisierungsinstabilität bei großen Dehnungen und der damit verbundenen Analyse der entstehenden Strukturen, des Einflusses des Auftriebs auf die Ausbildung von Kanalnetzwerken und um die abschließende Prüfung, ob durch ein durch die Kanalisierungsinstabilität ausgebildetes Kanalnetzwerk die Möglichkeit besteht, Schmelze zu einem MOR zu fokussieren. Die Kanalbildung wird derzeit von Holtzman et al. (03, G3) (Hochdruckexperimente an synthetischem Olivin+MORB), Spiegelman et al. (03, G3) (theoretische Untersuchung der Kanalisierungsinstabilität) und Rabinowicz et al. (04, JGR) (numerische Simulation und theoretische Betrachtung der Kanalisierungsinstabilität) intensiv untersucht, die Fokussierung der Schmelze behandeln Sparks et al. (94, Academic Press), Hall et al. (03, G3) sowie Kühn (05, in-press). Viskositätsunterschiede in einer schmelzgefüllten porösen Matrix verursachen bei deren Deformation einen Druckgradienten, welcher die Schmelze in Richtung der maximalen Hauptspannung anreichert und zur Ausbildung von Kanälen, welche eine inhomogene Schmelzverteilung aufweisen, führt. Die Wachstumsrate Alpha dieser Kanäle weist zur Wellenzahl k eine Proportionalität von Alpha ~ ak^2/(1+bk^2) auf. Dieser Zusammenhang hat zur Folge, dass sich ab einer bestimmten Wellenzahl alle Schmelzverteilungen größerer Wellenzahl gleich verstärken. Bei anhaltender Dehnung kann beobachtet werden, dass die ausgebildeten Kanäle an den verarmten Kanalstellen auseinander gerissen werden. Nachfolgend verbinden sich die hierdurch entstandenen Schmelzlinsen unter der Bildung von en-echelon arrays wieder, wodurch sich wiederum ein langer, in etwa um 45° ausgelenkter (linksdrehendes Koordinatensystem, mit 0° gleich der Vertikalen) Kanal bildet. Diese Beobachtungen fanden unter der Bedingung, dass kein Auftrieb zwischen Schmelze und Matrix existiert, statt. Wird dieser Auftrieb hinzugefügt, so ist erkennbar, dass eine Kombination zwischen den die Kanalisierungsinstabilität und den Auftrieb bestimmenden Parametern existiert, bei der sich Solitonen ausbilden. Diese Solitonen folgen bei ihrem schnelleren Aufstieg dem Verlauf der schmelzgefüllten Kanäle und passieren dabei, ohne ihre Form zu verändern, andere kleine Solitonen, die ihren Weg kreuzen. Die durchschnittliche Aufstiegsgeschwindigkeit der Solitonen entspricht einem Vielfachen der Aufstiegsgeschwindigkeit der Schmelze aufgrund von Segregation. Weiterhin deckt sich die Solitonaufstiegsgeschwindigkeit mit der von Schmeling angegebenen. Bisher konnte in die Theorie für trockene (wasserfreie) Medien kein frühzeitiger Abfall der Wachstumsrate bei großen Wellenzahlen implementiert werden. Lediglich unter dem Gesichtspunkt der Diffusion von Wasser zwischen der Matrix und der Schmelze und des erweichenden Effekts von Wasser konnte bei einer spezifischen Wellenzahl eine maximale Wachstumsrate gefunden werden (Hall et al., 2000, GRL). Der Versuch der Anwendung der bisher erzielten Ergebnisse auf die Interaktion eines aufsteigenden Plumes mit einer spreizenden Kruste erbrachte keine direkte Fokussierung der Schmelze zum MOR hin. Die Spannungsverteilung dieser Experimente zeigt, dass der Plumestamm aufgrund eines defokussierenden Kanalnetzwerks im Stamm sowie eines nahezu vertikal verlaufenden Kanalnetzwerks am Rand des Plumestammes von einer Zone erhöhter Schmelzkonzentration ummantelt sein könnte. In dieser Ummantelung steigt die Schmelze dann in vertikal verlaufenden Kanälen auf, wobei sie in den hier vorgestellten Experimenten (Plumekopfausdehnung ~150 km) in einer Entfernung von ~100 km zum MOR auf die Lithosphärenunterseite (Tiefe ~50 km) treffen würde. Aufgrund der Lithosphärenstruktur (Wurzel-t-Gesetz) könnte die Schmelze an der schrägen Lithosphärenunterseite zum MOR hin strömen (Sparks et al., 94, Academic Press sowie Hall et al., 03 G3). Diese Prozesse (Kanalisierungsinstabilität (Stevenson et al., 89, GRL), Entlangströmen der Schmelze an der Lithosphärenunterseite (Sparks et al., 94, Academic Press sowie Hall et al., 03, G3) und der Recyclingprozess der Schmelze) stellen das Erklärungsmodell dieser Arbeit dar, wie eine Fokussierung von Schmelze zum MOR bei einer Interaktion von diesem mit einem Plume aussehen könnte.
O programa de ajustamento estrutural na república da Guiné-Bissau : Uma avaliação política e ética
(2007)
Os guineenses assumiram o desenvolvimento como uma das metas a atingir e a estabilização e o ajustamento foi-lhes imposta como solução para os problemas estruturais existentes. No entanto, a forma como têm vindo a ser concebidos pelo Banco Mundial e pelo Fundo Monetário Internacional, direccionada sobretudo para a área económica, acabou por limitar o papel dos Programas de Ajustamento Estrutural (PAE) tidos como indutores do desenvolvimento, tornando-os num agregado de premissas austeras, com resultados não esperados. As propostas do FMI e do BM, tendendo para a liberalização económica e estímulo dos mercados em detrimento da intervenção estatal, traduzem-se em medidas de redução de taxas de utilização dos serviços públicos, supressão de subsídios, redimensionamento da administração pública, cortes, congelamentos salariais e privatizações. Os resultados destas reformas foram catastróficos, porquanto não só não melhoraram o défice orçamental, como os efeitos negativos das restrições orçamentais sobre o bem-estar, geraram um ambiente de promiscuidade social e o agravamento do sector informal como estratégia de sobrevivência Tendo em conta o objecto em estudo, isto é, a relação de forças que encontrámos entre o relacionamento entre os actores políticos guineenses e as Instituições Financeiras Internacionais, notámos que a ausência de comportamentos éticos também influiu nos resultados. Por um lado, o BM e o FMI, perante um Estado fragilizado, apresentaram condicionalismos à obtenção de empréstimos e ajudas, por outro lado, os actores guineenses, mesmo perante este dilema, não se coibiram do exercício da corrupção, do clientelismo e do neo-patrimonialismo, como estratégia para o enriquecimento fácil. Palavras-chave: Programas de Ajustamento Estrutural; Desenvolvimento; Boa governação; Ética e Moral.
Für ein System ('ideales Gas') von N miteinander nicht wechselwirkenden Teilchen oder Zuständen, deren Wellenfunktionen φ(x) der Randbedingung φ(x)=0 für x aus Ŵ. gehorchen sollen, (W sei dabei die Oberfläche eines geschlossenen Hohlraumes Ŵ beliebiger Gestalt), ist von verschiedenen Autoren eine halbklassische Eigenwertdichteformel angegeben worden. Diese hängt nur linear über die Integrale V ,W und L über Ŵ (Volumen, Oberflächeninhalt und totale Krümmung von Ŵ) von der Gestalt. des Hohlraumes ab. Während von H. Weyl mathematisch bewiesen, werden konnte, daß der führende Volumterm im Gebiet großer Eigenwerte alle folgenden Terme überwiegt, konnte für den Oberflächenterm eine gleichartige Vermutung bisher nur numerisch begründet werden. Von dieser halbklassischen Eigenwertdichteformel ausgehend, werden die thermodynamischen Relationen des idealen Gases aufgebaut und einige Größen wie innere Energie, spezifische Wärme sowie die Oberflächen- und Krümmungs-Spannung für die Grenzfälle starker, ein Gebiet mittlerer und schwacher Entartung explizit berechnet, und zwar sowohl für die Fermi-Dirac als auch die Bose-Einstein-Statistik, als auch für deren klassischen Grenzfall, die Boltzmann-Maxwell-Statistik (s.Diagramm). Ausgenommen wird nur der Spezialfall der Einsteinkondensation, weil hier die (nur im Gebiet großer Eigenwerte gültige) halbklassische Eigenwertdichteformel nicht angewendet werden darf. Die in dieser Arbeit untersuchten quantenmechanisch bedingten Oberflächeneffekte idealer Quantengase sind experimentell bisher wenig untersucht worden; für Molekülgase sind sie verschwindend klein. Die experimentell beobachtete Oberflächenspannung stabiler Atomkerne wird von dem Modell, das den Kern als ideales, entartetes Fermigas der Temperatur T beschreibt, im wesentlichen richtig wiedergegeben. Mit dem in Kap. 3b) abgeleiteten Ausdruck für die Oberflächenspannung stark entarteter idealer Fermigase endlicher Temperatur kann eine Voraussage über die Oberflächenspannung angeregter Atomkerne gemacht werden.
Ein professioneller Orchestermusiker verbringt die meiste Zeit in körperlich ungünstiger Sitzhaltung beim Spielen. Die Folge ist ein Anstieg des Risikos für die Entwicklung von muskuloskelettalen Beschwerden [44, 127, 128]. Eine Verbesserung der Arbeitsbedingungen lässt sich u.a. durch den Einsatz von ergonomischen Stühlen erzielen, da sie einen Einfluss auf die Körperhaltung des Orchestermusikers besitzen. Im Mittelpunkt der vorliegenden Arbeit standen daher sechs unterschiedliche von der Firma Mey für Orchestermusiker konzipierte Stühle. Die Studie beinhaltete eine Untersuchung des Einflusses der Stühle auf die Oberkörperstatik und die Sitzdruckverteilung von Orchestermusikern und den Einfluss auf ihr Instrumentalspiel im Vergleich zur habituellen Sitzhaltung. Das Probandenkollektiv umfasste 24 Berufsmusiker des Polizeiorchesters Mainz (Rheinland-Pfalz, Deutschland) und bestand zum größten Teil aus Blasinstrumentalisten (3 Frauen, 21 Männer). Das Durchschnittsalter betrug 45 Jahre. Die Überprüfung der Oberkörperstatik erfolgte durch einen 3D-Rückenscanner (ABW GmbH, Frickenhausen, Deutschland), eine Evaluation der Druckverhältnisse im Gesäß durch eine Druckmessmatte (GeBioM GmbH, Münster, Deutschland), womit sich bei jedem Stuhl ein bestimmtes Druckmuster kennzeichnen ließ. Die Messung erfolgte pro Stuhl und Messgerät stets im Wechsel zwischen der statischen Position ohne Instrument (oI) und der statischen Position mit Instrument (mI). Bei der statistischen Auswertung kam es zur Verwendung nicht parametrischer Tests (Friedman-, Wilcoxon Matched- Pairs-Test), wobei das Signifikanzniveau bei ≤0,05 lag. Es erfolgte eine Unterteilung in einen Inter- und einen Intrastuhlvergleich.
Die Ergebnisse des Interstuhlvergleichs zeigten bezüglich der Schulterregion keine signifikanten Veränderungen, wohingegen im Hinblick auf die WS-Parameter Signifikanzen zwischen Stuhl 2 und 5 verzeichnet wurden: in der habituellen Position offenbarte die Rumpflänge D die größte Abweichung mit einem Längenunterschied von 14mm (p≤0,001), so auch die Rumpflänge S (16 mm; p≤0,001). Bezüglich dieser Stühle wiesen die restlichen WS-Parameter Abweichungen von max. 4° bzw. 3mm auf. Zwischen Stuhl 2 und 3 ergaben sich m.I. im Hinblick auf den thorakalen (p≤0,01) und lumbalen Biegungswinkel (p≤0,001) max. Diskrepanzen von 2,5°. Die größten Unterschiede in der Beckenregion zeigten sich beim Beckenabstand zwischen Stuhl 3 und 5 o.I. (7mm) und m.I. (4mm), (beide Bedingungen p≤0,001). Im Hinblick auf die Druckparameter fand sich eine Abhängigkeit zwischen belasteter Fläche und Sitzbeinhöckerdruck (SBH): eine kleine Fläche bedeutete eine schlechte Druckverteilung und umgekehrt. Stühle 1 und 4 besaßen den geringsten SBH (p≤0,001). Im Intrastuhlvergleich zeigten die Bereiche der WS, Schultern und Becken jeweils mindestens einen signifikanten Parameter auf, wie z.B. Schulterblattabstand, sagittale Rumpfneigung und Beckenabstand. Korrelationen zwischen den Parametern waren nicht zu erkennen. M.I. kommt es hinsichtlich des SBH auf der linken Hälfte im Schnitt auf allen Stühlen zu einer Druckerhöhung von 8,46%, auf der rechten zu einer von 11,11%. Im Hinblick auf den Oberschenkeldruck (OS) vollzieht sich die größte Veränderung (7,4bar) der rechten Gesäßhälfte auf Stuhl 2 mit p≤0,001. Der Interstuhlvergleich zeigt also, dass die Wahl eines Stuhls keine Auswirkung auf die Körperhaltung hat. Ursache für Diskrepanzen hinsichtlich des SBH ist die unterschiedliche Polsterung und Größe der Sitzfläche, welche eine hohe Relevanz in Bezug auf die Umverteilung des Drucks und den subjektiven Komfort besitzt. Eine gepolsterte und große Oberfläche ist gleichzusetzen mit einer günstigen Druckverteilung und einem angenehmen individuellen Sitzgefühl. Der Intrastuhlvergleich offenbart ebenfalls keine klinisch relevanten Veränderungen im Oberkörper. Ausschließlich in der Druckverteilung ist eine signifikante Variabilität hinsichtlich des OS rechts bei Stuhl 2 vorhanden (p≤0,001). Die Sitzposition der Probanden ist symmetrisch. Die Symmetrie bezieht sich sowohl auf den Schulter-, WS- und Beckenbereich, als auch auf die Druckverhältnisse im Gesäßbereich.
In der vorliegenden Studie konnte belegt werden, dass gepolsterte und breite Sitzoberflächen mit gleichmäßiger Druckverteilung und gleichzeitig hohem Komfort einhergehen. Im Hinblick auf das Musizieren über einen längeren Zeitraum ist das Vorhandensein eines hohen Komforts für den Orchestermusiker von Bedeutung. Diese Erkenntnisse sind bei der Weiterentwicklung von ergonomischen Stühlen zu berücksichtigen. Eine Analyse der Schulter- und Rumpfmuskulatur und Messung des Beckenwinkels ist in weiteren Studien zusätzlich erforderlich, um zu erforschen, inwieweit die Stühle die Fehlfunktionen des Bewegungsapparates beeinflussen.
Object recognition is such an everyday task it seems almost mundane. We look at the spaces around us and name things seemingly effortlessly. Yet understanding how the process of object recognition unfolds is a great challenge to vision science. Models derived from abstract stimuli have little predictive power for the way people explore "naturalistic" scenes and the objects in them. Naturalistic here refers to unaltered photographs of real scenes. This thesis therefore focusses on the process of recognition of the objects in such naturalistic scenes. People can, for instance, find objects in scenes much more efficiently than models derived from abstract stimuli would predict. To explain this kind of behavior, we describe scenes not solely in terms of physical characteristics (colors, contrasts, lines, orientations, etc.) but by the meaning of the whole scene (kitchen, street, bathroom, etc.) and of the objects within the scene (oven, fire hydrant, soap, etc.). Object recognition now refers to the process of the visual system assigning meaning to the object.
The relationship between objects in a naturalistic scene is far from random. Objects do not typically float in mid-air and cannot take up the same physical space. Moreover, certain scenes typically contain certain objects. A fire hydrant in the kitchen would seem like an anomaly to the average observer. These "rules" can be described as the "grammar" of the scene. Scene grammar is involved in multiple aspects of scene- and object perception. There is, for instance, evidence that overall scene category influences identification of individual objects. Typically, experiments that directly target object recognition do not involve eye movements and studies that involve eye movements are not directly aimed at object recognition, but at gaze allocation. But eye movements are abundant in everyday life, they happen roughly 4 times per second. Here we therefore present two studies that use eye movements to investigate when object recognition takes place while people move their eyes from object to object in a scene. The third study is aimed at the application of novel methods for analyzing data from combined eye movement and neurophysiology (EEG) measurements.
One way to study object perception is to violate the grammar of a scene by placing an object in a scene it does not typically occur in and measuring how long people look at the so-called semantic inconsistency, compared to an object that one would expect in the given scene. Typically, people look at semantic inconsistencies longer and more often, signaling that it requires extra processing. In Study 1 we make use of this behavior to ask whether object recognition still happens when it is not necessary for the task. We designed a search task that made it unnecessary to register object identities. Still, participants looked at the inconsistent objects longer than consistent objects, signaling they did indeed process object and scene identities. Interestingly, the inconsistent objects were not remembered better than the consistent ones. We conclude that object and scene identities (their semantics) are processed in an obligatory fashion; when people are involved in a task that does not require it. In Study 2, we investigate more closely when the first signs of object semantic processing are visible while people make eye movements.
Although the finding that semantic inconsistencies are looked at longer and more often has been replicated often, many of these replications look at gaze duration over a whole trial. The question when during a trial differences between consistencies occur, has yielded mixed results. Some studies only report effects of semantic consistency that accumulate over whole trials, whereas others report influences already on the duration of the very first fixations on inconsistent objects. In study 2 we argue that prior studies reporting first fixation duration may have suffered from methodological shortcomings, such as low trial- and sample sizes, in addition to the use of non-robust statistics and data descriptions. We show that a subset of fixations may be influenced more than others (as is indicated by more skewed fixation duration distributions). Further analyses show that the relationship between the effect of object semantics on fixation durations and its effect on oft replicated cumulative measures is not straightforward (fixation duration distributions do not predict dwell effects) but the effect on both measures may be related in a different way. Possibly, the processing of object meaning unfolds over multiple fixations, only when one fixation does not suffice. However, it would be very valuable to be able to study how processing continues, after a fixation ends.
Study 3 aims to make such a measure possible by combining EEG recordings with eye tracking measurements. Difficulties in analyzing eye tracking–EEG data exist because neural responses vary with different eye movements characteristics. Moreover, fixations follow one another in short succession, causing neural responses to each fixation to overlap in time. These issues make the well-established approach of averaging single trial EEG data into ERPs problematic. As an alternative, we propose the use of multiple regression, explicitly modelling both temporal overlap and eye movement parameters. In Study 3 we show that such a method successfully estimates the influence of covariates it is meant to control for. Moreover, we discuss and explore what additional covariates may be modeled and in what way, in order to obtain confound-free estimates of EEG differences between conditions. One important finding is that stimulus properties of physically variable stimuli such as complex scenes, can influence EEG signals and deserve close consideration during experimental design or modelling efforts. Overall, the method compares favorably to averaging methods.
From the studies in this thesis, we directly learn that object recognition is a process that happens in an obligatory fashion, when the task does not require it. We also learn that only a subset of first fixations to objects are affected by the processing of object meaning and its fit to its surroundings. Comparison between first fixation and first dwell effects suggest that, in active vision, object semantics processing sometimes unfolds over multiple fixations. And finally, we learn that regression-based methods for combined eye tracking-EEG analysis provide a plausible way forward for investigating how object recognition unfolds in active vision.