Refine
Year of publication
- 2010 (2779) (remove)
Document Type
- Article (973)
- Doctoral Thesis (378)
- Book (338)
- Part of Periodical (337)
- Part of a Book (212)
- Contribution to a Periodical (144)
- Review (141)
- Working Paper (84)
- Report (71)
- Conference Proceeding (31)
Language
- German (1694)
- English (841)
- mis (105)
- Portuguese (49)
- French (32)
- Croatian (29)
- Multiple languages (12)
- Italian (7)
- dut (3)
- Spanish (3)
Is part of the Bibliography
- no (2779) (remove)
Keywords
- Mosambik (114)
- Mozambique (114)
- Moçambique (113)
- Filmmusik (96)
- Deutsch (75)
- Christentum (65)
- Bibel (63)
- bible (63)
- christianity (63)
- Literatur (40)
Institute
- Extern (296)
- Medizin (295)
- Präsidium (235)
- Gesellschaftswissenschaften (99)
- Biowissenschaften (98)
- Biochemie und Chemie (97)
- Physik (87)
- Geschichtswissenschaften (68)
- Geowissenschaften (59)
- Wirtschaftswissenschaften (54)
E-Learning in der Hochschulpraxis: wie Lehren und Lernen nicht auf der (virtuellen) Strecke bleiben
(2010)
Die Anforderungen an eine zukunftsorientierte Hochschulentwicklung sind eng mit dem Einsatz neuer Medien verknüpft, welche sich sowohl institutionell, personell und hochschulpolitisch niederschlagen werden. Neben der technischen Integration neuer Lehrformen spielen insbesondere die organisatorischen und didaktischen Implikationen eine zentrale Rolle. Als ein wichtiger Aspekt zur Qualitätssicherung der Hochschullehre bei steigender Studierendenzahl spielen die neuen Medien dahingehend eine Rolle, dass durch den Einsatz innovativer Lehrtechnologien eine verbesserte Betreuung und Beratung der Studierenden angestrebt wird (vgl. Albrecht 2003, S. 83). Häufig wird die Annahme vertreten, dass E-Learning hier eine kostensparende Variante darstellt, die gleichzeitig durch den „Neuigkeitseffekt“ die Lernmotivation der Teilnehmenden steigere (vgl. Meister 2001, S. 167). Die generellen Befürworter des E-Learnings zeigen neue didaktische Handlungsmöglichkeiten auf, z. B. Lernen durch Exploration (insbesondere durch Navigieren, Browsing, Searching, Connecting und Collecting, vgl. Peters 2000), während die empirische Bestätigung erhöhter Lerneffekte im E-Learning noch aussteht. Der folgende Beitrag fordert die Lehrenden dazu auf, die didaktischen Aspekte des E-Learnings stärker in den Blick zu nehmen, damit sich ein lernförderlicher Einsatz computer- und internetbasierter Lehr- / Lernszenarien endlich in der (Hochschul-)Praxis etablieren kann. Denn die gängigste Variante von E-Learning an deutschen Hochschulen – soweit wagen wir uns vor – besteht häufig in der bloßen Informationsdistribution aktueller Seminarinhalte. Didaktische und methodische Überlegungen bleiben dabei ganz offensichtlich auf der Strecke...
Die fragmentierte Verrechtlichung des internationalen Raums, die Proliferation von Regelungsarrangements jenseits des Staates und die Diffusion globaler Normen sowie die daraus resultierenden Geltungs-, Kompetenz- und Autoritätskonflikte sind seit geraumer Zeit ein in der sozialwissenschaftlichen Literatur viel diskutiertes Phänomen. Überlappungen von nationalen Regierungssystemen und von im Völkerrecht verankerten klassischen internationalen Regimen existieren seit der Schaffung des Westfälischen Staatensystems.In jüngerer Zeit verstärkte sich der Pluralismus normativer Ordnungen jedoch global durch neuartige Typen von Regelungsarrangements jenseits des Staates. Auch unter den zwischenstaatlich geschaffenen internationalen Institutionen finden sich solche, die autonome Handlungs- und Entscheidungskompetenzen zugesprochen bekommen haben und diese als Akteure mit eigener Subjektivität ausüben. Hinzu kommt eine immer stärkere Aufnahme von „behind the border issues“ in den Aufgabenkatalog dieser Regime und Organisationen (Zürn 2004). Diese Entwicklungen führen zu einem neuen Grad an Kontestation und Umstrittenheit globaler normativer Ordnungen. Weder die Herstellung einer einheitlichen globalen normativen Ordnung noch eine Re-Nationalisierung des Rechts erscheinen heute als realistische Zukunftsprognosen. Umso wichtiger ist es daher, sich mit den Auswirkungen dieses Pluralismus’ normativer Ordnungen zu beschäftigen.
Within this thesis, an experimental study of the photo double ionization (PDI) and the simultaneous ionization-excitation is performed for lithium in different initial states Li (1s22l) (l = s, p). The excess energy of the linearly polarized VUV-light is between 4 and 12 eV above the PDI-threshold. Three forefront technologies are combined: a magneto-optical trap (MOT) for lithium generating an ultra-cold and, by means of optical pumping, a state-prepared target; a reaction microscope (ReMi), enabling the momentum resolved detection of all reaction fragments with high-resolution and the free-electron laser in Hamburg (FLASH), providing an unprecedented brilliant photon beam at favourable time structure to access small cross sections. Close to threshold the total as well as differential PDI cross sections are observed to critically depend on the excitation level and the symmetry of the initial state. For the excited state Li (1s22p) the PDI dynamics strongly depends on the alignment of the 2p-orbital with respect to the VUV-light polarization and, thus, from the population of the magnetic substates (mp = 0, ±1). This alignment sensitivity decreases for increasing excess energy and is completely absent for ionization-excitation. Time-dependent close-coupling calculations are able to reproduce the experimental total cross sections with deviations of at most 30%. All the experimental observations can be consistently understood in terms of the long range electron correlation among the continuum electrons which gives rise to their preferential back-to-back emission. This alignment effect, which is observed here for the first time, allows controlling the PDI dynamics through a purely geometrical modification of the target initial state without changing its internal energy.
Philosophy is essentially dialectical. One gets into a dialectic by a puzzle, an aporia in thought and understanding. The point of philosophizing is not (necessarily) to get hold of the ultimate, objective, and immutably correct answers. The point is rather to come to be able to see one’s way out of the aporia, and to understand how one got into it in the first place.
The essay that follows – which I am submitting as my dissertation – is dialectical in two senses. As a piece of philosophizing, the essay is guided by a problem, the problem of understanding how laws of nature are possible, and how it is possible for us to know them. The movement of thought generated by attempts to get out of the problem then yields some ideas that do not stay in the original context in which the problem was felt to exist. Two important ones are, first, perceptual experience is not the only ultimate source of warrant we have for empirical knowledge claims, and second, perceptual experience is not the only epistemically significant experience we can have. Both are consequences of the idea that the mastery of skills is a form of interaction with nature that provides epistemic warrant for nomological claims. I shall leave it to the epilogue to examine how this view of skills contrasts with the ways skills are ordinarily thought of in philosophy and the implication of it for empiricism.
The other sense in which the essay is dialectical is more interesting, and it has to do with the way in which I approach the problem that got me into started, namely, by paying special attention to the dialectic exchange between the realists and the antirealists about the laws of nature. Antirealism about the lawfulness of nature has experienced something like a post-Humean revival since the publication of van Fraassen’s The Scientific Image. Most, including me, have strong realist intuitions about nomological “connections” in nature. Philosophical positions that are strongly counterintuitive have mostly not ended well in history. So it becomes something of a puzzle why antirealism about laws of nature manages to enjoy popularity every now and then.
Clinical application of transcranial Doppler for detection of cerebral emboli during cardiac surgery
(2010)
Objective: Neurologic injury is one of the most damaging complications for cardiac surgery. How to decrease neurologic impairment by improving perioperative monitoring remains a challenge for both cardiac surgeons and anesthetists. For this reason, transcranial doppler (TCD) has been widely used in cerebral monitoring during cardiac surgery. In this study, two experiments of clinical application of TCD for detection of cerebral emboli during cardiac surgery were to be done. One was “Solid and gaseous cerebral emboli during valvular surgery are significantly reduced with axillary artery cannulation”. The other was “Do intraoperative cerebral embolic signals differ between valvular surgery (VS) and CABG”. Methods: In experiment one, 20 valve and combined procedures with aortic cannulation (AoC group) were compared to 18 procedures with axillary cannulation (AxC group) in a prospective non-randomized study. In experiment two, 18 VS patients and 18 CABG patients were matched by extracorporeal circulation (ECC) time retrospectively. Intraoperative monitoring of both middle cerebral arteries was performed with TCD discriminating between solid and gaseous embolic signals (ES). Results: In experiment one, the AxC group had less solid ES than the AoC group (38±22 vs 55±25, P<0.05), but no significant difference was found in gaseous (501±271 vs 538±333, P>0.05) and total (539 ± 279 vs 593 ± 350, P>0.05) ES. The AxC group had less solid ES during arterial cannulation (2.1±1.5 vs 6.6±3.6, P<0.05) and during aortic cross-clamp time (4.4 ±3.1 vs 10.2 ± 5.1, P<0.05) than the AoC group. During ECC, gaseous ES was not significantly different between groups (398±210 vs 448±291, P>0.05). However, AxC showed less gaseous ES (85±68 vs 187±148, P<0.05) and less gaseous ES per minute (1.8±1.5 vs 4.5±3.2, P<0.05) during weaning off extracorporeal circulation than the AoC group. No significant difference in gaseous ES (313±163 vs 261±189, P>0.05) and gaseous ES per minute (3.1±2.2 vs 2.8±2.2, P>0.05) was found between groups from bypass start to aortic declamping. No neurologic complications occurred. In experiment two, no significant difference was found in solid (38±20 vs 40±26, P>0.05) or gaseous (457±263 vs 412±157, P>0.05) ES between the VS and CABG group during the whole recording time. During ECC, solid ES (20±10 vs 24±19, P>0.05) and gaseous ES (368±230 vs 317±157, P>0.05) were comparable between groups. Specifically, during weaning off ECC, the VS group had more gaseous ES/min (5.6±3.6 vs 3.1±1.2, P<0.05) than the CABG group. But this difference in gaseous ES/min was not significant during the period from bypass start to aortic declamping (2.5±1.8 vs 3.0±1.8, P>0.05). Conclusion: Cerebral embolization does occur during cardiac surgery. Through these two experiments, we demonstrated the feasibility and importance of clinical application of transcranial doppler for detection of cerebral emboli during cardiac surgery. Due to the diversity in clinical application of TCD, it is impossible to compare the number of ES between different research centers. More unified standards should be drawn in order to make wider clinical application possible. Up till now, no robust evidence shows the correlation between intraoperative ES and postoperative neurological impairment. The research on intraoperative ES and postoperative neurological impairment should rely on a complete concept.
EUROTRANS is a European research program for the transmutation of high level nuclear waste in an accelerator-driven system (ADS). As proposed, the driver linac needs to deliver a 2.5–4 mA, 600 MeV continuous-wave (CW) proton beam and later a 20 mA, 800 MeV one to the spallation target in the prototype-scale and industrial-scale demonstration phases, respectively. This paper is focusing on the conceptual studies performed with respect to the 17 MeV injector. First, the special beam dynamics strategies and methods, which have been developed and applied to design a current-variable injector up to 30 mA for allowing an easy upgrade without additional R&D costs, will be introduced. Then the error study made for evaluating the tolerance limits of the designed injector will be presented as well.
'Übergang' ist eine Metapher für die Beschreibung ideengeschichtlicher Prozesse. Sicher ist ihr Bedeutungsfeld weiter. Kurt Röttgers (2007) nennt neben der anthropologischen Konstante: dem Übergang als Erfahrung von Tod und Geburt, den Übergang als Metamorphose, den Übergang als Transzendieren sowie dessen Negation: nämlich das Transzendieren als ein unstatthaftes, gar mit Tabu belegtes Übergehen von einer Sphäre in die andere. Hinüberzugehen kann, so Röttgers weiter, auch bedeuten, über eine Schwelle zu gehen, fortzuschreiten zu Neuem und in diesem Akt des Fortschreitens das Werden und die Geschichte, ja die Geschichtlichkeit selbst, auch in ihrer radikalen Verneinung alles Vorangegangenen, zu bejahen. Gerade im Zusammenhang mit letzteren Bedeutungszuschreibungen hat die Metapher des Übergangs im geschichtsphilosophischen beziehungsweise bewusstseinsphilosophischen Konzept des Deutschen Idealismus ihre Nobilitierung erfahren. Bewusstseinsphilosophisch ist dieses Konzept insofern, als es von den seit Descartes zentralen Prämissen der Orientierung an sich selbst sowie der Bildung von Allgemeinbegriffen ausschließlich auf der Grundlage von Erfahrung und damit auf der Grundlage von etwas zunächst in der Vorstellung Gegebenem ausgeht (vgl. Zeuch 2001). Die Frage, der ich im Folgenden nachgehe, ist, ob diesem Konzept, das seinen Kairos um 1800 hat, ein besonderes Potential zukommt, das der Ideengeschichte gegen ihre Kritiker auch in der Gegenwart eine 'raison d'etre' verleiht, wenn es um den Rekonstruktionsversuch komplexer gesellschaftlicher, politischer, philosophischer Zusammenhänge und Kontinuitäten über mehrere Epochen oder Zeitabschnitte hinweg geht.
The morpho-syntax of relative clauses in Sotho-Tswana is relatively well-described in the literature. Prosodic characteristics, such as tone, have received far less attention in the existing descriptions. After reviewing the basic morpho-syntactic and semantic features of relative clauses in Tswana, the current paper sets out to present and discuss prosodic aspects. These comprise tone specifications of relative clause markers such as the demonstrative pronoun that acts as the relative pronoun, relative agreement concords and the relative suffix. Further prosodic aspects dealt with in the current article are tone alternations at the juncture of relative pronoun and head noun, and finally the tone patterns of the finite verbs in the relative clause. The article aims at providing the descriptive basis from which to arrive at generalizations concerning the prosodic phrasing of relative clauses in Tswana.
Naturally, the floodplains of Central Asian rivers harbour riparian, so-called ‘Tugai’ forests, reeds with Phragmites australis, and shrub communities which form a mosaic depending on the variety of available ground water. In recent decades, these natural ecosystems have been strongly altered anthropogenically or even completely destroyed. In order to restore those ecosystems, knowledge on vegetation, ecosystem dynamics, and natural regeneration processes is essential. In our study, we present results of ecological investigations at the Tarim River. We gathered comprehensive data on soil, vegetation, forest stand age, tree vitality, river course dynamics, and land use and brought it to the landscape level. Thus, recommendations are derived for the maintenance of these floodplain ecosystems, in particular with regard to their biological diversity.
Hlavním námětem tohoto příspěvku je srovnání ĉeské a německé slovní zásoby urĉitého významového okruhu, a to slovní zásoby oznaĉující emoce, konkrétně emoci hněvu. Slovní zásoba tohoto sémantického okruhu je poměrně rozsáhlá, proto byla v tomto příspěvku pozornost zaměřena pouze na jeden motivaĉní typ, s nímţ se lze v této oblasti slovní zásoby setkat. Jedná se především o slova a frazémy, u nichţ je patrná motivace tělesnou stránkou ĉlověka. Mnoţství shromáţděného materiálu dokládá, ţe tělesná stránka ĉlověka (zvláště fyziologické reakce a příznaky nemocí) představuje dŧleţité motivaĉní východisko, z něhoţ vycházejí lexémy vztahující se k emoci hněvu jak v ĉeštině, tak v němĉině. Při zpracování materiálu oznaĉujícího emoce vyvstává někdy problém s přiřazením některých lexikálních jednotek k urĉité motivaĉní skupině. Toto přiřazení mŧţe být někdy subjektivní, a velmi tedy záleţí na jazykovém citu toho, kdo materiál zpracovává. Další problém spoĉívá i v samotném vymezení urĉitého typu emoce, které nemusí být vţdy zcela jednoznaĉné. Proto byly do příspěvku zařazeny I lexémy, které mají k sémantickému poli hněvu velmi blízko.
Background: Due to constantly rising air pollution levels as well as an increasing awareness of the hazardousness of air pollutants, new laws and rules have recently been passed. Although there has been a large amount of research on this topic, bibliometric data is still to be collected. Thus this study provides a scientometric approach to the material published on this subject so far.
Methods: For this purpose, data retrieved from the "Web of Science" provided by the Thomson Scientific Institute was analyzed and visualized both with density-equalizing methods and classic data-processing methods such as tables and charts.
Results: For the time span between 1955 and 2006, 26,253 items were listed and related to the topic of air pollution, published by 124 countries in 24 different languages. General citation activity has been constantly increasing since the beginning of the examined period. However, beginning with the year 1991, citation levels have been rising exponentially each year, reaching 39,220 citations in the year 2006. The United States, the UK and Germany were the three most productive countries in the area, with English and German ranked first and second in publishing languages, followed by French. An article published by Dockery, Pope, Xu et al. was both the most cited in total numbers and in average citation rate. J. Schwartz was able to claim the highest total number of citations on his publications, while D.W. Dockery has the highest citation rate per publication. As to the subject areas the items are assigned with, the most item were published in Environmental Sciences, followed by Meteorology & Atmospheric Sciences and Public, Environmental & Occupational Health. Nine out of the ten publishing journals with more than 300 entries dealt with environmental interests and one dealt with epidemiology.
Conclusions: Using the method of density-equalizing mapping and further common data processing procedures, it can be concluded that scientific work concerning air pollution and related topics enjoys unbrokenly growing scientific interest. This can be observed both in publication numbers and in citation activity.
This book is a compilation of oral histories about the movement of Luo and some Bantu-speaking peoples. It includes histories of many clans or ethnic groups, and how drought, warfare, disease, and competition over pastoral resources in western Kenya forced them to look for a land that they could call their own. Highly entertaining, the stories cross over from pre-colonial to post-colonial eras, with tales of fooling the colonial officers, winning battles and producing miracles. Although warriors and chiefs play a critical part in the stories so too do unlikely actors such as women, prophets, and common farmers. As one of the elders put it, 'Without history you are like wild animals' you need to know where you came from and who you are.' People with kinship connections to the ethnic groups represented here will delight in the references to places, people, kin groups and events. Residents of western Kenya will be able to trace some of their genealogies to North Mara and vice versa. Historians and anthropologists will find in this book a rich primary source for their own research. Those interested in cultural change will find this a fascinating case of Luo assimilation: events chronicled in this book are still underway and observable in communities today. Producing the text in both Swahili and English ensures that local people will have access to these histories for their own learning and on-going discussions about the past.
Im Zentrum dieses Beitrags stehen Kasper(l)stücke aus der Zeit des Ersten Weltkriegs von sechs deutschsprachigen Autoren, die insbesondere unter Bezugnahme auf die Ausführungen von Norbert Elias zur deutschen Staatsentwicklung und zum nationalen deutschen Habitus analysiert werden sollen. [...] Um eine gute Basis für eine nähere Betrachtung und Analyse der Kasper(l)stücke zu schaffen, wird erst gerafft auf das Konzept des "nationalen Habitus" am Beispiel der Deutschen und Charakteristika des deutschen Staatsbildungsprozesses bei Norbert Elias eingegangen und daraufhin Hintergründe der Entstehung der ausgewählten Puppenspiele präsentiert.
In der Doktorarbeit wurde ein Verfahren zur Ermittlung der Schwerpunkthöhe eines Fahrzeugs aus den Messwerten von Sensoren, die serienmäßig in vielen geländegängigen Fahrzeugen verbaut sind, entwickelt. Dieses Verfahren benötigt nur die Signale von Sensoren des elektronischen Stabilitätssystems (ESP) und eines Fahrwerks mit Luftfeder. Um die Höhe des Schwerpunkts zu bestimmen, wurde ein Modell entworfen, das die Drehbewegung des Fahrzeugs um seine Längsachse beschreibt. Eine der unbekannten Größen in diesem Modell ist das Produkt m_g\Deltah, wobei mit m_g die gefederte Masse des Fahrzeugs und mit Deltah der Abstand zwischen dem Schwerpunkt und der Wankachse des Fahrzeugs bezeichnet wird. Die Höhe des Schwerpunkts wird berechnet, indem zu diesem Abstand der als bekannt vorausgesetzte Abstand der Wankachse von der Straße addiert wird. Es wurden drei Varianten des Modells betrachtet. Die eine Modellvariante (stationäres Modell) beschreibt das Fahrzeugverhalten nur in solchen Fahrsituationen exakt, in denen die Wankgeschwindigkeit und die Wankbeschleunigung vernachlässigbar klein sind. In dieser Modellvariante wurden die Federkräfte mit einem detaillierten Modell der Luftfeder berechnet. Eine Eingangsgröße dieses Modells ist der Druck in den Gummibälgen der Luftfeder. Um diesen Druck zu ermitteln, wurde ein Algorithmus auf dem Steuergerät des Luftfedersystems implementiert. Um die Genauigkeit des Luftfedermodells zu testen und um die Abmessungen bestimmter Bauteile der Luftfeder zu ermitteln, wurden Messungen am Federungsprüfstand durchgeführt und eine Methode entwickelt, wie aus diesen Messungen die gesuchten Größen berechnet werden können. Bei den zwei übrigen Modellvarianten (dynamisches Modell) gelten die Einschränkung für die Fahrsituationen nicht. Die einzelnen Varianten des dynamischen Modells unterscheiden sich darin, dass das eine Mal die Feder- und Dämpferkonstanten als bekannt vorausgesetzt und das andere Mal aus den Sensorsignalen geschätzt werden. Passend zu jeder Modellvariante wurde ein Verfahren gewählt, mit dem Schätzwerte für das Produkt m_g\Deltah berechnet wurden. Des Weiteren wurde auch eine Methode entwickelt, mit der die Masse mg geschätzt wurde, ohne zuvor ein Wert für das Produkt m_g\Deltah zu ermitteln. Die Schätzwerte wurden unter Verwendung von Daten ermittelt, die bei einer Simulation und bei Messfahrten gewonnen worden sind. Das Ergebnis des Vergleiches der betrachteten Modellvarianten ist, dass die eine Variante des dynamischen Modells zum Teil falsche Werte für m_g\Deltah liefert, weil die Modellgleichungen ein nicht beobachtbares System bilden. Die andere Variante dieses Modells liefert nicht bei jeder Beladung exakte Werte, was vor allem daran liegt, dass in den Modellgleichungen dieses Modells ein konstanter Wert für die Federsteifigkeit angenommen wird. Bei Fahrzeugen mit Luftfeder ändert sich jedoch dieser Wert in Abhängigkeit von der Fahrzeugmasse. Die Werte von m_g\Deltah und mg können am genauesten mit dem stationären Modell ermittelt werden. Des Weiteren wurden Methoden entwickelt, die die Genauigkeit der durch den Schätzalgorithmus ermittelten Werte verbessern. So wurde zusätzlich zu dem Produkt m_g\Deltah und der Masse mg auch die Verteilung des Gewichtes auf die Vorder- und Hinterachse betrachtet. Es wurde ermittelt, welche Zusammenhänge zwischen dieser Verteilung und dem Produkt m_g\Deltah sowie zwischen dieser Verteilung und der Masse des Fahrzeugs bestehen. So konnte der Fehler in den Schätzwerten dieser Größen minimiert werden. Außerdem wurde auch der Zusammenhang zwischen dem Produkt m_g\Deltah und der Masse des Fahrzeugs ermittelt. Damit konnten die Schätzwerte dieser Größen genauer bestimmt werden. Aus den so gewonnenen Werten kann die Schwerpunkthöhe von einem Mercedes ML auf etwa 8cm genau berechnet werden. Diese Genauigkeit reicht aus, um das elektronische Stabilitätsprogramm auf die aktuelle Beladung des Fahrzeugs abzustimmen und damit einen Gewinn an Agilität für dieses Fahrzeug zu realisieren.
Ĉlánek je zasazen do kontextu vyuĉování němĉiny jako cizího jazyka. Zabývá se vztahem mezi deskriptivním, resp. narativním textem a textovou prací zaloţenou na naraci ţáka na straně jedné a emocemi ţáka na straně druhé. Výsledky dosavadních výzkumŧ tohoto vztahu, jeţ vycházejí z posledních konceptŧ narace jako základní existenciální struktury bytí, naznaĉují, ţe narativní text a receptivní i produktivní narativní pracovní postupy ve vyuĉování a uĉení se jazyku indukují specifický potenciál pozitivních emocí a postojŧ ţáka.
Condensing phenomena for systems biology, ecology and sociology present in real life different complex behaviors. Based on local interaction between agents, we present another result of the Energy-based model presented by [20]. We involve an additional condition providing the total condensing (also called consensus) of a discrete positive measure. Key words: Condensing; consensus; random move; self-organizing groups; collective intelligence; stochastic modeling. AMS Subject Classifications: 81T80; 93A30; 37M05; 68U20
This paper presents an analysis of the recent tropospheric molecular hydrogen (H2) budget with a particular focus on soil uptake and surface emissions. A variational inversion scheme is combined with observations from the RAMCES and EUROHYDROS atmospheric networks, which include continuous measurements performed between mid-2006 and mid-2009. Net H2 surface flux, soil uptake distinct from surface emissions and finally, soil uptake, biomass burning, anthropogenic emissions and N2 fixation-related emissions separately were inverted in several scenarios. The various inversions generate an estimate for each term of the H2 budget. The net H2 flux per region (High Northern Hemisphere, Tropics and High Southern Hemisphere) varies between −8 and 8 Tg yr−1. The best inversion in terms of fit to the observations combines updated prior surface emissions and a soil deposition velocity map that is based on soil uptake measurements. Our estimate of global H2 soil uptake is −59 ± 4.0 Tg yr−1. Forty per cent of this uptake is located in the High Northern Hemisphere and 55% is located in the Tropics. In terms of surface emissions, seasonality is mainly driven by biomass burning emissions. The inferred European anthropogenic emissions are consistent with independent H2 emissions estimated using a H2/CO mass ratio of 0.034 and CO emissions considering their respective uncertainties. To constrain a more robust partition of H2 sources and sinks would need additional constraints, such as isotopic measurements.
Over the past few decades, changes in market conditions such as globalisation and deregulation of financial markets as well as product innovation and technical advancements have induced financial institutions to expand their business activities beyond their traditional boundaries and to engage in cross-sectoral operations. As combining different sectoral businesses offers opportunities for operational synergies and diversification benefits, financial groups comprising banks, insurance undertakings and/or investment firms, usually referred to as financial conglomerates, have rapidly emerged, providing a wide range of services and products in distinct financial sectors and oftentimes in different geographic locations. In the European Union (EU), financial conglomerates have become part of the biggest and most active financial market participants in recent years. Financial conglomerates generally pose new problems for financial authorities as they can raise new risks and exacerbate existing ones. In particular, their cross-sectoral business activities can involve prudentially substantial risks such as the risk of regulatory arbitrage and contagion risk arising from intra-group transactions. Moreover, the generally large size of financial conglomerates as well as the high complexity and interconnectedness of their corporate structures and risk exposures can entail substantial systemic risk and can therefore threaten the stability of the financial system as a whole. Until a few years ago, there was no supervisory framework in place which addressed a financial conglomerate in its entirety as a group. Instead, each group entity within a financial conglomerate was subject to the supervisory rules of its pertinent sector only. Such silo supervisory approach had the drawback of not taking account of risks which arise or aggravate at the group level. It also failed to consider how the risks from different business lines within the group interrelate with each other and affect the group as a whole. In order to address this lack of group-wide prudential supervision of financial conglomerates, the European legislator adopted the Financial Conglomerates Directive 2002/87/EC8 (‘FCD’) on 16 December 2002. The FCD was transposed into national law in the member states of the EU (‘Member States’) by 11 August 2004 for application to financial years beginning on 1 January 2005 and after. The FCD primarily aims at supplementing the existing sectoral directives to address the additional risks of concentration, contagion and complexity presented by financial conglomerates. It therefore provides for a supervisory framework which is applicable in addition to the sectoral supervision. Most importantly, the FCD has introduced additional capital requirements at the conglomerate level so as to prevent the multiple use of the same capital by different group entities. This paper seeks to examine to what extent the FCD provides for an adequate capital regulation of financial conglomerates in the EU while taking into account the underlying sectoral capital requirements and the inherent risks associated with financial conglomerates. In Part 1, the definition and the basic corporate models of financial conglomerates will be presented (I), followed by an illustration of the core motives behind the phenomenon of financial conglomeration (II) and an overview of the development of the supervision over financial conglomerates in the EU (III). Part 2 begins with a brief elaboration on the role of regulatory capital (I) and gives a general overview of the EU capital requirements applicable to banks and insurance undertakings respectively. A delineation of the commonalities and differences of the banking and the insurance capital requirements will be provided (II). It continues to further examine the need for a group-wide capital regulation of financial conglomerates and analyses the adequacy of the FCD capital requirements. In this context, the technical advice rendered by the Joint Committee on Financial Conglomerates (JCFC) as well as the currently ongoing legislative reforms at the EU level will be discussed (III). The paper finally closes with a conclusion and an outlook on remaining open issues (IV).
Das visuelle Arbeitsgedächtnis (AG) kann visuelle Information enkodieren, über eine kurze Zeitperiode aktiv halten und mit neu wahrgenommener Information vergleichen. Dadurch ermöglicht es eine Reihe höherer kognitiver Funktionen ( z.B. Kopfrechnen). Störungen des visuellen AGs sind ein relevantes Symptom neurologischer und psychiatrischer Erkrankungen. Die funktionellen und neuronalen Prozesse, die dem visuellen AG unterliegen, stellen eine fundamentale Frage der kognitiven Neurowissenschaft dar. Bisherige Forschung hat bereits einen großen Beitrag zum Verständnis der Vorgänge während der Enkodierungs- und Halte-Phase des AGs geleistet. Die neuronalen Korrelate der Wiedererkennung (WE) hingegen sind relativ unbekannt. Ziel der vorliegenden Studie war es, die neuronalen Mechanismen der WE anhand zweier Modulationen (Gedächtnisbelastung und Ähnlichkeit zwischen Merk- und Test-Stimulus) zu erforschen. Den neuronalen Grundlagen von Ähnlichkeit zwischen wurde bislang nahezu keine Beachtung geschenkt, ihre Untersuchung stellte deshalb eine wesentliche Motivation der Arbeit dar. Da erhöhte Gedächtnislast bei einer endlichen Anzahl an Stimuli zu einer erhöhten Anzahl an möglichen ähnlichen Test-Stimuli und auf diese Weise zu einer erhöhten Ähnlichkeit zwischen Merk- und Test-Stimulus führen kann, sind die Effekte beider Modulationen konfundiert. Es sollte deshalb zusätzlich der Nachweis für einen ähnlichkeitsunabhängigen Lasteffekt erbracht werden. Im Rahmen der vorliegenden Dissertation stand der zeitliche Ablauf der zu erwartenden kortikalen Aktivationen im Mittelpunkt des Interesses. Aus diesem Grund kam die Magnetenzephalographie (MEG) mit ihrem hervorragenden zeitlichen und guten räumlichen Auflösungsvermögen zum Einsatz. Die neuronale Aktivität von 17 Probanden wurde mittels MEG erfasst. Zusätzlich wurden Verhaltensdaten (VD) in Form von Reaktionszeit (RZ) und Korrektheit (KH) der Antworten aufgezeichnet. Als Stimuli dienten 15 verschiedene Farben, die einmal den gesamten Farbkreis abbildeten. 1 oder 3 verschiedenfarbige Quadrate dienten als Merk-Stimuli und ein farbiges Quadrat, das einem der vorher gezeigten glich (G), ihm ähnlich (Ä) oder unähnlich (U) war, folgte als Test-Stimulus. Die Probanden antworteten per Fingerheben aus einer Lichtschranke, ob der Test-Stimulus dem Merk-Stimulus glich (G) oder nicht glich (Ä, U). Insgesamt führten die 2 Belastungsmodulationen und die 3 Ähnlichkeitsmodulationen zu einem 2 x 3 Design, das eine Untersuchung der Haupteffekte und Interaktionen von Ähnlichkeit und Last ermöglichte. Die Ergebnisse der VD decken sich mit früheren Erkenntnissen, die mit ansteigender Gedächtnislast und Ähnlichkeit von einer signifikanten Verminderung der KH der Antworten sowie einer signifikanten Zunahme der RZ berichteten. Zusätzlich konnte eine signifikante Interaktion beider Modulationen beobachtet werden. Mit zunehmender Gedächtnislast verlängerte sich die RZ, bzw. verminderte sich die KH der Antworten für gleiche Testreize stärker als für ungleiche (Ä, U). Es konnten wesentliche neue Erkenntnisse über die neuronalen Korrelate der WE im visuellen AG gewonnen werden. Für die Ähnlichkeits-Modulation konnten drei zeitlich, räumlich und funktionell distinkte Ereigniskorrelierte-Felder (EKF)-Komponenten detektiert werden: eine frühe Komponente, die stärker auf U im Vergleich zu Ä und G Stimuli ansprach, eine mittlere, die mit der Schwierigkeit der Aufgabe assoziiert war sowie eine späte Komponente, die als Korrelat einer kategorialen Entscheidung interpretiert wurde. Diese Ergebnisse replizieren Befunde von Studien über die Entscheidungsfindung und die summierte Ähnlichkeit im Langzeitgedächtnis (LZG) und liefern gleichzeitig neue Hinweise für eine funktionelle Dissoziation verschiedener Komponenten der WE im visuellen AG. Die WE scheint aus der Berechnung der summierten Ähnlichkeit, der Entscheidungsfindung sowie der Evidenzevaluation unter schwierigeren Bedingungen zu bestehen. Es gelang außerdem der Nachweis eines ähnlichkeitsunabhängigen Effektes der Lastmodulation. Es konnte eine bilateral parieto-okzipitale sowie eine linksseitig fronto-temporale Aktivierung erfasst werden, die wahrscheinlich allgemeinen Schwierigkeitseffekten entsprechen. Unter ansteigender Gedächtnisbelastung kam es zu einer Zunahme der Amplitude beider Aktivitäten. Diese Ergebnisse bestätigen Befunde über die Amplitudenentwicklung während der Halte-Phase, die als Heranziehung zusätzlicher Ressourcen unter schwierigeren Bedingungen gedeutet wurden. Die EKF-Daten konnten jedoch keine Bestätigung des in den VD nachgewiesenen Interaktionseffektes bringen. Vielversprechende Ansätze für zukünftige Studien bieten eine präzisere Bestimmung der räumlichen Verteilung sowie eine weitere Evaluation der kognitiven Funktion der neuronalen Aktivität der Ähnlichkeit, da die Ähnlichkeit zwischen Merk- und Test-Stimulus eine entscheidende Rolle bei der Beschränkung der WE-Leistung einzunehmen scheint.
In the present work, the problem of protein folding is addressed from the point of view of equilibrium thermodynamics. The conformation of a globular protein in solution at common temperatures is quite complicated without any geometrical symmetry, but it is an ordered state in the sense of its biological activity. This complicated conformation of a single protein molecule is destroyed upon increasing the temperature or by the addition of appropriate chemical agents, as is revealed by the loss of its activity and change of the physical properties, and so on. Once the complicated native structures having biological activity are lost, it would be natural to suppose that the native structure could hardly be restored. Nevertheless, pioneers, such as Anson and Mirsky, recognized as early as in 1925 that this was not always the case. If one defines the folded and unfolded states of a protein as two distinct phases of a system, then under the variation of temperature the system is transformed from one phase state into another and vice versa. The process of protein folding is accompanied by the release or absorption of a certain amount of energy, corresponding to the first-oder-type phase transitions in the bulk. Knowing the partition function of the system one can evaluate its energy and heat capacity under different temperatures. This task was performed in this work. The results of the developed statistical mechanics model were compared with the results of molecular dynamic simulations of alanine poylpeptides. In particular, the dependencies on temperature of the total energy of the system and heat capacity were compared for alanine polypeptides consisting of 21, 30, 40, 50 and 100 amino acids. The good correspondence of the results of the theoretical model with the results of molecular dynamics simulations allowed to validate the assumptions made about the system and to establish the accuracy range of the theory. In order to perform the comparison of the results of theoretical model and the molecular dynamics simulations it is necessary to perform the efficient analysis of the results of molecular dynamics simulations. This task was also addressed in the present work. In particular, different ways to obtain dependence of the heat capacity on temperature from molecular dynamics simulations are discussed and the most efficient one is proposed. The present thesis reports the result of molecular dynamic simulations for not only alanine polypeptides by also for valine and leucine polypeptides. In valine and leucine polypeptides, it is also possible to observe the helix↔random coil transitions with the increase of temperature. The current thesis presents a work that starts with the investigation of the fundamental degrees of freedom in polypeptides that are responsible for the conformational transitions. Then this knowledge is applied for the statistical mechanics description of helix↔coil transitions in polypeptides. Finally, the theoretical formalism is generalized for the case of proteins in water environment and the comparison of the results of the statistical mechanics model with the experimental measurements of the heat capacity on temperature dependencies for two globular proteins is performed. The presented formalism is based on fundamental physical properties of the system and provides the possibility to describe the folding↔unfolding transitions quantitatively. The combination of these two facts is the major novelty of the presented approach in comparison to the existing ones. The “transparent” physical nature of the formalism provides a possibility to further apply it to a large variety of systems and processes. For instance, it can be used for investigation of the influence of the mutations in the proteins on their stability. This task is of primary importance for design of novel proteins and drug delivering molecules in medicine. It can provide further insights into the problem of protein aggregation and formation of amyloids. The problem of protein aggregation is closely associated with various illnesses such as Alzheimer and mad cow disease. With certain modifications, the presented theoretical method can be applied to the description of the protein crystallization process, which is important for the determination of the structure of proteins with X-Rays. There many other possible applications of the ideas described in the thesis. For instance, the similar formalism can be developed for the description of melting and unzipping of DNA, growth of nanotubes, formation of fullerenes, etc.
Poster Presentation from Nineteenth Annual Computational Neuroscience Meeting: CNS*2010 San Antonio, TX, USA. 24-30 July 2010 In order to model extracellular potentials the Line-Source method provides [1] a very powerful and accurate approach. In this method transmembane fluxes are understood as sources for potential distributions which obey the Poission-equation with zero boundary conditions in the infinity. Its solutions reveal that the waveforms are proportional to local transmembrane net currents. The extracellular potentials are comparable small in amplitude and with the aid of their second special derivatives, it is possible to interpret them as additional fluxes to be included into the cable equation having an impact on the membrane potential of surrounding cells [2]. On this basis ephaptic interactions have been studied and have been considered to play a minor role in the network activity. This modeling study provides a new approach based on the first principle of the conservation of charges which leads to a generalized form of the cable equation taking into account the full three-dimensional detail of the cell’s geometry and the presence of the extracellular potential. So instead of coupling the compartment model and the model for extracellular potentials by means of the transmembrane currents, a non-linear system of partial differential equations is solved. Because the abstraction of deviding the cell’s geometry into compartments falls apart, it is possible to examine the contribution of the precise cell geometry to the signal processing while not neglecting the impact which could result from the extracellular potential. Some simulations of propagating action potentials on ramified geometries are going to be shown as well as the resulting distributions of extracellular action potentials.
Die Objekterkennung spielt für die menschliche Wahrnehmung eine zentrale Rolle. Hierzu nutzen wir das visuelle System in ähnlichem Maße wie den Tastsinn zur Exploration unserer Umwelt. In Kombination beider Sinne gelingt es uns unser Umfeld adäquat wahrzunehmen. Um postulierte Interaktionen zwischen visuellem und haptischem System aufzudecken und näher zu untersuchen, bedienten wir uns der Methode der funktionellen Magnetresonanztomographie.
Vorangehende funktionell bildgebende Studien über visuo-haptische zerebrale Informationsverarbeitung beschrieben den lateralen okzipi-talen taktil-visuellen Kortex (LOtv) und den intraparietalen Sulcus (IPS) als Hauptkandidaten für visuo-haptische Integration (Amedi et al., 2005; Sathian, 2005). Die meisten Studien betrachteten jedoch alleinig Schnittmengen aus Ergebnissen nach unimodaler Aktivierung. Um nun strengere statistische Kriterien für das Auffinden visuo-haptischer Integrationsareale zu testen (Beauchamp, 2005; Laurienti et al., 2005), suchten wir nach Regionen, welche durch direkte bimodale Stimulation stärker aktiviert werden, als nach Darbietung unimodaler Reize. Ziel dieser Arbeit war es, in Anlehnung an vorbestehende Literatur unter Zuhilfenahme strengerer statistischer Kriterien und mittels abstrakten Stimulations-Materials nach Integrationseffekten infolge simultaner visuo-haptischer Stimulation im menschlichen Gehirn zu suchen. Neurophysiologische Grundlage dieses Vorhabens ist dabei die Annahme, dass neuronale Gruppen spezifische Funktionen erfüllen und deren Aktivität über das sogenannte „Blood Oxygen Level Dependend-Signal“ (BOLD-Signal) mittels fMRT sichtbar gemacht werden kann.
Sechzehn gesunde Probanden partizipierten an der vorliegenden Studie. Während des Experiments kamen Schwarz-weiß-Fotografien und haptisch zu explorierende Figuren wahlweise von Tieren oder abstrakten Objekten zum Einsatz. Diese wurden dem jeweiligen Probanden teils als Einzelreiz (rein visuell/rein haptisch), teils simultan als visuo-haptische Reize während des fMRT-Messvorgangs dargeboten. Diese visuo-haptische Objektdarbietung führte zu einer signifikanten Aktivierung verschiedener kortikaler Gehirnregionen. Im Rahmen unseres Experiments konnten hauptsächlich drei bilaterale Regionen identifiziert werden, welche einen visuo-haptischen Integrationseffekt für das verwendete Stimulusmaterial zeigten: LOtv, IPS und das anteriore Cerebellum. Interessanterweise zeigte das rechtslaterale Cerebellum den robustesten visuo-haptischen Effekt, der weder vom Stimulusmaterial (Tiere/Fribbles), noch von der Kongruenz der dargebotenen Reize abzuhängen schien.
Aufgrund der Beobachtung, dass selbst isolierte motorische Beanspruchung Aktivationssignale im Gehirn auslösen kann, wurde ein zweites Studienprotokoll zum Ausschluss motorischer Aktivität als alleinige Komponente der Signalantwort entwickelt und eine zusätzliche rein motorische Kontrollbedingung eingeführt. Im Folgenden ließen sich die im Hauptexperiment identifizierten Regionen auch unter dieser zusätzlichen Bedingung abbilden. Mit unserem Studiendesign gelang es, die in der Literatur als multisensorisch vorbeschriebenen Regionen erneut nachzuweisen. Zusätzlich deuten unsere Ergebnisse darauf hin, dass es cerebelläre bimodal integrierende Areale gibt, welche auch in Abwesenheit zusätzlicher Aufgabenstellungen eine wichtige Rolle in visuo-haptischen Verarbeitungsprozessen spielen. Es bleibt jedoch abzuwarten, ob diese Regionen zukünftig endgültig als multisensorisch einzustufen sind.
Laut Richard Dyer haben die Menschen schon immer Serialität als Spiel mit Wiederholung und Erwartung geliebt: "It’s clear that humans have always loved seriality. Bards, jongleurs, griots and yarnspinners (not to mention parents and nurses) have all long known the value of leaving their listeners wanting more, of playing on the mix of repetition and anticipation, and indeed of the anticipation of repetition, that underpins serial pleasure. However, it is only under capitalism that seriality became a reigning principle of cultural production, starting with the serialisation of novels and cartoons, then spreading to news and movie programming." Dyer unterscheidet in seinem historischen Abriss kaum zwischen Wiederholung und Serialität. Die Menschen lieben Serialität, weil es eine Lust an der Wiederholung gibt, doch erst seit der seriellen Produktion des Kapitalismus hat sich die Serie als Format durchgesetzt. Die Wiederholung im Kinderspiel unterscheidet sich jedoch von den Fortsetzungsromanen und Fernsehserien, da hier Variation und Linearität partiell eine größere Rolle spielt, die sich nicht auf die Erwartungshaltung in der rituellen Wiederholung reduzieren lässt. Denn obwohl dem zuzustimmen ist, dass "allen serialen und seriell angebotenen Produkten [...] das stilistische Merkmal der Wiederholung gemeinsam [ist]", ist es meiner Ansicht nach notwendig, zwischen der Wiederholung und dem Seriellen in kulturellen und ästhetischen Ausdrucksformen zu unterscheiden. Daher werde ich zunächst die Wiederholung genauer skizzieren, bevor ich auf spezifische serielle Formate in Film und Fernsehen eingehe.
Vorliegende Publikation verfolgt ein anderes Konzept. Auch sie will auf interessante Angebote im digitalen Reich aufmerksam machen. Sie beschränkt sich jedoch nicht auf den bloßen Link oder den knapp kommentierten Hinweis auf ein Programm, sondern charakterisiert das jeweilige Angebot im Blick auf seine praktische Brauchbarkeit. Das Kriterium der Brauchbarkeit sind die Erfahrungen, die der Autor jeweils damit gemacht hat. Man könnte eine solche Auswahl subjektiv nennen, aber wer, außer Subjekten, kann überhaupt etwas beurteilen?
Wer gerne auf Entdeckungsreisen geht und wen immer einmal das Fernweh packt, ohne dass er Zeit und Geld für große Expeditionen hätte, für den kann Google Earth eine Art Suchtmittel darstellen. Von Ayers Rock zum Fujijama und aus den Straßenschluchten Manhattans in die afrikanische Steppe: Mit Google Earth eine Sache von Sekunden.
The first part of the following paper deals with varying points of criticism forwarded against Ordoliberalism. Here, it is not the aim to directly falsify each argument on its own; rather, the author tries to give a precise overview of the spectrum of critique. The second section picks out one argument of critical review – namely that the ordoliberal concept of the state is somewhat elitist and grounded on intellectual experts. Based on the previous sections, the final part differentiates two kinds of genesis of norms: an evolutionary and an elitist one – both (latently) present within Ordoliberalism. In combination with the two-level differentiation between individual and regulatory ethics, the essay allows for a distinction between individual-ethical norms based on an evolutionary genesis of norms and regulatory-ethical norms based on an elitist understanding of norms. A by-product of the author’s argument is a (further) demarcation within neoliberalism.
2008/9 sees the 60th anniversary of the German economic and currency reform of June 20, 1948, and the adoption of the Grundgesetz on May 23, 1949, which committed the country to the ideals of a socially committed market economy. Both of these events are important points along the path taken by the Federal Republic of Germany to reach the system of a social market economy. Since the term, Social Market Economy is often used in several different contexts and sometimes to mean contradictory things, we must ask: what exactly does the term social market economy entail? What economic-ethical ideas and theories are behind it? This paper will trace the origins of the social market economy (chapter 2) and explain the central characteristics of the Freiburg School of Economics (chapter 3), one of the main pillars of the social market economy. Central to this paper is the oeuvre of Walter Eucken, one of the leading representatives of the ordoliberal Freiburg School. The aim is to identify socio-political factors of influence and inspiration on his theory of economic policy (chapter 4) and evaluate similarities to the works of Kant, Smith and other economic philosophers. Chapter 5 will seek to elucidate Eucken’s “Program of Liberty”. We shall also allow ourselves a slight diversion to elaborate on the parallels between this work and Kant’s understanding of freedom and autonomy. Chapter 6 deals with Eucken’s dual requirements of an economic and social order (i.e. functioning and humane socio-economic order). In chapter 7, we seek to answer – with considerable reference to Adam Smith – to what extent it can be assumed that self-interest and the common good are mutually compatible. This paper concludes with a few remarks about the topicality of ordoliberalism in relation to modern, German-speaking economic ethics (chapter 8).
Sacoglossan sea slugs are unique in the animal kingdom in that they sequester and maintain active plastids that they acquire from the siphonaceous algae upon which they feed, making the animals photosynthetic. While most sacoglossan species digest their freshly ingested plastids within hours, four species from the family Plakobranchidae retain their stolen plastids (kleptoplasts) in a photosynthetically active state on time scales of weeks to months. The molecular basis of plastid maintenance within the cytosol of digestive gland cells in these photosynthetic metazoans is yet unknown, but is widely thought to involve gene transfer from the algal food source to the slugs based upon previous investigations of single genes. Indeed, normal plastid development requires hundreds of nuclear-encoded proteins, with protein turnover in photosystem II in particular known to be rapid under various conditions. Moreover, only algal plastids, not the algal nuclei, are sequestered by the animals during feeding. If algal nuclear genes are transferred to the animal either during feeding or in the germ line, and if they are expressed, then they should be readily detectable with deep-sequencing methods. We have sequenced expressed mRNAs from actively photosynthesizing, starved individuals of two photosynthetic sea slug species, Plakobranchus ocellatus Van Hasselt, 1824 and Elysia timida Risso, 1818. We find that nuclear-encoded, algal-derived genes specific to photosynthetic function are expressed neither in P. ocellatus nor in E. timida. Despite their dramatic plastid longevity, these photosynthetic sacoglossan slugs do not express genes acquired from algal nuclei in order to maintain plastid function.
Hallin and Mancini’s seminal work Comparing Media Systems: Three Models of Media and
Politics has generated great interest and enthusiasm among media scholars to advance comparative
studies by applying the four dimensions to analyze media performance in different countries. Media
scholars agree that the four variables suggested by the two authors, i.e. the structure of media
markets, political parallelism, role of the state, and professionalization of journalism, provide a
good theoretical framework for the analysis of relationship between political and media system.
Their models for comparing media systems are based on a ‘most similar’ strategy,
analysing media and journalism only in stable Western democracies (i.e. Western European and
North American nations), and the purpose of the research presented in this paper was to develop
the model to include other parts of the world as well.
The most recent attempts to integrate East Central European media systems into the Hallin
and Mancini model, the conclusion being that the East Central European media share most
similarities with the Polarized Pluralist model. This conclusion follows not only Hallin and
Mancini, but also Splichal. The researcher in his earlier works argued that the changes in post-
Soviet media systems could be best explained by referring to the concept of Italianization - the
media are under strong state control, the degree of mass media partisanship is strong, low level of
journalistic professionalism, commercialization.
In fact, out of the three models only two (the Liberal and the Democratic Corporatist
model) are models in any strict sense, whereas the third - Polarized Pluralism - is better defined
as the lack of a model: the Liberal and Democratic Corporatist model are both built on a
consensus around core values, whereas the key feature of the Polarized Pluralism model is that
there is no consensus and no core values. De Albuquerque introduced other variables that also
would be highly relevant to the comparative analysis of media systems, but that have no place in
the Hallin & Mancini framework, the most important one being whether the political system is
presidential or parliamentary. For example, it has been demonstrated that media in presidential systems are more likely to focus on individual politicians and the administrative aspects of
government, as well as acting as an intermediary between different branches of government, than
are media in parliamentary systems.
Scholars dealing with the East Central Europe (and elsewhere) are too interested in fitting
their respective nations to one of the three models, rather than focusing on the variables and on the
comparative dimension. The scholars focus on the variables and on the comparative dimension: it
is strucking that their conclusions are precisely that a strict modeling approach (i.e. trying to fit
any given nation into the three-system model) is not enough if we want to understand media
system differences properly.
Hallin and Mancini (2004: 305) write that “The Democratic Corporatist Model, we suspect,
will have particularly strong relevance for the analysis of those parts of Eastern and Central
Europe that share much of the same historical development, like Poland, Hungary, the Czech
Republic, and the Baltic States”. At the same time, however, they suspect that scholars working on
the East Central European media will find much that is relevant in their analysis of the
Mediterranean region.
The recent attempts integrate East Central European media systems into the Hallin and
Mancini model, the conclusion being that the East Central European media share most similarities
with the Polarized Pluralist model. This conclusion follows not only Hallin and Mancini, but also
Splichal. The researcher in his earlier works argued that the changes in post-Soviet media systems
could be best explaind by referring to the concept of Italianization - including the role of
clientelism, the strong role of the state, the role of the media as an instrument of political struggle,
and a low level of journalistic professionalism.
The Polarized Pluralist model all too often seems to be the default model – what is really
gained, analytically, by saying that post-Communist countries are all basically Polarized Pluralist
media system when they are different in many ways. This question needs further elaboration.
Instead of fitting the Italianization model into East Central Europe, scholars should start working on their own model, introducing other variables, that would allow them to investigate the
media in the region adequately.
Möglichkeiten der Evaluation von E-Learning-Arrangements. Eine Analyse am Beispiel von EverLearn
(2010)
Nep1 (Emg1) is a highly conserved nucleolar protein with an essential function in ribosome biogenesis. A mutation in the human Nep1 homolog causes Bowen–Conradi syndrome—a severe developmental disorder. Structures of Nep1 revealed a dimer with a fold similar to the SPOUT-class of RNA-methyltransferases suggesting that Nep1 acts as a methyltransferase in ribosome biogenesis. The target for this putative methyltransferase activity has not been identified yet. We characterized the RNA-binding specificity of Methanocaldococcus jannaschii Nep1 by fluorescence- and NMR-spectroscopy as well as by yeast three-hybrid screening. Nep1 binds with high affinity to short RNA oligonucleotides corresponding to nt 910–921 of M. jannaschii 16S rRNA through a highly conserved basic surface cleft along the dimer interface. Nep1 only methylates RNAs containing a pseudouridine at a position corresponding to a previously identified hypermodified N1-methyl-N3-(3-amino-3-carboxypropyl) pseudouridine (m1acp3-Psi) in eukaryotic 18S rRNAs. Analysis of the methylated nucleoside by MALDI-mass spectrometry, HPLC and NMR shows that the methyl group is transferred to the N1 of the pseudouridine. Thus, Nep1 is the first identified example of an N1-specific pseudouridine methyltransferase. This enzymatic activity is also conserved in human Nep1 suggesting that Nep1 is the methyltransferase in the biosynthesis of m1acp3-Psi in eukaryotic 18S rRNAs.
In die folgende Liste sind Hinweise von Tom Knieper eingegangen. Einen Aufblick auf den kleinen Motivkreis gebe ich in meinem Artikel „Zwischen Empörung und Naivität. Auslandskorrespondenten im Film, die Globalisierung und die Dritte Welt.“ In: Festschrift für Karl Prümm. Hrsg. v. Andreas Kirchner, Astrid Pohl und Peter Riedel. Marburg: Schüren 2010 [i.V.].
Einen gegebenen Stoff erneut zu verfilmen, einen Erfolgsfilm zu verdoppeln, eine schon verfilmte Geschichte in anderem Milieu neu vorzustellen, sie zu variieren und sie auf die besonderen Gegebenheiten der dargestellten Welt hin anzupassen: Das ist Praxis des Films, wohl seit seinem Beginn. Daß immer die gleichen Stoffe den Anlaß boten zu immer neuen Versuchen, das Zeitgenössische oder das Ewig-Menschliche zu zeigen, zu präzisieren oder überhaupt erst zu finden, ist beileibe keine filmische Angelegenheit, sondern auch in der Literatur - und erst recht: in der Volksliteratur - gängige und bekannte Praxis. Man ziehe die verschiedenen Stoff- und Motivgeschichten zu Rate: Diese sind voller Hinweise auf Geschichten, die in immer neuen Annäherungen und Variationen erprobt wurden. Ein ‚Remake‘ ist, wollte man flapsig formulieren, ganz einfach eine Neuverfilmung eines schon verfilmten Stoffes. Bezugnahmen von Texten aufeinander gibt es viele - dazu rechnen u.a. Fortsetzungen, Parodien, Kompilationsfilme und lediglich im Titel auf ein Original anspielende Filme. Die Frage, was ein Remake ist, bleibt virulent: Wieviele stoffliche Ähnlichkeiten müssen zwei Filme aufweisen, daß man von einem ‚Remake‘ sprechen darf? Das texttheoretische Problem der sich Remake nennenden Ähnlichkeitsbeziehung von Filmen, die sich mehr oder weniger detailgetreu auf den Vorgänger beziehen und oft sogar denselben Titel tragen, ist unklar. Geht es um Ähnlichkeiten oder um die Beschreibung der Unterschiede im Gleichen - vieles spricht dafür, dass in einem historischen und in einem kulturwissenschaftlichen Interesse die Beschreibung der Differenzen wichtiger ist als die Feststellung der stofflichen, narrativen und dramatischen Nähe von zwei oder mehr Texten. In der Differenz manifestiert sich historischer Wandel und kulturelle Unterschiedlichkeit. In der Differenz manifestiert sich aber auch die Anpassungsleistung, weil nicht jede Neuadaption eines Stoffes das „Original“ nur ausbeutet, sondern es aktualisiert, neu ausrichtet, thematisch veränderte Akzente setzt.
Ausgehend von der These, dass insbesondere psychologisierende Filmmusik oft in einer changierenden Bedeutungsbeziehung zur Szene und den Figuren steht und dass das Akzeptieren von Musiken als Darstellung der inneren Realität von Figuren auf einem Prozess der Synthese diverser Kontextinformationen beruht, wird ein Modell der Perspektivität der Filmmusik und ihrer damit einhergehenden semantischen Aufladung vorgeschlagen und an einem Beispiel durchgespielt.
'One Plus One' entstand während einer über mehrere Monate verteilten Aufnahmestudio-Session der Rolling Stones im Juni und August 1968 in den Olympic Studios in London. Die Band kam ohne Vorbereitung ins Studio und entwickelte den Song 'Sympathy for the Devil' improvisatorisch im Laufe der Sessions. Die Arbeit am Stück begann mit einem Liedtext von Sänger Mick Jagger unter dem Arbeitstitel 'The Devil Is My Name'. Jagger hatte diesen Text unter dem Eindruck des Romans 'Der Meister und Margarita' des russischen Schriftstellers Michail Bulgakov verfasst - ein Buch, das er von seiner Partnerin Marianne Faithfull erhalten hatte. In Bulgakovs Roman stattet der Teufel dem Moskau der 1930er Jahre einen Besuch ab, in dessen Verlauf er viele Menschen tötet oder in den Wahnsinn treibt. Der Film zeigt die Arbeit an dem Song, der auf einem treibenden Samba-Rhythmus aufruht, in den verschiedenen Entwicklungsstufen, in immer neuen Ansätzen, sich dem späteren Format annähernd. Der Song wurde 1968 auf dem Studioalbum 'Beggars Banquet' als erstes von zehn Liedern veröffentlicht.
Auf dem Weg zur multikulturellen Gesellschaft besteht Bedarf, die psychologischen Komponenten verschiedener Migrantengruppen zu erfassen. In Deutschland sind 83.598 Mitmenschen mit chinesischer Staatsbürgerschaft verzeichnet (StatBA, 2009). Werden die Eingebürgerten Übersee-Chinesen mit einbezogen, beläuft sich die Zahl an gesamtchinesischen Mitmenschen auf 135.000 (OCAC, 2009). Als einzige Anhaltspunkte über im Ausland lebende Chinesen dienen Studien aus dem angloamerikanischen Sprachraum. Menschen chinesischen Ursprungs mit westlichem Intellekt erhalten dort die Bezeichnung „Banane“, welche eine gelbe Hülle mit einem weißen Inneren illustriert. Die vorliegende Studie beschäftigt sich erstmalig mit den psychologischen Komponenten der in Deutschland lebenden chinesischen Mitbürger. Welchen Einfluss nimmt die Anpassung an das europäische Umfeld gekoppelt mit der chinesischen Internalisierung auf erinnertes elterliches Erziehungsverhalten, Persönlichkeitsstruktur, Erleben von Emotionen und Körpererleben? 154 chinesisch-stämmige Studierende aus ganz Deutschland wurden für verschiedene standardisierte psychometrische Testverfahren rekrutiert. Ein eigens konzipierter Fragebogen diente zur Messung der asiatischen und europäischen Identität. Wie vorherige Studien (Chao & Aque, 2009) aussagten, zeigten sich in der vorliegenden Stichprobe Züge des autoritativen Erziehungsstils. Im FEE (Fragebogen zum erinnertenelterlichen Erziehungsverhalten) (Schumacher, Eisemann, & Brähler, 1999) erhielten die Übersee-chinesischen Probanden neben einer höheren mütterlichen Strenge auch höhere Werte in der elterlichen Kontrolle und Überbehütung als die deutsche Normstichprobe. Je mehr mütterliche „Ablehnung und Strafe“ und elterliche „Kontrolle und Überbehütung“ die Probanden perzipierten, desto chinesischer sieht der heutige Lebensstil aus. Kongruent mit den Ergebnissen von McCrae et al. (1998) schnitten Übersee-Chinesen im NEO-FFI (Borkenau & Ostendorf, 1993) mit niedrigeren Werten in der Offenheit und höheren Werten in der Verträglichkeit ab. Anders als bei Eap et al. (2008) zeigten Chinesen in Deutschland höhere Werte in der Gewissenhaftigkeit und Extraversion. Diese hingegen korrelierten positiv mit der europäischen Identität. In der MSWS (Multidimensionale Selbstwertskala) (Schütz & Sellin, 2006) erzielten die Übersee-Chinesen einen niedrigeren allgemeinen Selbstwert als die deutsche Normgruppe. Außerdem empfanden die Übersee-Chinesen weniger eigene Selbstwertschätzung im sozialen Kontakt zu anderen, im Umgang mit Kritik und im leistungsbezogenen Bereich. Überraschenderweise erhielten die Probanden einen höheren Selbstwert in der Sportlichkeit. Die SEE (Skalen zu Erleben von Emotionen) (Behr & Becker, 2004) zeigten, dass die körperliche Symbolisierung von Gefühlen bei der chinesischen Stichprobe niedriger war als bei der deutschen Norm. Dies hing mit der Ausprägung der europäischen Identität zusammen. Negativ korrelierte die europäische Identität auch mit der Regulation von Emotionen. Im FBeK (Fragebogen zur Beurteilung des eigenen Körpers) (Strauß & Richter-Appelt,1995) ging das Körpererleben der Übersee-Chinesen mit weniger Selbstbewusstsein für die eigene Attraktivität einher. Je mehr die Lebensart zum Asiatischen tendierte, desto weniger äußerte sich die Akzentuierung des äußeren Erscheinungsbildes und desto höher erschien die Unsicherheit. Zusammenfassend weisen die Ergebnisse darauf hin, dass die Auslebung einer bikulturellen Identität Folgen für die psychologische Entwicklung eines Individuums mit sich bringen, welche beispielsweise für die Arbeit bei Patienten im psychotherapeutischen Prozess mit berücksichtigt werden sollten.
In situ rainwater harvesting has a long history in arid and semi-arid regions of the world buffering water shortages for human consumption and agriculture. In the context of an Integrated Water Resource Management (IWRM) in the Cuvelai Basin in northern Namibia, roof top rainwater harvesting is being introduced to a rural community for the irrigation of household scale gardens for the cultivation of horticulture products. This study elaborates how harvested rainwater can be used for garden irrigation in a sustainable manner evaluating ecologic, economic and social implications. Considering local conditions eight cropping scenarios were designed, including different criteria as well as one and two annual planting seasons. These schemes were tested under present climate conditions and under three future climate change scenarios for 2050 with the help of a tank model designed to model monthly tank inflows and outflows. Special attention was laid on risk and uncertainty aspects of varying inter-annual and interseasonal precipitation and future climate change. A framework for the assessment of sustainability was adapted to the purposes of this study and indicators have been developed in order to assess the cropping and irrigation schemes for sustainability.
The study found that with the given tank size of 30 m³, depending on crop scenario, under optimized conditions a garden area of 60 to 90 m³ can be irrigated. The choice of crops highly impacts water use efficiency and economic profitability, compared to the considerably lower impact of amount of annual planting seasons and future climate change. In the case of worsening future climate conditions, adaptation measures need to be taken as especially the economic as well as the environmental situation are expected to exacerbate due to expected decreases in yields and revenues. Already under present conditions however, the economic dimension represents the most limiting factor to sustainability, particularly due to the excessive investment costs of the rainwater harvesting and gardening facility. Nonetheless, rainwater harvesting in combination with gardening can be regarded as successful in securing household nutrition, providing sufficient horticulture products for household consumption or market sale. At the same time with the optimal choice of crops the investment costs can be recovered within the end of the lifespan of the facility.
This dissertation introduces in chapter 1 a new comparative approach to model-based research and policy analysis by constructing an archive of business cycle models. It includes many well-known models used in academia and at policy institutions. A computational platform is created that allows straightforward comparisons of models’ implications for monetary and fiscal stabilization policies. Chapter 2 applies business cycle models to forecasting. Several New Keynesian models are estimated on historical U.S. data vintages and forecasts are computed for the five most recent recessions. The extent of forecast heterogeneity for models and professional forecasts is analysed. Chapter 3 extends the forecasting analysis to a long sample and to the evaluation of density forecasts. Weighted forecasts are computed using a variety of weighting schemes. The accuracy of forecasts is evaluated and compared to professional forecasts and forecasts from nonstructural time series methods. Chapter 4 adds a new feature to existing business cycle models. Specifically, a medium-scale New Keynesian model is constructed that allows for strategic complementarities in price-setting. The role of trade integration for monetary policy transmission is explored. A new dimension of the exchange rate channel is highlighted by which monetary policy directly impacts domestic inflation. Chapter 5 tests whether simple symmetric monetary policy rules used in most business cycle models are a sufficient description of reality. I use quantile regressions to estimate policy parameters and find asymmetric reactions to inflation, the output gap and past interest rates.
Ein erblich bedingter Funktionsverlust der DNA Mismatch Reparatur (MMR) Proteine hMSH2 und hMLH1 führt zu genetischer Instabilität und frühzeitiger Ausbildung von Krebserkrankungen, insbesonders des Kolons und des Endometriums. Diese Erkrankung wird nach ihrem Erstbeschreiber als Lynch Syndrom oder im Falle eines kolorektalen Karzinoms auch als erbliches nichtpolypöses kolorektales Karzinom (hereditary non polyposis colorectal cancer, HNPCC) bezeichnet. Neben der DNA Reparatur sind MMR Proteine auch an weiteren regulatorischen Prozessen wie genetischer Rekombination, Antikörperbildung sowie Zellzyklus Regulation und Apoptose beteiligt. Aus onkologischer Sicht ist besonders der letzte Punkt von Interesse, da man davon ausgeht, dass MMR Proteine bei exzessiven DNA-Schäden den Zellzyklus anhalten und entweder die DNA reparieren oder die Apoptose einleiten. Dies ist von klinischer Bedeutung, da viele Chemotherapeutika künstliche DNA-Läsionen hervorrufen, die in MMR defizienten Zellen weder zu einem Zellzyklus Stop noch zur Apoptose führen, so dass die Wirksamkeit bestimmter Substanzen vermindert ist. Aus diesem Grund wurde im Rahmen der vorgelegten Dissertation ein Screening zur Identifikation von Interaktionspartnern von hMLH1 durchgeführt. hMLH1 ist hauptsächlich im Zellkern lokalisiert, über Interaktionspartner im Zytoplasma ist bisher wenig bekannt. Im Rahmen dieser Arbeit wurde ein neues bakterielles Zweihybrid-System etabliert. In diesem System besitzen die Wirtszellen keinen Zellkern, so dass die detektierten Interaktionen unabhängig von der intrazellulären Lokalisation stattfinden. Die Klone einer cDNA-Datenbank wurden mit hMLH1 in Bakterienzellen koexprimiert und die Interaktionen durch positives Zellwachstum auf Minimalnährböden angezeigt. Die positiven Klone wurden anschließend sequenziert und die Sequenz mit Hilfe der BLAST-Funktion mit der PubMed Online-Datenbank abgeglichen. Insgesamt wurden 108 bisher unbekannte Interaktionspartner von hMLH1 detektiert. Von diesen konnten zahlreiche Proteine den bekannten Funktionen der MMR zugeordnet werden. Von besonderem Interesse sind einige Interaktionspartner aus den Bereichen Zellzyklus Regulation (ANXA6, LPP2, NDRG1, PTP4A2/RH, RAPGEFL1, SPTLC2 und ARAF1), Apoptose (CTSB, CAPN5, DDX47, DES und Atmungskettenproteine) und ribosomale Proteine (EIF2A, EEF2, RPS2, RPS5 und RPS16). Weitere Untersuchungen müssen zeigen, welche dieser Interaktionspartner sich möglicherweise als prognostische bzw. prädiktive Biomarker nutzen lassen. Weiterhin könnten sich durch fundierte Kenntnis der Interaktion von MMR und Zellzyklus Regulation bzw. Apoptose neue Ansatzpunkte bei der Entwicklung zukünftiger therapeutischer Substanzen ergeben.
Wir haben uns in dieser Arbeit der Frage nach der Dissipation in niederenergetischen Schwerionenkollisionen gewidmet. Dissipation im Allgemeinen hat ihre Ursache in direkten Teilchenkollisionen, die in der Methode von TDHF bezüglich der Nukleonen fehlen. Im VUU-Modell sind sie dagegen ein zentraler Bestandteil der Zeitentwicklung und spielen bei mittleren und hohen Energien eine wichtige Rolle.
Mithilfe des VUU-Modells wurde deshalb versucht einen Einfluss der Nukleon-Nukleon-Kollsionen auf den Impulsstrom festzustellen, der an der Verbindungsstelle in der Reaktion 16O + 132Sn mit b = 7 fm und Ecm = 100 vorliegt. Dabei variierten wir den NN-Wirkungsquerschnitt im Kollisionsterm der VUU-Gleichung mit der Erwartung, dass eine daraus resultierende Verminderung bzw. Erhöhung der Stoßrate Auswirkungen auf die Geschwindigkeitsverteilungen der Materie zeigt. Ein positives Ergebnis hätte den Schluss nahegelegt, dass die mittlere freie Weglände und damit die Viskosität von Kernmaterie in Schwerionenkollisionen zu berücksichtigen ist.
Im Verlauf unserer Analyse haben wir festgestellt, dass die von uns verwendeten Methoden nicht zu den gewünschten Ergebnissen führten, z.T. auch weil die Kerne in den VUU-Rechnungen Instabilität aufwiesen und so die relevante Reaktionszeit einschgeschränkt wurde. Wir konnten einen Einfluss von direkten Teilchenkollisionen auf den Impulsstrom zwischen den Kernen des obigen Systems nicht verifizieren. Zusätzliche Simulationen an 12C + 12C mit b = 0 fm haben dann gezeigt, dass offenbar der allergrößte Teil der Nukleon-Nukleon-Kollisionen aufgrund des Pauli-Prinzips blockiert wird. Aus diesem Grund ziehen wir die Möglichkeit in Betracht, dass die starke Präsenz des Pauli-Prinzips im niederenergetischen Bereich die Stoßrate nicht nur maßgeblich reduziert, sondern damit direkte Stöße insgesamt kaum Einfluss auf den Impulsstrom und die Dissipation haben könnten. Die Dissipation ist demnach hauptsächlich auf einen Austausch üuber die Verbindungsstelle zweier Kerne zurückzuführen, was in weiterführender Literatur unter dem Stichwort window formula bekannt ist.
Weitere Untersuchungen in diese Richtung sind wünschenwert. Insbesondere ist es erforderlich das angesprochene Zeitproblem zu lösen, um eventuell die Stoßrate zu erhöhen. Dann könnte ein möglicher Einfluss auf den Impulsstrom wesentlich länger und detaillierter studiert werden. Es bietet sich zudem an, das benutzte Auswerteprogramme vuudens so abzuändern, dass z.B. ein feineres Gitter benutzt werden kann, auf dem die Dichten berechnet werden. Das so gesteigerte Auflösungsvermögen würde sicherlich die
Unzulänglichkeiten der in dieser Arbeit verwendeten Methoden reduzieren. Bei weiterem und tieferem Studium der besprochenen Prozesse könnte es natürlich sein, dass bessere Ansätze zur Analyse gefunden werden. Dies wäre in jedem Fall zu begrüßen.
Emoce jsou verbalizované city. Předtím, neţ jsou vyjádřeny, hodnotí mluvĉí urĉitou skuteĉnost, příp. objekt. Evaluace v něm mŧţe vzbudit rŧzné emoce. Emoce a hodnocení je tedy třeba od sebe přísně oddělit. K hodnocení slouţí v němĉině především modální slova, která mohou vyjádřit epistemický, doxický, distancující se nebo hodnotící postoj mluvĉího. Jazyk disponuje rŧznými jazykovými prostředky k vyjádření emoĉních postojŧ. Z komunikaĉních forem výpovědi je třeba jmenovat nejprve expresivní (výrazové) věty, přiĉemţ exprese/výraz představuje funkci jazykového znaku ve smyslu Bühlerova organon-modelu přirozeného jazyka. Dále sem patří příznakové formy vět jako osamostatněné vedlejší věty a neslovesné vazby.
In Musils essayistischem Erzählstil hat die Erzählinstanz - mehr noch als direkte oder indirekte Figurenrede und Bewusstseinsdarstellung in Form von innerem Monolog oder erlebter Rede - tragenden Anteil an der erzählerischen Figurencharakterisierung. Wie Gunther Martens in seiner narratologisch ausgerichteten Analyse des "Mann ohne Eigenschaften unlängst gezeigt hat", existieren "bei Musil sehr viele erklärende Hinweise auf das Ungewusste und das Unbewusste der Figuren, wobei es sich eher um ein soziales als um ein psychologisches Unbewusstes handelt." Die im Folgenden unternommene Sozioanalyse der in ihrer Relevanz für den gesamten romanesken Handlungsaufbau bisher meist unterschätzten Figur des Generals Stumm von Bordwehr kann über weite Strecken direkt auf die Bemerkungen der Erzählinstanz zurückgreifen und die erhaltenen Informationen durch eine angemessene Berücksichtigung indirekter Charakterisierungsformen sinnvoll ergänzen, denn "Musil charakterisiert seine Nebenfiguren vor allem über ihre unfreiwilligen Tics, Reflexe und Gewohnheiten." [...] Aus den Überlegungen sollte insgesamt Folgendes ersichtlich werden: Die umsichtige literarische Gestaltung eines "zivilen Habitus" sowie das damit einhergehende tölpelhafte Auftreten des "unmilitärischen" Generals, der als Vertreter der "Pastoralmacht" im Romankontext eine figurale Verkörperung des "strukturellen Herrschaftsmodus" der Moderne darstellt, ermöglichen Stumm von Bordwehrs Funktion als "tätiges Werkzeug" des kakanischen Militarismus bzw. als Vertreter der "auf den Krieg hinarbeitenden gesellschaftlichen Kräfte". Mit dieser subtilen literarischen Habitusformung gelingt Musil nicht nur eine erzählerisch überzeugende Motivierung des geplanten romanesken Handlungsverlaufs, sondern zudem eine bestechende Analyse entscheidender sozialer Entwicklungstendenzen des 20. Jahrhunderts.
FINANCIAL SERVICES PROVIDERS ARE EXPOSED TO DIFFERENT SOURCES OF INSTITUTIONAL PRESSURE ARISING FROM THE INTENSE COMPETITION AND REGULATION IN THE BANKING SECTOR. AGAINST THIS BACKGROUND, THIS ARTICLE ANALYZES THE DETERMINANTS OF GRID ASSIMILATION AND THE ROLE OF INSTITUTIONAL PRESSURE IN THE GRID ASSIMILATION PROCESS.
Hintergrund: Patienten mit einer Lese- und Rechtschreibstörung (LRS) sind von einer langfristigen Behinderung betroffen, die sich nachteilig auf die schulische und soziale Entwicklung auswirkt. Insbesondere stellt die Lesekompetenz einen Grundbaustein der individuellen Bildung dar, ohne die ein fächerübergreifendes Lernen nicht möglich ist. Es besteht die Vermutung, dass die Diagnostik und folglich auch die Therapie der isolierten Rechtschreibstörung in der klinischen Praxis überwiegen und Kinder mit einer (isolierten) Lesestörung übersehen werden. Diese Studie beschäftigt sich mit der Frage, ob Lesestörungen unerkannt bleiben. Ferner ist bekannt, dass Patienten mit einem Asperger-Syndrom bei guter Lesefertigkeit, häufig Defizite im Bereich des Leseverständnisses aufweisen. Es wird untersucht, ob ein Zusammenhang zwischen der Lesefertigkeit und der Ausprägung autistischer Symptomatik besteht. Patienten und Methode: In einem dreimonatigen Zeitraum (T 2: 09/07 – 11/07) werden alle ambulanten und stationären Neuaufnahmen (8 - 17 Jahre) hinsichtlich ihrer Lese- und Rechtschreibfähigkeit sowie autistischer Symptomatik untersucht. Nach Anwendung der Ausschlusskriterien nehmen N = 104 Patienten an den Gruppentestungen teil, die jeweils einen IQ-Test, je nach Altersgruppe zwei bis drei Lesetests und einen Rechtschreibtest beinhalten. Die Eltern der Kinder füllen einen Autismus-, psychopathologischen und Zusatzfragebogen aus. Die Ergebnisse der Leistungstests werden mit den Diagnosestellungen des gleichen Zeitraumes aus dem Jahr 2006 (T 1: 09/06 – 11/06) verglichen, wobei zu dieser Zeit keine forcierten Testungen stattfanden. Ergebnisse: Im Zeitraum T 2 wiesen 14 Patienten (13,5%) eine isolierte Lesestörung auf. Dies entspricht einer viermal häufigeren Diagnosestellung als im Jahr zuvor, bei der nur 3 Patienten (3,3 %) eine alleinige Lesestörung aufwiesen (p = .013). Bei 16 (15,4%) Probanden konnte eine isolierte Rechtschreibstörung diagnostiziert werden. 2006 wurden nur 6 (6,7 %) Kinder mit dieser Diagnose ermittelt (p = .056). Die Diagnose der LRS (F81.0) erhielten im Jahr 2007 20 Kinder (19,2%). Im Jahr zuvor fanden sich bloß 8 (8,9%) Kinder mit einer LRS (F81.0) (p = .041). Die Ergebnisse im Autismusscreening konnten keine Zusammenhänge zwischen der Lesefertigkeit und der Ausprägung autistischer Symptomatik bestätigen. Schlussfolgerung: Lesestörungen bleiben unerkannt. Für ihre Diagnostik ist es von essentieller Bedeutung, bei Vorliegen eines klinischen Verdachts stets Testungen zu Lese- und Rechtschreibstörungen durchzuführen. Einer Routinetestung aller Neuaufnahmen kann jedoch nicht angeraten werden. Es empfiehlt sich alle Patienten zu testen, die eine typische Begleitstörung der LRS aufweisen, z.B. hyperkinetische Störungen.
Ziel der vorliegenden experimentellen Untersuchung war die Erfassung und vergleichende Beurteilung der mechanischen Belastbarkeit sowie des Frakturverhaltens von karbonfaserverstärkten, keramischen und palladiumfreien Wurzelstiftsystemen. Des Weiteren galt es, die Ergebnisse im Vergleich zum Permador®-Stift, dessen Bewährung in einer vorangegangenen klinischen Untersuchung nachgewiesen wurde, und zu wurzelgefüllten Zähnen zu überprüfen. Gegenstand der Untersuchung waren der palladiumhaltige Permador®-Stift, die palladiumfreien Stiftaufbausysteme AF1, ER® Pt-IR, die keramischen Stifte Cerapost®, Celay® Alumina und Celay® Zirkonia sowie der Karbonfaserstift Composipost®. Als Kontrollgruppe dienten wurzelgefüllte, nicht stiftversorgte Wurzeln. Um die Streuung der Messwerte, die durch die individuell unterschiedliche Dimensionierung und Morphologie von extrahierten natürlichen Frontzähnen beeinflusst werden, zu minimieren, fanden künstliche Zähne aus dem lichthärtenden BisGMAKomposit Estilux hybrid VS posterior (Heraeus Kulzer, Wehrheim/Ts.), Verwendung. Dessen Elastizitätsmodul beträgt nach Aushärtung 19.000 MPa und entspricht somit dem Wert des natürlichen Dentins. Die Herstellung der Wurzeln, Aufbauten und Kronen fand mit sogenannten Modeln statt, wodurch die Herstellung identischer Prüfkörper gewährleistet wurde. Als Aufbaumaterial fand für die metallischen Stiftsysteme ein Phantom-Metall, für das Cerapost®- und Composipost®-System ein Komposit und für die kopiergefrästen Systeme Celay® Alumina und Celay® Zirkonia-Keramik Verwendung. Sämtliche Stiftverankerungen wurden, nach Konditionierung mit dem Rocatec®-Verfahren, mit Panavia® 21 in den Wurzeln zementiert. Im Anschluss erfolgte die Zementierung standardisierter Kronen aus Phantommetall auf allen Wurzeln. Die zyklische Wechselbelastung (1,2x106 Zyklen; 1,4 Hz und 30 N) wurde im Willytec-Kausimulator Version 3.1. (Fa. Willytec, München) vorgenommen. Die Simulation der Wurzelhaut für die Wechsel- und die Bruchbelastung wurde durch Einbettung der Wurzeln in einem Elastomer (Permadyne® Garant; Espe, Seefeld) vorgenommen. In einer Universal-Prüfmaschine (Zwicki 1120; Zwick, Ulm) (Vorschubgeschwindigkeit 0,5 mm/min) wurden die Versuchszähne palatinal, 2 Millimeter unterhalb der Inzisalkante, unter einem Winkel von 135° bis zum Bruch der Wurzel belastet. Hinsichtlich der Bruchlast ergaben die Medianwerte folgende Resultate: Metallstifte: Permador®: 475,4 N; AF1: 444,7 N; ER Pt-Ir: 422,4 N. Der KRUSKAL-WALLIS-Test mit BONFERRONI-Korrektur (p ≤ 0,05) zeigte keine signifikanten Unterschiede zwischen diesen drei Stiftsystemen einerseits und der Kontrollgruppe andererseits. Für die keramischen Stifte wurden 432,2 N [Celay® Alumina], 488,8 N [Celay® Zirkonia] bzw. 416,4 N [Cerapost®] und für den Karbonfaserstift [Composipost®] 515,7 N ermittelt. Bei der Kontrollgruppe trat eine Bruchlast von 363,4 N auf. Bezüglich der Bruchlastwerte lagen unter Berücksichtigung des BONFERRONI-Tests bei der statistischen Datenanalyse zwischen dem kopiergefrästen Keramikstiftaufbau Celay® Zirkonia aus zirkoniumoxidverstärkten Al2O3 einerseits bzw. dem Karbonfaserstift Composipost® und der Kontrollgruppe andererseits signifikante Unterschiede vor (p ≤ 0,05). Die ermittelten Distanzen zwischen Kraftangriffspunkt und den oberen Bruchspaltenden ergaben Medianwerte von 8,0 mm bis 11,1 mm auf der vestibulären Seite und 7,6 mm bis 14,7 mm auf der palatinalen Seite der Wurzeloberfläche. Bezüglich der Distanzen der Frakturverläufe lagen unter Berücksichtigung des BONFERRONI-Tests bei der statistischen Datenanalyse nur palatinal zwischen dem Cerapost®-Stift einerseits und dem Celay® Alumina-Stift und der Kontrollgruppe andererseits signifikante Unterschiede vor. Die vorliegende Studie zeigt, dass hinsichtlich der Bruchlastwerte nach dynamischer Belastung der Karbonfaserstift Composipost® und, bei hohen ästhetischen Ansprüchen, der kopiergefräste Keramikstift Celay® Zirkonia als interessante Alternative zum klinisch bewährten Permador®-Stift zu sehen sind. Des Weiteren zeigt die Untersuchung, dass sich die Verwendung palladiumfreier Stiftsysteme nicht nachteilig auf das Bruchverhalten nach dynamischer Belastung auswirkt.
Im Rahmen meiner Untersuchung habe ich mich mit den literaturtheoretischen Instrumenten von Dichtung und ihren geistesgeschichtlichen Quellen seit der klassischen Antike beschäftigt. Hier sind vor allem Aritoteles, Platon und deren Rezipienten Hermogenes von Tarsos sowie in der frühen Neuzeit Gerhard Vossius zu nennen. Zentraler Begriff ist hierbei eine Neuentwicklung des Begriffs der Fiktion auf der Grundlage philosophischer Ästhetik und ihrer praktischen Umsetzung in der bildenden Kunst und der Literatur der Aufklärung. ...
On August 13, 2010 Horst Schuller, university professor, former head of the German Studies Department of the University of Sibiu, Romanian-born German critic and literary historian reached the age of 70 years. The present article pays homage to the well-known scientist at reaching the venerable age.