Refine
Year of publication
- 2010 (2776) (remove)
Document Type
- Article (970)
- Doctoral Thesis (378)
- Book (338)
- Part of Periodical (337)
- Part of a Book (212)
- Contribution to a Periodical (144)
- Review (141)
- Working Paper (84)
- Report (71)
- Conference Proceeding (31)
Language
- German (1691)
- English (841)
- mis (105)
- Portuguese (49)
- French (32)
- Croatian (29)
- Multiple languages (12)
- Italian (7)
- dut (3)
- Spanish (3)
Is part of the Bibliography
- no (2776) (remove)
Keywords
- Mosambik (114)
- Mozambique (114)
- Moçambique (113)
- Filmmusik (96)
- Deutsch (75)
- Christentum (65)
- Bibel (63)
- bible (63)
- christianity (63)
- Literatur (40)
Institute
- Extern (296)
- Medizin (292)
- Präsidium (235)
- Gesellschaftswissenschaften (99)
- Biowissenschaften (98)
- Biochemie und Chemie (97)
- Physik (87)
- Geschichtswissenschaften (68)
- Geowissenschaften (59)
- Wirtschaftswissenschaften (54)
E-Learning in der Hochschulpraxis: wie Lehren und Lernen nicht auf der (virtuellen) Strecke bleiben
(2010)
Die Anforderungen an eine zukunftsorientierte Hochschulentwicklung sind eng mit dem Einsatz neuer Medien verknüpft, welche sich sowohl institutionell, personell und hochschulpolitisch niederschlagen werden. Neben der technischen Integration neuer Lehrformen spielen insbesondere die organisatorischen und didaktischen Implikationen eine zentrale Rolle. Als ein wichtiger Aspekt zur Qualitätssicherung der Hochschullehre bei steigender Studierendenzahl spielen die neuen Medien dahingehend eine Rolle, dass durch den Einsatz innovativer Lehrtechnologien eine verbesserte Betreuung und Beratung der Studierenden angestrebt wird (vgl. Albrecht 2003, S. 83). Häufig wird die Annahme vertreten, dass E-Learning hier eine kostensparende Variante darstellt, die gleichzeitig durch den „Neuigkeitseffekt“ die Lernmotivation der Teilnehmenden steigere (vgl. Meister 2001, S. 167). Die generellen Befürworter des E-Learnings zeigen neue didaktische Handlungsmöglichkeiten auf, z. B. Lernen durch Exploration (insbesondere durch Navigieren, Browsing, Searching, Connecting und Collecting, vgl. Peters 2000), während die empirische Bestätigung erhöhter Lerneffekte im E-Learning noch aussteht. Der folgende Beitrag fordert die Lehrenden dazu auf, die didaktischen Aspekte des E-Learnings stärker in den Blick zu nehmen, damit sich ein lernförderlicher Einsatz computer- und internetbasierter Lehr- / Lernszenarien endlich in der (Hochschul-)Praxis etablieren kann. Denn die gängigste Variante von E-Learning an deutschen Hochschulen – soweit wagen wir uns vor – besteht häufig in der bloßen Informationsdistribution aktueller Seminarinhalte. Didaktische und methodische Überlegungen bleiben dabei ganz offensichtlich auf der Strecke...
Die fragmentierte Verrechtlichung des internationalen Raums, die Proliferation von Regelungsarrangements jenseits des Staates und die Diffusion globaler Normen sowie die daraus resultierenden Geltungs-, Kompetenz- und Autoritätskonflikte sind seit geraumer Zeit ein in der sozialwissenschaftlichen Literatur viel diskutiertes Phänomen. Überlappungen von nationalen Regierungssystemen und von im Völkerrecht verankerten klassischen internationalen Regimen existieren seit der Schaffung des Westfälischen Staatensystems.In jüngerer Zeit verstärkte sich der Pluralismus normativer Ordnungen jedoch global durch neuartige Typen von Regelungsarrangements jenseits des Staates. Auch unter den zwischenstaatlich geschaffenen internationalen Institutionen finden sich solche, die autonome Handlungs- und Entscheidungskompetenzen zugesprochen bekommen haben und diese als Akteure mit eigener Subjektivität ausüben. Hinzu kommt eine immer stärkere Aufnahme von „behind the border issues“ in den Aufgabenkatalog dieser Regime und Organisationen (Zürn 2004). Diese Entwicklungen führen zu einem neuen Grad an Kontestation und Umstrittenheit globaler normativer Ordnungen. Weder die Herstellung einer einheitlichen globalen normativen Ordnung noch eine Re-Nationalisierung des Rechts erscheinen heute als realistische Zukunftsprognosen. Umso wichtiger ist es daher, sich mit den Auswirkungen dieses Pluralismus’ normativer Ordnungen zu beschäftigen.
Within this thesis, an experimental study of the photo double ionization (PDI) and the simultaneous ionization-excitation is performed for lithium in different initial states Li (1s22l) (l = s, p). The excess energy of the linearly polarized VUV-light is between 4 and 12 eV above the PDI-threshold. Three forefront technologies are combined: a magneto-optical trap (MOT) for lithium generating an ultra-cold and, by means of optical pumping, a state-prepared target; a reaction microscope (ReMi), enabling the momentum resolved detection of all reaction fragments with high-resolution and the free-electron laser in Hamburg (FLASH), providing an unprecedented brilliant photon beam at favourable time structure to access small cross sections. Close to threshold the total as well as differential PDI cross sections are observed to critically depend on the excitation level and the symmetry of the initial state. For the excited state Li (1s22p) the PDI dynamics strongly depends on the alignment of the 2p-orbital with respect to the VUV-light polarization and, thus, from the population of the magnetic substates (mp = 0, ±1). This alignment sensitivity decreases for increasing excess energy and is completely absent for ionization-excitation. Time-dependent close-coupling calculations are able to reproduce the experimental total cross sections with deviations of at most 30%. All the experimental observations can be consistently understood in terms of the long range electron correlation among the continuum electrons which gives rise to their preferential back-to-back emission. This alignment effect, which is observed here for the first time, allows controlling the PDI dynamics through a purely geometrical modification of the target initial state without changing its internal energy.
Philosophy is essentially dialectical. One gets into a dialectic by a puzzle, an aporia in thought and understanding. The point of philosophizing is not (necessarily) to get hold of the ultimate, objective, and immutably correct answers. The point is rather to come to be able to see one’s way out of the aporia, and to understand how one got into it in the first place.
The essay that follows – which I am submitting as my dissertation – is dialectical in two senses. As a piece of philosophizing, the essay is guided by a problem, the problem of understanding how laws of nature are possible, and how it is possible for us to know them. The movement of thought generated by attempts to get out of the problem then yields some ideas that do not stay in the original context in which the problem was felt to exist. Two important ones are, first, perceptual experience is not the only ultimate source of warrant we have for empirical knowledge claims, and second, perceptual experience is not the only epistemically significant experience we can have. Both are consequences of the idea that the mastery of skills is a form of interaction with nature that provides epistemic warrant for nomological claims. I shall leave it to the epilogue to examine how this view of skills contrasts with the ways skills are ordinarily thought of in philosophy and the implication of it for empiricism.
The other sense in which the essay is dialectical is more interesting, and it has to do with the way in which I approach the problem that got me into started, namely, by paying special attention to the dialectic exchange between the realists and the antirealists about the laws of nature. Antirealism about the lawfulness of nature has experienced something like a post-Humean revival since the publication of van Fraassen’s The Scientific Image. Most, including me, have strong realist intuitions about nomological “connections” in nature. Philosophical positions that are strongly counterintuitive have mostly not ended well in history. So it becomes something of a puzzle why antirealism about laws of nature manages to enjoy popularity every now and then.
Clinical application of transcranial Doppler for detection of cerebral emboli during cardiac surgery
(2010)
Objective: Neurologic injury is one of the most damaging complications for cardiac surgery. How to decrease neurologic impairment by improving perioperative monitoring remains a challenge for both cardiac surgeons and anesthetists. For this reason, transcranial doppler (TCD) has been widely used in cerebral monitoring during cardiac surgery. In this study, two experiments of clinical application of TCD for detection of cerebral emboli during cardiac surgery were to be done. One was “Solid and gaseous cerebral emboli during valvular surgery are significantly reduced with axillary artery cannulation”. The other was “Do intraoperative cerebral embolic signals differ between valvular surgery (VS) and CABG”. Methods: In experiment one, 20 valve and combined procedures with aortic cannulation (AoC group) were compared to 18 procedures with axillary cannulation (AxC group) in a prospective non-randomized study. In experiment two, 18 VS patients and 18 CABG patients were matched by extracorporeal circulation (ECC) time retrospectively. Intraoperative monitoring of both middle cerebral arteries was performed with TCD discriminating between solid and gaseous embolic signals (ES). Results: In experiment one, the AxC group had less solid ES than the AoC group (38±22 vs 55±25, P<0.05), but no significant difference was found in gaseous (501±271 vs 538±333, P>0.05) and total (539 ± 279 vs 593 ± 350, P>0.05) ES. The AxC group had less solid ES during arterial cannulation (2.1±1.5 vs 6.6±3.6, P<0.05) and during aortic cross-clamp time (4.4 ±3.1 vs 10.2 ± 5.1, P<0.05) than the AoC group. During ECC, gaseous ES was not significantly different between groups (398±210 vs 448±291, P>0.05). However, AxC showed less gaseous ES (85±68 vs 187±148, P<0.05) and less gaseous ES per minute (1.8±1.5 vs 4.5±3.2, P<0.05) during weaning off extracorporeal circulation than the AoC group. No significant difference in gaseous ES (313±163 vs 261±189, P>0.05) and gaseous ES per minute (3.1±2.2 vs 2.8±2.2, P>0.05) was found between groups from bypass start to aortic declamping. No neurologic complications occurred. In experiment two, no significant difference was found in solid (38±20 vs 40±26, P>0.05) or gaseous (457±263 vs 412±157, P>0.05) ES between the VS and CABG group during the whole recording time. During ECC, solid ES (20±10 vs 24±19, P>0.05) and gaseous ES (368±230 vs 317±157, P>0.05) were comparable between groups. Specifically, during weaning off ECC, the VS group had more gaseous ES/min (5.6±3.6 vs 3.1±1.2, P<0.05) than the CABG group. But this difference in gaseous ES/min was not significant during the period from bypass start to aortic declamping (2.5±1.8 vs 3.0±1.8, P>0.05). Conclusion: Cerebral embolization does occur during cardiac surgery. Through these two experiments, we demonstrated the feasibility and importance of clinical application of transcranial doppler for detection of cerebral emboli during cardiac surgery. Due to the diversity in clinical application of TCD, it is impossible to compare the number of ES between different research centers. More unified standards should be drawn in order to make wider clinical application possible. Up till now, no robust evidence shows the correlation between intraoperative ES and postoperative neurological impairment. The research on intraoperative ES and postoperative neurological impairment should rely on a complete concept.
EUROTRANS is a European research program for the transmutation of high level nuclear waste in an accelerator-driven system (ADS). As proposed, the driver linac needs to deliver a 2.5–4 mA, 600 MeV continuous-wave (CW) proton beam and later a 20 mA, 800 MeV one to the spallation target in the prototype-scale and industrial-scale demonstration phases, respectively. This paper is focusing on the conceptual studies performed with respect to the 17 MeV injector. First, the special beam dynamics strategies and methods, which have been developed and applied to design a current-variable injector up to 30 mA for allowing an easy upgrade without additional R&D costs, will be introduced. Then the error study made for evaluating the tolerance limits of the designed injector will be presented as well.
'Übergang' ist eine Metapher für die Beschreibung ideengeschichtlicher Prozesse. Sicher ist ihr Bedeutungsfeld weiter. Kurt Röttgers (2007) nennt neben der anthropologischen Konstante: dem Übergang als Erfahrung von Tod und Geburt, den Übergang als Metamorphose, den Übergang als Transzendieren sowie dessen Negation: nämlich das Transzendieren als ein unstatthaftes, gar mit Tabu belegtes Übergehen von einer Sphäre in die andere. Hinüberzugehen kann, so Röttgers weiter, auch bedeuten, über eine Schwelle zu gehen, fortzuschreiten zu Neuem und in diesem Akt des Fortschreitens das Werden und die Geschichte, ja die Geschichtlichkeit selbst, auch in ihrer radikalen Verneinung alles Vorangegangenen, zu bejahen. Gerade im Zusammenhang mit letzteren Bedeutungszuschreibungen hat die Metapher des Übergangs im geschichtsphilosophischen beziehungsweise bewusstseinsphilosophischen Konzept des Deutschen Idealismus ihre Nobilitierung erfahren. Bewusstseinsphilosophisch ist dieses Konzept insofern, als es von den seit Descartes zentralen Prämissen der Orientierung an sich selbst sowie der Bildung von Allgemeinbegriffen ausschließlich auf der Grundlage von Erfahrung und damit auf der Grundlage von etwas zunächst in der Vorstellung Gegebenem ausgeht (vgl. Zeuch 2001). Die Frage, der ich im Folgenden nachgehe, ist, ob diesem Konzept, das seinen Kairos um 1800 hat, ein besonderes Potential zukommt, das der Ideengeschichte gegen ihre Kritiker auch in der Gegenwart eine 'raison d'etre' verleiht, wenn es um den Rekonstruktionsversuch komplexer gesellschaftlicher, politischer, philosophischer Zusammenhänge und Kontinuitäten über mehrere Epochen oder Zeitabschnitte hinweg geht.
The morpho-syntax of relative clauses in Sotho-Tswana is relatively well-described in the literature. Prosodic characteristics, such as tone, have received far less attention in the existing descriptions. After reviewing the basic morpho-syntactic and semantic features of relative clauses in Tswana, the current paper sets out to present and discuss prosodic aspects. These comprise tone specifications of relative clause markers such as the demonstrative pronoun that acts as the relative pronoun, relative agreement concords and the relative suffix. Further prosodic aspects dealt with in the current article are tone alternations at the juncture of relative pronoun and head noun, and finally the tone patterns of the finite verbs in the relative clause. The article aims at providing the descriptive basis from which to arrive at generalizations concerning the prosodic phrasing of relative clauses in Tswana.
Naturally, the floodplains of Central Asian rivers harbour riparian, so-called ‘Tugai’ forests, reeds with Phragmites australis, and shrub communities which form a mosaic depending on the variety of available ground water. In recent decades, these natural ecosystems have been strongly altered anthropogenically or even completely destroyed. In order to restore those ecosystems, knowledge on vegetation, ecosystem dynamics, and natural regeneration processes is essential. In our study, we present results of ecological investigations at the Tarim River. We gathered comprehensive data on soil, vegetation, forest stand age, tree vitality, river course dynamics, and land use and brought it to the landscape level. Thus, recommendations are derived for the maintenance of these floodplain ecosystems, in particular with regard to their biological diversity.
Hlavním námětem tohoto příspěvku je srovnání ĉeské a německé slovní zásoby urĉitého významového okruhu, a to slovní zásoby oznaĉující emoce, konkrétně emoci hněvu. Slovní zásoba tohoto sémantického okruhu je poměrně rozsáhlá, proto byla v tomto příspěvku pozornost zaměřena pouze na jeden motivaĉní typ, s nímţ se lze v této oblasti slovní zásoby setkat. Jedná se především o slova a frazémy, u nichţ je patrná motivace tělesnou stránkou ĉlověka. Mnoţství shromáţděného materiálu dokládá, ţe tělesná stránka ĉlověka (zvláště fyziologické reakce a příznaky nemocí) představuje dŧleţité motivaĉní východisko, z něhoţ vycházejí lexémy vztahující se k emoci hněvu jak v ĉeštině, tak v němĉině. Při zpracování materiálu oznaĉujícího emoce vyvstává někdy problém s přiřazením některých lexikálních jednotek k urĉité motivaĉní skupině. Toto přiřazení mŧţe být někdy subjektivní, a velmi tedy záleţí na jazykovém citu toho, kdo materiál zpracovává. Další problém spoĉívá i v samotném vymezení urĉitého typu emoce, které nemusí být vţdy zcela jednoznaĉné. Proto byly do příspěvku zařazeny I lexémy, které mají k sémantickému poli hněvu velmi blízko.
Background: Due to constantly rising air pollution levels as well as an increasing awareness of the hazardousness of air pollutants, new laws and rules have recently been passed. Although there has been a large amount of research on this topic, bibliometric data is still to be collected. Thus this study provides a scientometric approach to the material published on this subject so far.
Methods: For this purpose, data retrieved from the "Web of Science" provided by the Thomson Scientific Institute was analyzed and visualized both with density-equalizing methods and classic data-processing methods such as tables and charts.
Results: For the time span between 1955 and 2006, 26,253 items were listed and related to the topic of air pollution, published by 124 countries in 24 different languages. General citation activity has been constantly increasing since the beginning of the examined period. However, beginning with the year 1991, citation levels have been rising exponentially each year, reaching 39,220 citations in the year 2006. The United States, the UK and Germany were the three most productive countries in the area, with English and German ranked first and second in publishing languages, followed by French. An article published by Dockery, Pope, Xu et al. was both the most cited in total numbers and in average citation rate. J. Schwartz was able to claim the highest total number of citations on his publications, while D.W. Dockery has the highest citation rate per publication. As to the subject areas the items are assigned with, the most item were published in Environmental Sciences, followed by Meteorology & Atmospheric Sciences and Public, Environmental & Occupational Health. Nine out of the ten publishing journals with more than 300 entries dealt with environmental interests and one dealt with epidemiology.
Conclusions: Using the method of density-equalizing mapping and further common data processing procedures, it can be concluded that scientific work concerning air pollution and related topics enjoys unbrokenly growing scientific interest. This can be observed both in publication numbers and in citation activity.
This book is a compilation of oral histories about the movement of Luo and some Bantu-speaking peoples. It includes histories of many clans or ethnic groups, and how drought, warfare, disease, and competition over pastoral resources in western Kenya forced them to look for a land that they could call their own. Highly entertaining, the stories cross over from pre-colonial to post-colonial eras, with tales of fooling the colonial officers, winning battles and producing miracles. Although warriors and chiefs play a critical part in the stories so too do unlikely actors such as women, prophets, and common farmers. As one of the elders put it, 'Without history you are like wild animals' you need to know where you came from and who you are.' People with kinship connections to the ethnic groups represented here will delight in the references to places, people, kin groups and events. Residents of western Kenya will be able to trace some of their genealogies to North Mara and vice versa. Historians and anthropologists will find in this book a rich primary source for their own research. Those interested in cultural change will find this a fascinating case of Luo assimilation: events chronicled in this book are still underway and observable in communities today. Producing the text in both Swahili and English ensures that local people will have access to these histories for their own learning and on-going discussions about the past.
Im Zentrum dieses Beitrags stehen Kasper(l)stücke aus der Zeit des Ersten Weltkriegs von sechs deutschsprachigen Autoren, die insbesondere unter Bezugnahme auf die Ausführungen von Norbert Elias zur deutschen Staatsentwicklung und zum nationalen deutschen Habitus analysiert werden sollen. [...] Um eine gute Basis für eine nähere Betrachtung und Analyse der Kasper(l)stücke zu schaffen, wird erst gerafft auf das Konzept des "nationalen Habitus" am Beispiel der Deutschen und Charakteristika des deutschen Staatsbildungsprozesses bei Norbert Elias eingegangen und daraufhin Hintergründe der Entstehung der ausgewählten Puppenspiele präsentiert.
In der Doktorarbeit wurde ein Verfahren zur Ermittlung der Schwerpunkthöhe eines Fahrzeugs aus den Messwerten von Sensoren, die serienmäßig in vielen geländegängigen Fahrzeugen verbaut sind, entwickelt. Dieses Verfahren benötigt nur die Signale von Sensoren des elektronischen Stabilitätssystems (ESP) und eines Fahrwerks mit Luftfeder. Um die Höhe des Schwerpunkts zu bestimmen, wurde ein Modell entworfen, das die Drehbewegung des Fahrzeugs um seine Längsachse beschreibt. Eine der unbekannten Größen in diesem Modell ist das Produkt m_g\Deltah, wobei mit m_g die gefederte Masse des Fahrzeugs und mit Deltah der Abstand zwischen dem Schwerpunkt und der Wankachse des Fahrzeugs bezeichnet wird. Die Höhe des Schwerpunkts wird berechnet, indem zu diesem Abstand der als bekannt vorausgesetzte Abstand der Wankachse von der Straße addiert wird. Es wurden drei Varianten des Modells betrachtet. Die eine Modellvariante (stationäres Modell) beschreibt das Fahrzeugverhalten nur in solchen Fahrsituationen exakt, in denen die Wankgeschwindigkeit und die Wankbeschleunigung vernachlässigbar klein sind. In dieser Modellvariante wurden die Federkräfte mit einem detaillierten Modell der Luftfeder berechnet. Eine Eingangsgröße dieses Modells ist der Druck in den Gummibälgen der Luftfeder. Um diesen Druck zu ermitteln, wurde ein Algorithmus auf dem Steuergerät des Luftfedersystems implementiert. Um die Genauigkeit des Luftfedermodells zu testen und um die Abmessungen bestimmter Bauteile der Luftfeder zu ermitteln, wurden Messungen am Federungsprüfstand durchgeführt und eine Methode entwickelt, wie aus diesen Messungen die gesuchten Größen berechnet werden können. Bei den zwei übrigen Modellvarianten (dynamisches Modell) gelten die Einschränkung für die Fahrsituationen nicht. Die einzelnen Varianten des dynamischen Modells unterscheiden sich darin, dass das eine Mal die Feder- und Dämpferkonstanten als bekannt vorausgesetzt und das andere Mal aus den Sensorsignalen geschätzt werden. Passend zu jeder Modellvariante wurde ein Verfahren gewählt, mit dem Schätzwerte für das Produkt m_g\Deltah berechnet wurden. Des Weiteren wurde auch eine Methode entwickelt, mit der die Masse mg geschätzt wurde, ohne zuvor ein Wert für das Produkt m_g\Deltah zu ermitteln. Die Schätzwerte wurden unter Verwendung von Daten ermittelt, die bei einer Simulation und bei Messfahrten gewonnen worden sind. Das Ergebnis des Vergleiches der betrachteten Modellvarianten ist, dass die eine Variante des dynamischen Modells zum Teil falsche Werte für m_g\Deltah liefert, weil die Modellgleichungen ein nicht beobachtbares System bilden. Die andere Variante dieses Modells liefert nicht bei jeder Beladung exakte Werte, was vor allem daran liegt, dass in den Modellgleichungen dieses Modells ein konstanter Wert für die Federsteifigkeit angenommen wird. Bei Fahrzeugen mit Luftfeder ändert sich jedoch dieser Wert in Abhängigkeit von der Fahrzeugmasse. Die Werte von m_g\Deltah und mg können am genauesten mit dem stationären Modell ermittelt werden. Des Weiteren wurden Methoden entwickelt, die die Genauigkeit der durch den Schätzalgorithmus ermittelten Werte verbessern. So wurde zusätzlich zu dem Produkt m_g\Deltah und der Masse mg auch die Verteilung des Gewichtes auf die Vorder- und Hinterachse betrachtet. Es wurde ermittelt, welche Zusammenhänge zwischen dieser Verteilung und dem Produkt m_g\Deltah sowie zwischen dieser Verteilung und der Masse des Fahrzeugs bestehen. So konnte der Fehler in den Schätzwerten dieser Größen minimiert werden. Außerdem wurde auch der Zusammenhang zwischen dem Produkt m_g\Deltah und der Masse des Fahrzeugs ermittelt. Damit konnten die Schätzwerte dieser Größen genauer bestimmt werden. Aus den so gewonnenen Werten kann die Schwerpunkthöhe von einem Mercedes ML auf etwa 8cm genau berechnet werden. Diese Genauigkeit reicht aus, um das elektronische Stabilitätsprogramm auf die aktuelle Beladung des Fahrzeugs abzustimmen und damit einen Gewinn an Agilität für dieses Fahrzeug zu realisieren.
Ĉlánek je zasazen do kontextu vyuĉování němĉiny jako cizího jazyka. Zabývá se vztahem mezi deskriptivním, resp. narativním textem a textovou prací zaloţenou na naraci ţáka na straně jedné a emocemi ţáka na straně druhé. Výsledky dosavadních výzkumŧ tohoto vztahu, jeţ vycházejí z posledních konceptŧ narace jako základní existenciální struktury bytí, naznaĉují, ţe narativní text a receptivní i produktivní narativní pracovní postupy ve vyuĉování a uĉení se jazyku indukují specifický potenciál pozitivních emocí a postojŧ ţáka.
Condensing phenomena for systems biology, ecology and sociology present in real life different complex behaviors. Based on local interaction between agents, we present another result of the Energy-based model presented by [20]. We involve an additional condition providing the total condensing (also called consensus) of a discrete positive measure. Key words: Condensing; consensus; random move; self-organizing groups; collective intelligence; stochastic modeling. AMS Subject Classifications: 81T80; 93A30; 37M05; 68U20
This paper presents an analysis of the recent tropospheric molecular hydrogen (H2) budget with a particular focus on soil uptake and surface emissions. A variational inversion scheme is combined with observations from the RAMCES and EUROHYDROS atmospheric networks, which include continuous measurements performed between mid-2006 and mid-2009. Net H2 surface flux, soil uptake distinct from surface emissions and finally, soil uptake, biomass burning, anthropogenic emissions and N2 fixation-related emissions separately were inverted in several scenarios. The various inversions generate an estimate for each term of the H2 budget. The net H2 flux per region (High Northern Hemisphere, Tropics and High Southern Hemisphere) varies between −8 and 8 Tg yr−1. The best inversion in terms of fit to the observations combines updated prior surface emissions and a soil deposition velocity map that is based on soil uptake measurements. Our estimate of global H2 soil uptake is −59 ± 4.0 Tg yr−1. Forty per cent of this uptake is located in the High Northern Hemisphere and 55% is located in the Tropics. In terms of surface emissions, seasonality is mainly driven by biomass burning emissions. The inferred European anthropogenic emissions are consistent with independent H2 emissions estimated using a H2/CO mass ratio of 0.034 and CO emissions considering their respective uncertainties. To constrain a more robust partition of H2 sources and sinks would need additional constraints, such as isotopic measurements.
Over the past few decades, changes in market conditions such as globalisation and deregulation of financial markets as well as product innovation and technical advancements have induced financial institutions to expand their business activities beyond their traditional boundaries and to engage in cross-sectoral operations. As combining different sectoral businesses offers opportunities for operational synergies and diversification benefits, financial groups comprising banks, insurance undertakings and/or investment firms, usually referred to as financial conglomerates, have rapidly emerged, providing a wide range of services and products in distinct financial sectors and oftentimes in different geographic locations. In the European Union (EU), financial conglomerates have become part of the biggest and most active financial market participants in recent years. Financial conglomerates generally pose new problems for financial authorities as they can raise new risks and exacerbate existing ones. In particular, their cross-sectoral business activities can involve prudentially substantial risks such as the risk of regulatory arbitrage and contagion risk arising from intra-group transactions. Moreover, the generally large size of financial conglomerates as well as the high complexity and interconnectedness of their corporate structures and risk exposures can entail substantial systemic risk and can therefore threaten the stability of the financial system as a whole. Until a few years ago, there was no supervisory framework in place which addressed a financial conglomerate in its entirety as a group. Instead, each group entity within a financial conglomerate was subject to the supervisory rules of its pertinent sector only. Such silo supervisory approach had the drawback of not taking account of risks which arise or aggravate at the group level. It also failed to consider how the risks from different business lines within the group interrelate with each other and affect the group as a whole. In order to address this lack of group-wide prudential supervision of financial conglomerates, the European legislator adopted the Financial Conglomerates Directive 2002/87/EC8 (‘FCD’) on 16 December 2002. The FCD was transposed into national law in the member states of the EU (‘Member States’) by 11 August 2004 for application to financial years beginning on 1 January 2005 and after. The FCD primarily aims at supplementing the existing sectoral directives to address the additional risks of concentration, contagion and complexity presented by financial conglomerates. It therefore provides for a supervisory framework which is applicable in addition to the sectoral supervision. Most importantly, the FCD has introduced additional capital requirements at the conglomerate level so as to prevent the multiple use of the same capital by different group entities. This paper seeks to examine to what extent the FCD provides for an adequate capital regulation of financial conglomerates in the EU while taking into account the underlying sectoral capital requirements and the inherent risks associated with financial conglomerates. In Part 1, the definition and the basic corporate models of financial conglomerates will be presented (I), followed by an illustration of the core motives behind the phenomenon of financial conglomeration (II) and an overview of the development of the supervision over financial conglomerates in the EU (III). Part 2 begins with a brief elaboration on the role of regulatory capital (I) and gives a general overview of the EU capital requirements applicable to banks and insurance undertakings respectively. A delineation of the commonalities and differences of the banking and the insurance capital requirements will be provided (II). It continues to further examine the need for a group-wide capital regulation of financial conglomerates and analyses the adequacy of the FCD capital requirements. In this context, the technical advice rendered by the Joint Committee on Financial Conglomerates (JCFC) as well as the currently ongoing legislative reforms at the EU level will be discussed (III). The paper finally closes with a conclusion and an outlook on remaining open issues (IV).
Das visuelle Arbeitsgedächtnis (AG) kann visuelle Information enkodieren, über eine kurze Zeitperiode aktiv halten und mit neu wahrgenommener Information vergleichen. Dadurch ermöglicht es eine Reihe höherer kognitiver Funktionen ( z.B. Kopfrechnen). Störungen des visuellen AGs sind ein relevantes Symptom neurologischer und psychiatrischer Erkrankungen. Die funktionellen und neuronalen Prozesse, die dem visuellen AG unterliegen, stellen eine fundamentale Frage der kognitiven Neurowissenschaft dar. Bisherige Forschung hat bereits einen großen Beitrag zum Verständnis der Vorgänge während der Enkodierungs- und Halte-Phase des AGs geleistet. Die neuronalen Korrelate der Wiedererkennung (WE) hingegen sind relativ unbekannt. Ziel der vorliegenden Studie war es, die neuronalen Mechanismen der WE anhand zweier Modulationen (Gedächtnisbelastung und Ähnlichkeit zwischen Merk- und Test-Stimulus) zu erforschen. Den neuronalen Grundlagen von Ähnlichkeit zwischen wurde bislang nahezu keine Beachtung geschenkt, ihre Untersuchung stellte deshalb eine wesentliche Motivation der Arbeit dar. Da erhöhte Gedächtnislast bei einer endlichen Anzahl an Stimuli zu einer erhöhten Anzahl an möglichen ähnlichen Test-Stimuli und auf diese Weise zu einer erhöhten Ähnlichkeit zwischen Merk- und Test-Stimulus führen kann, sind die Effekte beider Modulationen konfundiert. Es sollte deshalb zusätzlich der Nachweis für einen ähnlichkeitsunabhängigen Lasteffekt erbracht werden. Im Rahmen der vorliegenden Dissertation stand der zeitliche Ablauf der zu erwartenden kortikalen Aktivationen im Mittelpunkt des Interesses. Aus diesem Grund kam die Magnetenzephalographie (MEG) mit ihrem hervorragenden zeitlichen und guten räumlichen Auflösungsvermögen zum Einsatz. Die neuronale Aktivität von 17 Probanden wurde mittels MEG erfasst. Zusätzlich wurden Verhaltensdaten (VD) in Form von Reaktionszeit (RZ) und Korrektheit (KH) der Antworten aufgezeichnet. Als Stimuli dienten 15 verschiedene Farben, die einmal den gesamten Farbkreis abbildeten. 1 oder 3 verschiedenfarbige Quadrate dienten als Merk-Stimuli und ein farbiges Quadrat, das einem der vorher gezeigten glich (G), ihm ähnlich (Ä) oder unähnlich (U) war, folgte als Test-Stimulus. Die Probanden antworteten per Fingerheben aus einer Lichtschranke, ob der Test-Stimulus dem Merk-Stimulus glich (G) oder nicht glich (Ä, U). Insgesamt führten die 2 Belastungsmodulationen und die 3 Ähnlichkeitsmodulationen zu einem 2 x 3 Design, das eine Untersuchung der Haupteffekte und Interaktionen von Ähnlichkeit und Last ermöglichte. Die Ergebnisse der VD decken sich mit früheren Erkenntnissen, die mit ansteigender Gedächtnislast und Ähnlichkeit von einer signifikanten Verminderung der KH der Antworten sowie einer signifikanten Zunahme der RZ berichteten. Zusätzlich konnte eine signifikante Interaktion beider Modulationen beobachtet werden. Mit zunehmender Gedächtnislast verlängerte sich die RZ, bzw. verminderte sich die KH der Antworten für gleiche Testreize stärker als für ungleiche (Ä, U). Es konnten wesentliche neue Erkenntnisse über die neuronalen Korrelate der WE im visuellen AG gewonnen werden. Für die Ähnlichkeits-Modulation konnten drei zeitlich, räumlich und funktionell distinkte Ereigniskorrelierte-Felder (EKF)-Komponenten detektiert werden: eine frühe Komponente, die stärker auf U im Vergleich zu Ä und G Stimuli ansprach, eine mittlere, die mit der Schwierigkeit der Aufgabe assoziiert war sowie eine späte Komponente, die als Korrelat einer kategorialen Entscheidung interpretiert wurde. Diese Ergebnisse replizieren Befunde von Studien über die Entscheidungsfindung und die summierte Ähnlichkeit im Langzeitgedächtnis (LZG) und liefern gleichzeitig neue Hinweise für eine funktionelle Dissoziation verschiedener Komponenten der WE im visuellen AG. Die WE scheint aus der Berechnung der summierten Ähnlichkeit, der Entscheidungsfindung sowie der Evidenzevaluation unter schwierigeren Bedingungen zu bestehen. Es gelang außerdem der Nachweis eines ähnlichkeitsunabhängigen Effektes der Lastmodulation. Es konnte eine bilateral parieto-okzipitale sowie eine linksseitig fronto-temporale Aktivierung erfasst werden, die wahrscheinlich allgemeinen Schwierigkeitseffekten entsprechen. Unter ansteigender Gedächtnisbelastung kam es zu einer Zunahme der Amplitude beider Aktivitäten. Diese Ergebnisse bestätigen Befunde über die Amplitudenentwicklung während der Halte-Phase, die als Heranziehung zusätzlicher Ressourcen unter schwierigeren Bedingungen gedeutet wurden. Die EKF-Daten konnten jedoch keine Bestätigung des in den VD nachgewiesenen Interaktionseffektes bringen. Vielversprechende Ansätze für zukünftige Studien bieten eine präzisere Bestimmung der räumlichen Verteilung sowie eine weitere Evaluation der kognitiven Funktion der neuronalen Aktivität der Ähnlichkeit, da die Ähnlichkeit zwischen Merk- und Test-Stimulus eine entscheidende Rolle bei der Beschränkung der WE-Leistung einzunehmen scheint.