Universitätspublikationen
Refine
Year of publication
Document Type
- Article (13503)
- Part of Periodical (3462)
- Doctoral Thesis (3298)
- Contribution to a Periodical (2163)
- Book (2062)
- Working Paper (1886)
- Preprint (1551)
- Review (1063)
- Report (909)
- Conference Proceeding (692)
Language
- English (17058)
- German (13855)
- Portuguese (231)
- Spanish (123)
- Italian (66)
- French (64)
- Multiple languages (59)
- Turkish (12)
- Ukrainian (10)
- slo (7)
Keywords
- Deutschland (132)
- COVID-19 (95)
- inflammation (93)
- Financial Institutions (90)
- ECB (67)
- Capital Markets Union (65)
- SARS-CoV-2 (63)
- Financial Markets (61)
- Adorno (58)
- Banking Union (50)
Institute
- Medizin (6586)
- Präsidium (5087)
- Physik (3382)
- Wirtschaftswissenschaften (2284)
- Gesellschaftswissenschaften (2016)
- Biowissenschaften (1750)
- Frankfurt Institute for Advanced Studies (FIAS) (1575)
- Biochemie und Chemie (1394)
- Sustainable Architecture for Finance in Europe (SAFE) (1391)
- Informatik (1380)
Production of J/ψ mesons in heavy ion collisions is considered within the statistical coalescence model. The model is in agreement with the experimental data of the NA50 Collaboration for Pb+Pb collisions at 158 AGeV in a wide centrality range, including the so-called “anomalous” suppression domain. The model description of the J/ψ data requires, however, strong enhancement of the open charm production in central Pb+Pb collisions. This model prediction may be checked in the future SPS runs.
Sphingosine kinases (SK) catalyze the phosphorylation of proapoptotic sphingosine to the prosurvival factor sphingosine 1-phosphate (S1P), thereby promoting oncogenic processes. Breast (MDA-MB-231), lung (NCI-H358), and colon (HCT 116) carcinoma cells were transduced with shRNA to downregulate SK-1 expression or treated with a pharmacologic SK-1 inhibitor. The effects of SK-1 targeting were investigated by measuring the level of intracellular sphingosine, the activity of protein kinase C (PKC) and cell cycle regulators, and the mitotic index. Functional assays included measurement of cell proliferation, colony formation, apoptosis, and cell cycle analysis. Downregulation of SK-1 or its pharmacologic inhibition increased intracellular sphingosine and decreased PKC activity as shown by reduced phosphorylation of PKC substrates. In MDA-MB-231 cells this effect was most pronounced and reduced cell proliferation and colony formation, which could be mimicked using exogenous sphingosine or the PKC inhibitor RO 31-8220. SK-1 downregulation in MDA-MB-231 cells increased the number of cells with 4N and 8N DNA content, and similar effects were observed upon treatment with sphingosine or inhibitors of SK-1 or PKC. Examination of cell cycle regulators unveiled decreased cdc2 activity and expression of Chk1, which may compromise spindle checkpoint function and cytokinesis. Indeed, SK-1 kd cells entered mitosis but failed to divide, and in the presence of taxol also failed to sustain mitotic arrest, resulting in further increased endoreduplication and apoptosis. Our findings delineate an intriguing link between SK-1, PKC and components of the cell cycle machinery, which underlines the significance of SK-1 as a target for cancer therapy.
Numbers and space are two semantic primitives that interact with each other. Both recruit brain regions along the dorsal pathway, notably parietal cortex. This makes parietal cortex a candidate for the origin of numerical–spatial interaction. The underlying cognitive architecture of the interaction is still under scrutiny. Two classes of explanations can be distinguished. The early interaction approach assumes that numerical and spatial information are integrated into a single representation at a semantic level. A second approach postulates independent semantic representations. Only at the stage of response selection and preparation these two streams interact. In this study we used a numerical landmark task to identify the locus of the interaction between numbers and space. While lying in an MR scanner participants decided on the smaller of two numerical intervals in a visually presented number triplet. The spatial position of the middle number was varied; hence spatial intervals were congruent or incongruent with the numerical intervals. Responses in incongruent trials were slower and less accurate than in congruent trials. By combining across-vertex correlations (micro pattern) with a cluster analysis (macro pattern) we identified large-scale networks that were devoted to number processing, eye movements, and sensory–motor functions. Using support vector classification in different regions of interest along the intraparietal sulcus, the frontal eye fields, and supplementary motor area we were able to distinguish between congruent and incongruent trials in each of the networks. We suggest that the identified networks participate in the integration of numerical and spatial information and that the exclusive assumption of either an early or a late interaction between numerical and spatial information does not do justice to the complex interaction between both dimensions.
The aim of this study is a better understanding of radiation processes in regional climate models (RCMs) in order to quantify their impact and to reduce possible errors. A first important task in finding an answer to this question was to examine the accuracy of the components of the radiation budget in regional climate simulations. To this end, the simulated radiation budgets of two regional climate simulations for Europe were compared with a satellite-based reference. In the simulations with the RCM COSMO-CLM there were some serious under- and overestimations of short- and long-wave net radiation in Europe. However, taking into account the differences in the reference datasets, the results of the COSMO-CLM were quite satisfactory.
Using statistical methods, the influence of potential sources of uncertainties was estimated. Uncertainties in the cloud cover and surface albedo had a significant impact on uncertainties in short-wave net radiation, the explained variance of uncertainties in cloud cover was two to three times higher than that of uncertainties in surface albedo. Uncertainties in the cloud cover resulted in significant errors in the net long-wave radiation. However, the influence of uncertainties in soil temperature on errors in the long-wave radiation budget was low or even negligible. These results were confirmed in a comparison with simulations of the REMO and ALADIN regional climate models. It is reasonable to expect that a better parameterization of relatively simple parameters such as cloud cover and surface albedo is a means of significantly improving the simulation of radiation budget components in the COSMO-CLM.
An important question for the application of RCMs is to examine whether the results of radiation uncertainties and their impact factors are comparable if the model is applied in a region that is not the one for which it was originally created. Comparisons of the simulated radiation budgets of different RCMs for West Africa showed that problems in the simulation of short- and long-wave radiation fluxes were a widespread problem. Most of the tested models showed some considerable under- or overestimation of the short- and long-wave radiation fluxes.
Similar to Europe uncertainties in cloud cover were also in the simulations for Africa a significant factor affecting uncertainties in the simulated radiation fluxes. However, for the African simulations uncertainties in the parameterization of surface albedo were much more important than in Europe. On average, overland uncertainties in the cloud cover and surface albedo were of similar importance. Uncertainties in soil temperature simulations were of higher importance in Africa, and reached overland similar values of the mean explained variance (R2 ≈ 0.2) such as uncertainties in the cloud cover. This indicates a geographical dependence of the model error. This study confirmed the assumption that an improved parameterization of relatively simple parameters such as the surface albedo in RCMs leads to a significant improvement in the modeled radiation budget, particularly in Africa.
The influence of errors in the simulated radiation budget components on the simulation of climate processes, such as the West-African monsoon (WAM), was investigated in a next step. The evaluation of ERA-Interim and ECHAM5 driven COSMO-CLM simulations for Africa showed that the main features of the WAM were well reproduced by the model, but there were only slight improvements compared to the driving data. The index of convective activity in the model simulations was much too high and precipitation was underestimated in large parts of tropical Africa. The partly considerable differences between the ERA-Interim and ECHAM5 driven simulations demonstrated the sensitivity of the RCM to the boundary conditions and in particular to the sea surface temperature. An excessive northwards shift of the monsoon in the model was influenced by the land-sea temperature gradient and the strength of the Saharan heat low. Consequently, a part of the error was due to the driving data and the model itself produced another part.
By modifying the parameterization of the bare soil albedo the errors in the radiation budget and 2 m temperature in the Sahara region were significantly reduced. Similarly, the overesti-mation of precipitation and convection has been reduced in the Sahel. The effect of this modifi-cation on the examined WAM area was low. This confirmed that especially in desert regions, errors in the surface albedo were a driving factor for errors in the radiation budget. However, there are other important factors not yet sufficiently understood that have a strong influence on the quality of the simulation of the WAM.
The analysis of the actual state, the quantification of error sources and the highlighting of connections made it possible to find means to reduce uncertainties in the simulated radiation in RCMs and to have a better understanding of radiation processes. However, the magnitude of the errors found, the number of possible influencing factors, and the complexity of interactions, indicate that there is still a need for further research in this area.
In this study, two different methods were applied to derive daily and monthly sunshine duration based on high-resolution satellite products provided by the European Organisation for the Exploitation of Meteorological Satellites (EUMETSAT) Satellite Application Facility on Climate Monitoring using data from Meteosat Second Generation (MSG) SEVIRI (Spinning Enhanced Visible and Infrared Imager). The satellite products were either hourly cloud type or hourly surface incoming direct radiation. The satellite sunshine duration estimates were not found to be significantly different using the native 15-minute temporal resolution of SEVIRI. The satellite-based sunshine duration products give additional spatial information over the European continent compared with equivalent in situ-based products. An evaluation of the satellite sunshine duration by product intercomparison and against station measurements was carried out to determine their accuracy. The satellite data were found to be within ±1 h/day compared to high-quality Baseline Surface Radiation Network or surface synoptic observations (SYNOP) station measurements. The satellite-based products differ more over the oceans than over land, mainly because of the treatment of fractional clouds in the cloud type-based sunshine duration product. This paper presents the methods used to derive the satellite sunshine duration products and the performance of the different retrievals. The main benefits and disadvantages compared to station-based products are also discussed.
Heterodyne array receivers are employed in radio astronomy to reduce the observing time needed for mapping extended sources. One of the main factors limiting the amount of pixels in terahertz receivers is the difficulty of generating a sufficient amount of local oscillator power. Another challenge is efficient diplexing and coupling of local oscillator and signal power to the detectors. These problems are attacked in this dissertation by proposing the application of two vacuum electronic terahertz amplifier types for the amplification of the LO-signal and by introducing a new method for finding the defects in a quasioptical diplexer.
A traveling wave tube (TWT) design based on a square helix slow wave structure (SWS) at 825 GHz is introduced. It exhibits a simulated small-signal gain of 18.3 dB and a 3-dB bandwidth of 69 GHz. In order to generate LO-power at even higher frequencies, the operation of an 850-GHz square helix TWT as a frequency doubler has been studied. A simulated conversion efficiency of 7% to 1700 GHz, comparable with the state-of-art solid-state doublers, has been achieved for an input power of 25 mW.
The other amplifier type discussed in this work is a 1-THz cascade backward wave amplifier based on a double corrugated waveguide SWS. Specifically, three input/output coupler types between a rectangular waveguide and the SWS are presented. The structures have been realized with microfabrication, and the results of loss measurements at 1 THz will be shown.
Diplexing of the LO- and signal beams is often performed with a Martin-Puplett interferometer. Misalignment and deformation of the quasioptical components causes the polarization state of the output signal to be incorrect, which leads to coupling losses. A ray-tracing program has been developed for studying the influence of such defects. The measurement results of the diplexer of a multi-pixel terahertz receiver operated at the APEX telescope have been analyzed with the program, and the results are presented. The program allows the quasioptical configuration of the diplexer to be corrected in order to obtain higher receiver sensitivity.
Large technology firms («BigTechs») increasingly extend their influence in finance, primarily taking over market shares in payment services. A further expansion of their businesses into the territory of cryptocurrencies could entail new and unprecedented risks for the future, namely for financial stability, competition in the private sector and monetary policy. When creating a regulatory toolbox to address these risks, financial regulatory, antitrust, and platform-specific solutions should be closely intertwined in order to fully absorb all the potential threats and to take account of the complex risks these platform companies bear. This policy letter evaluates the solutions lately proposed by the European Commission, with specific focus on the upcoming regulation of Markets in crypto-assets (MiCA), but also the Digital Markets Act (DMA) and Digital services act (DSA), against the background of cryptocurrencies issued by BigTechs and sheds light on financial regulatory, competition and monetary law issues coming along with the possible designs of these cryptocurrencies.
German proposal for a common European deposit insurance, new rules for investment firms and covered bonds, and new EU legal framework on Sustainable Finance: a selection of financial regulatory developments from this month.
Die digitale Revolution stellt viele traditionelle Industrien vor große Herausforderungen. Auf dem Finanzmarkt werden innovative Geschäftsmodelle geschaffen, die die Rahmenbedingungen, unter denen Finanzprodukte und -dienste angeboten werden, drastisch verändern. Infolgedessen entstehen rechtliche Unsicherheiten sowohl für die Marktakteure als auch für die Aufsicht. Diese Unsicherheiten weisen auf die Notwendigkeit hin, den Rechtsrahmen an die technologische und ökonomische Entwicklung anzupassen. Im Rahmen dieser Dissertation werden die Herausforderungen für das Aufsichts- und Wettbewerbsrecht untersucht, die die digitale Transformation des Finanzmarktes verursacht. Der Finanzmarkt wird vor allem durch die Entstehung von FinTechs, durch das Eintreten von BigTechs in den Finanzbereich und durch die Veränderung der Produkte und Dienstleistungen traditioneller Anbieter auf der Grundlage moderner Technologien transformiert. Die Arbeit gibt einen Überblick über die zentralen innovativen Geschäftsmodelle, der mit den zahlreichen praxisrelevanten Beispielen begleitet wird. Anschließend folgt eine Beurteilung des Umfanges und der Effizienz der vorhandenen und vorgeschlagenen aufsichtsrechtlichen Vorschriften. Diese Erkenntnisse dienen als Grundlage für die wettbewerbsrechtliche Analyse des Finanzmarktes mit dem Fokus auf die plattform- und algorithmenbasierten Geschäftsmodelle im zweiten Teil der Dissertation. Da werden wettbewerbsrechtliche Konstellationen betrachtet, die zwischen konkurrierenden innovativen Geschäftsmodellen entstehen. Die Verfasserin befasst sich mit der Problematik der Definition des relevanten Marktes bei den algorithmen- und plattformbasierten Geschäftsmodellen, der Beurteilung ihrer Marktmacht, den möglichen Auswirkungen der Netzwerkeffekte auf die mehrseitigen Plattformen. Ferner werden solche Aspekte wie Datenzugriff als wettbewerbsrechtlicher Faktor und die Rolle der Algorithmen für die Durchführung wettbewerbswidrigen Praktiken analysiert. Infolgedessen wird ein Überblick über mögliche kartellrechtliche Probleme gegeben, die im Rahmen der Digitalisierung im Finanzmarkt auftreten können, sowie die Vorstellungen darüber, wie sich Wettbewerbsfaktoren verändern sollten, wenn die Anwendung der traditionellen Konzepte des Wettbewerbsrechts nicht immer möglich oder sinnvoll ist. Es werden die Bereiche identifiziert, in denen das europäische und deutsche Wettbewerbsrecht derzeit nicht in der Lage ist, die von den innovativen Geschäftsmodellen stammenden Herausforderungen effektiv zu bewältigen. Im dritten Teil der Dissertation wird erörtert, wie sich das Aufsichts- und das Wettbewerbsrecht ergänzen und zusammen ein System der Ex-ante- und Ex-post-Regulierung bilden. Es wird dargestellt, wie die aufsichtsrechtlichen Anforderungen an die Finanzinstitute, FinTechs und BigTechs mit den ausgewählten Wettbewerbsergebnissen im Finanzsektor zusammenhängen. Darüber hinaus erklärt die Verfasserin, inwiefern einige aufsichtsrechtliche Vorschriften wettbewerbsnachteilig oder wettbewerbsfreundlich auswirken können und warum die Koordination zwischen den aufsichts- und wettbewerbsrechtlichen Instrumenten und Ansätzen essenziell ist. Schließlich werden die Vor- und Nachteile unterschiedlicher Optionen zur Regulierung innovativer Geschäftsmodelle auf dem Finanzmarkt auf einer abstrakteren Ebene erwogen.
Droughts impair plant growth, limit global net primary production and are predicted to increase in the course of climate change. Knowledge of the plant drought response on a molecular level can facilitate the selection of drought resistant genotypes and genetic engineering and thereby can help to implement strategies, such as assisted migration projects or crop improvement, in order to preserve natural and agricultural vegetation against droughts.
Studies on gene expression under drought stress were conducted in three species each of the genera Quercus and Panicum, to shed light on the molecular drought response in these species and identify drought responsive genes as a basis for technical applications.
In the genus Quercus, gene expression studies were conducted in the three major European forest trees Q. ilex, Q. pubescens and Q. robur, for which a distributional shift caused by climate change is predicted for the 21st century. RNA-Seq experiments were conducted in the three Quercus species for the first time, ortholog groups were assigned and unregulated genes, as well as drought responsive genes, were identified (Madritsch et al. 2019). For a set of the unregulated genes, a stable expression over the course of long-term drought periods was evaluated in order to enable an application as reference genes for normalizing qRT-PCR experiments (Kotrade 2019a). The reference genes were used in subsequent experiments to generate gene expression profiles over the course of a two-year drought experiment with consecutive drought periods for a set of twelve drought responsive genes and revealed a highly variable gene regulation under long-term drought stress in the Quercus species (Kotrade et al. 2019b).
In the genus Panicum, the gene expression in response to drought was examined in the two wild crop species, P. laetum and P. turgidum, and in the less drought tolerant species P. bisulcatum via RNA-Seq experiments (Kotrade et al. 2020 (in revision). The transcriptomes of the species were sequenced for the first time, ortholog groups were assigned and the gene regulation was compared across the species. The common grounds of the drought response in Panicum were determined by identifying similarities across the species, while the identification of differences between the species led to genes that might contribute to the higher drought tolerance of P. laetum and P. turgidum
A comparison across the two genera showed large differences in the gene regulation upon drought. This might be largely explained by different experimental setups that resulted in different drought conditions in the genera, such as drought intensity, drought duration and velocity of drought development.
The sequence information and the drought responsive genes identified in the Quercus and Panicum species can be used to develop marker assays for marker-assisted selection. The genes that putatively contribute to the higher drought tolerance of the two wild crop Panicum species should be considered as candidate targets in genetic engineering studies. Marker-assisted selection and genetic engineering can be applied, for example, in assisted migration projects to support natural vegetation in the course of climate change or to breed more drought tolerant crop strains to mitigate crop failure rates caused by droughts.
This is the seventh article in our series Trouble on the Far-Right.
While one cannot say that the far right movements and ideologies in Latvia are in a state of flux, the current situation in Europe has prompted some developments that could turn into significant trends in the medium to longer term. In turn, these could have an effect on broader European politics, if left unchecked...
Körpergrößenschätzung und Geschlechtsdiskrimination anhand von metrischen Schädeldachparametern
(2021)
1. Körpergrößenschätzung und Geschlechtsdiskrimination; Messung des maximalen Längs- und Querdurchmessers des Schädels
Knöcherne Schädel sind häufig die einzigen Skelettüberreste, die für forensisch-osteologische Untersuchungen zur Verfügung stehen. Am Schädel lassen sich gute Hinweise für Geschlechtsdiskriminierung, Lebensalter und Herkunft erlangen. Es sollte überprüft werden, ob mithilfe der an der frischen Sägefläche des Hirnschädels gemessenen maximalen Schädellänge und -breite eine Schätzung der Körpergröße oder eine Geschlechtsdiskrimination möglich ist.
In die Untersuchung gingen die Autopsieberichte von 959 Verstorbenen ein, die das 21. Lebensjahr vollendet hatten und in den Jahren 2004 bis 2008 am Institut für Rechtsmedizin der Universität Gießen obduziert worden waren. Um den Einfluss der Herkunft der Individuen auf die untersuchten Maße abzuschätzen, wurde eine getrennte Betrachtung der in Deutschland (n=760) und außerhalb von Deutschland geborenen Individuen (n=199) durchgeführt. Trotz signifikanter Korrelationen der maximalen Schädellänge mit der Körpergröße konnte aufgrund der hohen Standardfehler keine sinnvolle einsetzbare Regressionsformel berechnet werden. Die maximale Schädelbreite zeigte keine nennenswerte Korrelation zur Körperlänge. Bezüglich der Geschlechtsdiskrimination konnte für kaukasoide Individuen folgende Aussage getroffen werden: Schädellängen kleiner 15,5 cm sprechen für weibliche und größer 19 cm für männliche Individuen. Bei der Schädelbreite weisen Werte kleiner 12,5 cm auf eine Frau und größer 15,5 cm auf einen Mann hin.
2. Über die Korrelation von Schädelnahtlängen und Körperhöhe bei Mitteleuropäern
An den Stellen des Schädeldachs, an denen 2 benachbarte Knochenanlagen aneinanderstoßen, bildet das Bindegewebe Knochennähte, Suturae (Sutura sagitalis, Sutura coronalis, Sutura lambdoidea) aus (Schiebler et al. 2002).
Ein vielversprechender Ansatz hinsichtlich der Verwendung der Schädelnähte zur Körperhöhenschätzung wurde von Rao et al. (2009) publiziert. Sie konnten in ihrer Studie an 87 Schädeln südindischer männlicher Individuen eine Korrelation sowohl zwischen Sagittal- als auch Coronarnaht und Körperhöhe nachweisen und für deren Berechnung eine Regressionsformel ableiten. In der vorliegenden prospektiven Studie sollte überprüft werden, ob sich die Ergebnisse von Rao et al. auf eine mitteleuropäische Population übertragen lassen, und ob sich anhand von Sektionsfällen eine Korrelation zwischen Schädelnahtlängen (Sagittal- und Coronarnaht) einerseits und Körperlänge andererseits nachweisen lässt.
Am Gießener Institut für Rechtsmedizin wurden in den Jahren 2009 und 2010 bei 117 Verstorbenen prospektiv die Längen der Sagittal- und Coronarnaht sowie die Körperhöhen gemessenen. Das Alter der Verstorbenen lag zwischen 15 und 96 Jahren (Mittelwert 52,8 Jahre, Median 51 Jahre); 82 Personen waren männlich und 35 weiblich. Die Länge der Sagittalnaht in Bezug auf die Körperhöhe ergab in der Regressionsanalyse einen Korrelationskoeffizienten von lediglich r = 0,045 (p = 0,617). Ähnliche Ergebnisse wurden für die Coronarnaht ermittelt; hierbei betrug der Korrelationskoeffizient r = 0,015. Bei Annahme einer maximal zulässigen Fehlerwahrscheinlichkeit von α = 0,05 erwies sich keine der durchgeführten Regressionsanalysen als statistisch signifikant. Nach den erhobenen Befunden ist weder die Länge der Sagittal- noch die Länge der Coronarnaht geeignet, bei Mitteleuropäern die Körperhöhe zu schätzen.
Background: Molecular hydrogen (H2) is an attractive future energy carrier to replace fossil fuels. Biologically and sustainably produced H2 could contribute significantly to the future energy mix. However, biological H2 production methods are faced with multiple barriers including substrate cost, low production rates, and low yields. The C1 compound formate is a promising substrate for biological H2 production, as it can be produced itself from various sources including electrochemical reduction of CO2 or from synthesis gas. Many microbes that can produce H2 from formate have been isolated; however, in most cases H2 production rates cannot compete with other H2 production methods.
Results: We established a formate-based H2 production method utilizing the acetogenic bacterium Acetobacterium woodii. This organism can use formate as sole energy and carbon source and possesses a novel enzyme complex, the hydrogen-dependent CO2 reductase that catalyzes oxidation of formate to H2 and CO2. Cell suspensions reached specific formate-dependent H2 production rates of 71 mmol g protein −1 h−1 (30.5 mmol g CDW −1 h−1) and maximum volumetric H2 evolution rates of 79 mmol L−1 h−1. Using growing cells in a two-step closed batch fermentation, specific H2 production rates reached 66 mmol g CDW −1 h−1 with a volumetric H2 evolution rate of 7.9 mmol L−1 h−1. Acetate was the major side product that decreased the H2 yield. We demonstrate that inhibition of the energy metabolism by addition of a sodium ionophore is suitable to completely abolish acetate formation. Under these conditions, yields up to 1 mol H2 per mol formate were achieved. The same ionophore can be used in cultures utilizing formate as specific switch from a growing phase to a H2 production phase.
Conclusions: Acetobacterium woodii reached one of the highest formate-dependent specific H2 productivity rates at ambient temperatures reported so far for an organism without genetic modification and converted the substrate exclusively to H2. This makes this organism a very promising candidate for sustainable H2 production and, because of the reversibility of the A. woodii enzyme, also a candidate for reversible H2 storage.
The paper provides an overview and an economic analysis of the development of the corporate governance of German banks since the 1950s, highlighting peculiarities – as seen from the meanwhile prevailing standard model perspective – of the German case. These peculiarities refer to the specific German notion and legal-institutional regime of corporate governance in general as well as to the specific three-pillar structure of the German banking system.
The most striking changes in the corporate governance of German banks during the past 50 years occurred in the case of the large shareholder-owned banks. For them, capital markets have become an important element of corporate governance, and their former orientation towards the interests of a broadly defined set of stakeholders has largely been replaced by a one-sided concentration on shareholders’ interests. In contrast, the corporate governance regimes of the smaller local public savings banks and the local cooperative banks have remained virtually unchanged. They acknowledge a broader horizon of stakeholder interests and put an emphasis on monitoring.
The Great Financial Crisis, beginning in 2007, has led to a considerable reassessment in the academic and political debate on bank governance. On an international level, it has revived the older notion that, in view of their high leverage and their innate complexity, banks are “special” and bank corporate governance also – and needs to be seen in this light, not least because research indicates that banks with a strong and one-sided shareholder orientation – and thus with what appears to be the best corporate governance according to the standard model – have suffered most in the crisis. In the German case, the crisis has shown that the smaller local banks have survived the crisis much better than large private and public banks, whose funding strongly depends on wholesale markets. This may point to certain advantages of their governance and ownership regimes. But the differences in the performance during the crisis years may also, or even more so, be a consequence of the business models of large vs small banks than of their different governance regimes.
Eurobonds zur Bewältigung der europäischen Krise? : Wegweisung zu einer modernen Entwicklungsunion
(2011)
Die aktuelle Debatte um den Umgang mit der Verschuldung Griechenlands und anderer EWU Staaten berührt die Grundlagen europäischer Wirtschaftspolitik. Die nächsten Schritte sind wohl abzuwägen, um über eine unmittelbare Kriseneindämmung hinaus eine langfristige Stabilisierung der wirtschaftlichen und politischen Strukturen in der Eurozone zu erreichen.
Eine funktionsfähige Wirtschafts- und Währungsunion hat ihren Preis. Sie ist aber auch von großem Nutzen, gerade für Deutschland und die wettbewerbsstarken Regionen, die insbesondere vom einheitlichen Binnenmarkt und der monetären Stabilität profitieren. Das rechtfertigt zugleich
eine Unterstützung ökonomisch schwächerer Mitglieder der Union durch die stärkeren. Historisch waren Währungsunionen ohne einen derartigen minimalen fiskalischen Ausgleich nicht dauerhaft. Deshalb sind, wenn man die Währungsunion aufrechterhalten will, zwei Extrempositionen - keine Transfers, um keinen Preis ebenso wie deren Gegenteil: jedwedes Defizit wird bedingungslos finanziert - nicht zielführend. Ein kompletter Haftungsausschluss (no bail-out) ist nicht glaubwürdig, solange unabweisbare Schuldenschnitte von insolventen Staaten oder Regionen (wegen Überschuldung) nicht möglich sind, weil sie innerhalb eines stark integrierten Bankenmarktes potentiell unkontrollierbare Rückwirkungen auslösen. Andererseits liefe die unkonditionierte, dauerhafte Finanzierung regionaler Ungleichgewichte auf Transfervolumina hinaus, die eine Überforderung der Transfergeber darstellten. Sie führte vor allem zu einer Perpetuierung der Probleme, weil Anreize zur letztlich unabdingbaren Anpassung fehlten. Damit bleiben zur Schaffung der Voraussetzungen einer funktionsfähigen Währungsunion nur Optionen, die zwischen den Polen liegen.
Temporal variation in the detectability of a species can bias estimates of relative abundance if not handled correctly. For example, when effort varies in space and/or time it becomes necessary to take variation in detectability into account when data are analyzed. We demonstrate the importance of incorporating seasonality into the analysis of data with unequal sample sizes due to lost traps at a particular density of a species. A case study of count data was simulated using a spring-active carabid beetle. Traps were ‘lost’ randomly during high beetle activity in high abundance sites and during low beetle activity in low abundance sites. Five different models were fitted to datasets with different levels of loss. If sample sizes were unequal and a seasonality variable was not included in models that assumed the number of individuals was log-normally distributed, the models severely under- or overestimated the true effect size. Results did not improve when seasonality and number of trapping days were included in these models as offset terms, but only performed well when the response variable was specified as following a negative binomial distribution. Finally, if seasonal variation of a species is unknown, which is often the case, seasonality can be added as a free factor, resulting in well-performing negative binomial models. Based on these results we recommend (a) add sampling effort (number of trapping days in our example) to the models as an offset term, (b) if precise information is available on seasonal variation in detectability of a study object, add seasonality to the models as an offset term; (c) if information on seasonal variation in detectability is inadequate, add seasonality as a free factor; and (d) specify the response variable of count data as following a negative binomial or over-dispersed Poisson distribution.
This paper focuses on the question of the representation of nasality as well as speakers’ awareness and perceptual use of phonetic nasalisation by examining surface nasalisation in two types of vowels in Bengali: underlying nasal vowels (CṼC) and nasalised vowels before a nasal consonant (CVN). A series of three cross-modal forced-choice experiments was used to investigate the hypothesis that only unpredictable nasalisation is stored and that this sparse representation governs how listeners interpret vowel nasality. Visual full-word targets were preceded by auditory primes consisting of CV segments of CVC words with nasal vowels ([tʃɑ̃] for [tʃɑ̃d] ‘moon’), oral vowels ([tʃɑ] for [tʃɑl] ‘unboiled rice’) or nasalised oral vowels ([tʃɑ̃(n)] for [tʃɑ̃n] ‘bath’) and reaction times and errors were measured. Some targets fully matched the prime while some matched surface or underlying representation only. Faster reaction times and fewer errors were observed after CṼC primes compared to both CVC and CVN primes. Furthermore, any surface nasality was most frequently matched to a CṼC target unless no such target was available. Both reaction times and error data indicate that nasal vowels are specified for nasality leading to faster recognition compared to underspecified oral vowels, which cannot be perfectly matched with incoming signals.
Simple Summary: Forensic entomologists are most often tasked with determining when arthropods colonized living or deceased vertebrates. In most cases, this estimation involves humans; however, pets, livestock, and other domesticated animals can also be illegally killed or victims of neglect. Globally, there is no standard format for the case report, and much of the content is based on the personal preferences of the analyst or standards set within a country. The article below proposes a general overview of sections to be considered when drafting a case report.
Abstract: Forensic practitioners analyzing entomological evidence are faced with numerous challenges when presenting their findings to law practitioners, particularly in terms of terminology used to describe insect age, what this means for colonization time of remains, and the limitations to estimates made. Due to varying legal requirements in different countries, there is no standard format for the entomological case report prepared, nor any guidelines as to the sections that are required, optional or unnecessary in a case report. The authors herein propose sections that should be considered when drafting an entomological case report. The criteria under which entomological evidence is analyzed are discussed, as well as the limitations for each criterion. The concept of a global, standardized entomological case report is impossible to achieve due to national legislative differences, but the authors here propose a basic template which can be adapted and changed according to the needs of the practitioner. Furthermore, while the discussion is fairly detailed, capturing all differences between nations could not be accomplished, and those initiating casework for the first time are encouraged to engage other practicing forensic entomologists or professional associations within their own nation or region, to ensure a complete report is generated that meets lab or national requirements, prior to generating a finalized report.
Im Rahmen dieser Arbeit wurde ein Kabelpulsgenerator entwickelt und untersucht, der zur Erzeugung dielektrischer Barriereentladungen, genutzt wird. Diese Barriereentladung soll zur Wassersterilisation angewendet werden. Als schnelles Schaltelement des Kabelpulsers wurde ein Lorentz-Drift-Schalter (LDS), der ebenfalls in der Arbeitsgruppe Plasmaphyik entwickelt wird, verwendet. Dieser wurde grundlegend auf dessen elektrische Eigenschaften in Bezug auf den Einsatz in einem Pulsgenerator untersucht. Zudem sollen diese Messungen zur Weiterentwicklung des LDS von Nutzen sein und werden in diesem Kapitel zusammengefasst und interpretiert.
Zur Bestimmung des Arbeitsgasdrucks wurde der Verlauf der Durchbruchspannung verschiedener Gase in Abhängigkeit des Drucks aufgenommen. Durch diese Messungen konnte die maximale Haltespannung zum jeweiligen Druck, sowie der optimale Arbeitsdruckbereich des Schalters, der möglichst nahe des Selbstdurchbruchs liegt, ermittelt werden. Es wurde ein Verlauf entsprechend der Abhängigkeit der Paschenkurve bestimmt. Dabei wurde festgestellt, dass sich die Druckbereiche der Gase Argon, Stickstoff und Luft stark von dem des Wasserstoffs unterscheiden.
Um möglichst steile Pulsflanken des Kabelpulsgenerators zu gewährleisten, wurden Messungen der Spannungabfallraten am LDS durchgeführt. Da das Plasma im Schalter als ohmsche Last angesehen werden kann, korreliert der Spannungsabfall mit dem Stromanstieg. Hierbei konnte generell ein Anstieg der Spannungsabfallzeit mit zunehmender Ladespannung festgestellt werden. Teilweise konnte ein sprunghaftes Verhalten nachgewiesen werden, was wie folgt zu interpretieren ist: Der LDS ist ein schneller Gasentladungsschalter für hohe Ströme und hohe Spannungen. Um eine laufende Entladung durch die Lorentzkraft im Elektrodenzwischenraum zu erreichen, wird eine gewisse Stromdichte benötigt, die das ”saubere” Durchzünden des Schalters gewährleistet, das Plasma an den Elektroden nach oben laufen lässt und später die Selbstlöschung einleitet. Die in der Kapazität des Koaxialkabels gespeicherte Energie reichte bei kleinen Ladespannungen nur zu einer kurzen Uberbrückung der Elektroden. Zudem konnte eine Steigerung der Spannungsabfallzeit mit zunehmendem Druck festgestellt werden, was dafur spricht den Schalter bei einem Druckbereich möglichst nahe des Selbstdurchbruchs zu betreiben, um ein optimales Entladeverhalten zu gewährleisten. Weitere wichtige Parameter eines Gasentladungsschalters sind die Delay- und Jitterwerte. Neben dem Delay wurden im Rahmen dieser Arbeit erstmals Jittermessungen am LDS durchgefuürt. Diese wurden mit den oben genannten Gasen mit unterschiedlichen Triggerpulsen gemessen. Im Wesentlichen wurde ein kürzerer und ein längerer Triggerpuls mit Pulslängen von 1 µs und 31 µs verwendet.
Weiterhin fand erstmals der Betrieb des LDS mit Wasserstoff als Arbeitsgas statt. Neben diversen Vorteilen im Entladeverhalten, erlaubt ein Betrieb des Schalters mit Wasserstoff die Verwendung von reversiblen Gasspeichern auf Titan- oder Zirkoniumbasis. Durch beheizen dieser Speicher, geben sie Gas ab und nehmen es beim Abkühlen wieder auf. Dadurch sind abgeschlossene Schaltsysteme, sogenannte ”Sealed-Off”-Systeme, fur weitere Prototypen realisierbar [Pet07].
Es wurde festgestellt, dass der Delay stark von der Triggermethode bzw. der Pulslänge des Triggers abhängt. Auch hier wird ein schneller Spannungsanstieg benötigt. Je schneller die Startelektronen durch das Triggerelement bereitgestellt werden, desto schneller zundet das Plasma im Elektrodenzwischenraum. Für einzelne Schaltvorgänge spielt der Delay eine untergeordnete Rolle, betrachtet man jedoch Repetitionsraten gewinnt jeder einzelne zeitliche Ablauf eines Schaltprozesses an Bedeutung. Bei den oben erwähnten ersten Jittermessungen konnten bei allen Gasen sehr niedrige Jitterwerte von deutlich unter 100 ns erreicht werden. Auch hier wurde eine starke Triggerpuls- und Arbeitsgasabhängigkeit festgestellt. Auffällig wurde dies bei Untersuchungen mit Luft. Hier konnte der Jitter mit dem steilen Anstieg des kurzen Triggerpulses halbiert werden. Bei Messungen mit Wasserstoff wurde ein Jitter von 13 ns erreicht. Wiederum ergab sich eine Verbesserung des Jitters mit zunehmender Ladespannung.
Des Weiteren wurde die Pulsform und deren Impedanzabh¨angigkeit am Spannungsausgang des Kabelpulsers untersucht. Unterschiedliche Impedanzwiderstände wurden angefertigt und in den Pulseraufbau integriert. Es zeigte sich eine eher geringe Änderung der Pulsform bei unterschiedlichen Impedanzwiderständen. Untersuchungen zeigten, dass die Spannungsamplitude mit dem Widerstandswert variiert, da er wie ein Spannungsteiler wirkt. Die radialsymmetrischen Impedanzwiderstände erzeugen eine weniger stufig abfallende Flanke. Die besten Resultate, was die Pulsform betrifft, wurde jedoch durch eine niederinduktivere Erdung erzielt. Es wurde ein Kabelpulsgenerator mit einem relativ ebenen Pulsplateau entwickelt, dessen Parameter, wie z.B. die Pulsbreite und die Spannungsamplitude, weitgehend unabhängig voneinander variierbar sind.
Der Radiofrequenzquadrupol (RFQ) wird typischerweise als erstes beschleunigendes Element in Beschleunigeranlagen eingesetzt. Das elektrische Quadrupolfeld ermöglicht die gleichzeitige Fokussierung und Beschleunigung des Ionenstrahls. Zudem ist der RFQ in der Lage den Gleichstromstrahl von der Ionenquelle zu Teilchenpaketen (Bunche) zu formen, die von den nachfolgenden Driftröhrenbeschleunigern benötigt werden. Ziel der vorliegenden Arbeit war die Untersuchung zur Realisierbarkeit eines 325 MHz 4-rod RFQ Beschleunigers. Die Frequenz von 325 MHz stellt eine ungewöhnlich hohe Betriebsfrequenz für die 4-rod Struktur dar und wird z.B. für den Protonenlinac des FAIR Projektes benötigt. Ein Problem hierbei war, dass durch die bauartbedingten unsymmetrischen Elektrodenaufhängung und der hohen Frequenz ein, das Quadrupolfeld überlagerndes, Dipolfeld erzeugt wird. Dieses störende Feld kann z.B. zu einem Versatz der Strahlachse führen. Hierzu wurde die 4-rod Struktur in Simulationen grundlegend auf Einflüsse von verschiedenen Parametern auf die Resonanzfrequenz und das Dipolfeld untersucht. Es wurden Lösungsstrategien erarbeitet das Diopolfeld zu kompensieren und auf einen Prototypen angewendet. Zudem wurde das Verhalten höherer Schwingungsmoden dieser Struktur simuliert. In diesem Rahmen wurden auch Simulationen zu Randfeldern zwischen den 4-rod Elektroden und der Tankwand untersucht, um nachteilige Effekte für die Strahlqualität auszuschließen. Basierend auf den Simulationsergebnissen wurde ein Prototyp angefertigt. Dieser Prototyp wurde zur Demonstration der Betriebseigenschaften mit Leistungen bis 40 kW getestet. Hierbei wurde die Elektrodenspannung mittels Gammaspektroskopie bestimmt und daraus die Shuntimpedanz berechnet. Diese Werte wurden mit anderen Methoden der Shuntimpedanzbes- timmung verglichen. Außerdem wurden alternative RFQ Resonatorkonzepte ebenfalls auf ihre Realisierbarkeit für den Protonenlinac untersucht. Die Einflüsse verschiedener Parameter auf die Betriebsfrequenz, die Möglichkeiten des Frequenztunings und der Einstellung der longitudinalen Spannungsverteilung gefertigter Modelle wurden in einer Diskussion gegenübergestellt.
Usually 4-ROD Radio Frequency Quadrupoles (RFQ) are built for frequencies up to 216 MHz. For higher frequencies 4-VANE structures are more common. The advantages of 4-Rod structures, the greater flexibility for tuning and being more comfortable for maintenance, are motivating the development of a 4-Rod RFQ for higher frequencies than 216 MHz. In particular a 325 MHz RFQ with an output energy of 3 MeV is needed for the proton linac for the FAIR project of GSI. This paper reports about the design studies and the latest developments of this RFQ.