Refine
Year of publication
- 2012 (1228) (remove)
Document Type
- Article (575)
- Conference Proceeding (164)
- Part of Periodical (150)
- Book (131)
- Doctoral Thesis (79)
- Working Paper (53)
- Report (32)
- Part of a Book (26)
- Review (8)
- Preprint (4)
Language
- English (1228) (remove)
Has Fulltext
- yes (1228) (remove)
Keywords
- Pasolini, Pier Paolo (15)
- new species (13)
- taxonomy (11)
- Cape Verde Islands (8)
- Democracy (8)
- Koreanisch (8)
- Ellipse <Linguistik> (6)
- Law (6)
- apoptosis (6)
- human rights (6)
Institute
- Medizin (220)
- Rechtswissenschaft (103)
- Physik (99)
- Biowissenschaften (72)
- Biochemie und Chemie (70)
- Frankfurt Institute for Advanced Studies (FIAS) (54)
- Wirtschaftswissenschaften (44)
- Center for Financial Studies (CFS) (40)
- Informatik (40)
- Extern (31)
Background: Ewing sarcoma patients have a poor prognosis despite multimodal therapy. Integration of combination immunotherapeutic strategies into first-/second-line regimens represents promising treatment options, particularly for patients with intrinsic or acquired resistance to conventional therapies. We evaluated the susceptibility of Ewing sarcoma to natural killer cell-based combination immunotherapy, by assessing the capacity of histone deacetylase inhibitors to improve immune recognition and sensitize for natural killer cell cytotoxicity.
Methods: Using flow cytometry, ELISA and immunohistochemistry, expression of natural killer cell receptor ligands was assessed in chemotherapy-sensitive/-resistant Ewing sarcoma cell lines, plasma and tumours. Natural killer cell cytotoxicity was evaluated in Chromium release assays. Using ATM/ATR inhibitor caffeine, the contribution of the DNA damage response pathway to histone deacetylase inhibitor-induced ligand expression was assessed.
Results: Despite comparable expression of natural killer cell receptor ligands, chemotherapy-resistant Ewing sarcoma exhibited reduced susceptibility to resting natural killer cells. Interleukin-15-activation of natural killer cells overcame this reduced sensitivity. Histone deacetylase inhibitor-pretreatment induced NKG2D-ligand expression in an ATM/ATR-dependent manner and sensitized for NKG2D-dependent cytotoxicity (2/4 cell lines). NKG2D-ligands were expressed in vivo, regardless of chemotherapy-response and disease stage. Soluble NKG2D-ligand plasma concentrations did not differ between patients and controls.
Conclusion: Our data provide a rationale for combination immunotherapy involving immune effector and target cell manipulation in first-/second-line treatment regimens for Ewing sarcoma.
Much is known about the computation in individual neurons in the cortical column. Also, the selective connectivity between many cortical neuron types has been studied in great detail. However, due to the complexity of this microcircuitry its functional role within the cortical column remains a mystery. Some of the wiring behavior between neurons can be interpreted directly from their particular dendritic and axonal shapes. Here, I describe the dendritic density field (DDF) as one key element that remains to be better understood. I sketch an approach to relate DDFs in general to their underlying potential connectivity schemes. As an example, I show how the characteristic shape of a cortical pyramidal cell appears as a direct consequence of connecting inputs arranged in two separate parallel layers.
The small bowel is essential to sustain alimentation and small bowel Crohn's disease (CD) may severely limit its function. Small bowel imaging is a crucial element in diagnosing small
bowel CD, and treatment control with imaging is increasingly used to optimize the patients outcome. Thereby, capsule endoscopy, Balloon-assisted enteroscopy, and Magnetic resonance imaging have become key players to manage CD patients. In this review, role of small bowel imaging is detailed discussed for use in diagnosing and managing Crohn's disease patients.
Editorial : Andreas Dombret "Regulating Systemically Important Financial Institutions is Vitally Important" ; Research Money/Macro : Dimitris Christelis, Dimitris Georgarakos, Michael Haliassos "International Portfolio Differences: Environment versus Characteristics" ; Research Finance : Raimond Maurer, Ralph Rogalla, Yuanyuan Shen "Optimal Asset Allocation in Retirement with Open-end Real Estate Funds" ; Research Law : Theodor Baums "Shareholder Suits in German Company Law – An Empirical Study" ; Policy Platform : Helmut Siekmann, Patrick Tuschl "Constitutional Ruling on Court of Auditors' Review of Banks" ; Interview : Michael S. Barr "Information Does not Necessarily Lead to Understanding"
Around 1800, aesthetic debate suddenly places music at the very top in the hierarchy of the arts, even superseding poetry: This has become a commonplace not only in scholarly discourse. The protagonists of this re-arrangement of the artistic disciplines are Wilhelm Heinrich Wackenroder, E.T.A. Hoffmann and Ludwig Tieck. In their programmatic texts, they state that music is to be free and absolute and stress its metaphysical quality and its close relation to the supernatural. Furthermore, music is supposed to be no longer dependent on the other arts, and music releases the listener or the musician from prosaic everyday life. As Wackenroder writes in Die Wunder der Tonkunst, […] [a]ll sickening thoughts which, according to Wackenroder, are the illness of mankind vanish with a piece of music, making our mind sane again. Literary romanticism here recurs to a long tradition that reaches back to the classical ages in Greece and Arabia: Music is used as a remedy for curing illnesses of various kinds. In classical antiquity, Apollo is the god of music, poetry and dancing as well as the god of healing. He was also named “Iatros” (physician) or Apollo Medicus. […] Orpheus as a bard and demigod was also said to be capable of curing diseases by means of his music. […] Thus, music in history is part of treating physical illness on the one hand, but on the other hand is more and more considered to provide a remedy especially for mental deficiencies. Music is meant to improve nervous disorders and sometimes it is even prescribed as a regular medicine. As we will see in Hoffmann’s text Die Genesung, there is a connection between the ritual healing processes in the temples of Aesculapius and the setting of the forest in which the old man regains his health.
Menschliche Aktivitäten beeinflussen beinahe alle Bereiche des Lebens auf der Erde (MEA 2005a; UNEP 2007). Die Zerstörung und Veränderung natürlicher Lebensräume sind als Hauptursache für den weltweiten Biodiversitätsverlust identifiziert (Harrison and Bruna 1999; Dale et al. 2000; Foley et al. 2005; MEA 2005a). Zusammen mit dem Klimawandel wird die Landnutzungsveränderung daher als einflussreichster Aspekt anthropogen verursachten globalen Wandels betrachtet (MEA 2005a). Landnutzungsveränderung schließt sowohl die Umwandlung natürlicher Habitate in Agrarland oder Siedlungen als auch die Landnutzungsintensivierung in bereits kultivierten Landschaften mit ein. Diese Veränderungen haben weitreichende Konsequenzen für die Artenvielfalt und resultieren häufig in dem Verlust von Arten mit zunehmender Intensität der Landnutzung (Scholes and Biggs 2005).
Biodiversität und Ökosysteme stellen viele verschiedene Funktionen zur Verfügung, wie z. B. die Sauerstoffproduktion, die Reinigung von Wasser und die Bestäubung von Nutzpflanzen.
Einige dieser Funktionen sind hilfreich, andere wichtig und wieder andere notwendig für das menschliche Wohlergehen (MEA 2005b; UNEP 2007). Mittlerweile sind Ökosystemfunktionen und die vielen Nutzen, die sie erbringen, zu einem zentralen Thema der interdisziplinären Forschung von Sozialwissenschaften und Naturwissenschaften geworden (Barkmann et al. 2008 und darin enthaltene Referenzen). Dadurch bedingt ist es zu einiger Verwirrung bezüglich der verwendeten Begriffe der "Ökosystemfunktion" (engl. "ecosystem function") und dem der "Ökosystemdienstleistung" (engl. "ecosystem service") gekommen (deGroot et al. 2002). Da der Fokus meiner Arbeit auf grundlegenden Funktionen von Ökosystemen liegt, verwende ich im Folgenden den Begriff der Ökosystemfunktion.
Für viele Ökosystemfunktionen ist noch sehr unzureichend bekannt, wie diese von externen Störungen beeinflusst werden (Kremen and Ostfeld 2005; Balvanera et al. 2006). Ökosystemfunktionen werden selten von nur einer einzigen Art aufrechterhalten, sondern meist von einer ganzen Reihe unterschiedlicher taxonomischer Gruppen – alle mit ihren ganz eigenen Ansprüchen. Diese Arten, wie auch deren intra- und interspezifischen Interaktionen, können durchaus nterschiedlich auf die gleiche Störungsquelle oder Störungsintensität reagieren. Dies kann Vorhersagen zum Verhalten von Ökosystemfunktionen extrem erschweren. ...
We provide a mathematical framework to model continuous time trading in limit order markets of a small investor whose transactions have no impact on order book dynamics. The investor can continuously place market and limit orders. A market order is executed immediately at the best currently available price, whereas a limit order is stored until it is executed at its limit price or canceled. The limit orders can be chosen from a continuum of limit prices.
In this framework we show how elementary strategies (hold limit orders with only finitely many different limit prices and rebalance at most finitely often) can be extended in a suitable
way to general continuous time strategies containing orders with infinitely many different limit prices. The general limit buy order strategies are predictable processes with values in the set of nonincreasing demand functions (not necessarily left- or right-continuous in the price variable). It turns out that this family of strategies is closed and any element can be approximated by a sequence of elementary strategies.
Furthermore, we study Merton’s portfolio optimization problem in a specific instance of this framework. Assuming that the risky asset evolves according to a geometric Brownian
motion, a proportional bid-ask spread, and Poisson execution times for the limit orders of the small investor, we show that the optimal strategy consists in using market orders to keep the
proportion of wealth invested in the risky asset within certain boundaries, similar to the result for proportional transaction costs, while within these boundaries limit orders are used to profit from the bid-ask spread.
Ende der 70ger Jahre, fünf Jahre nach der Einführung des ersten kommerziellen, medizinischen Computertomographen wurde die Tomographie am Los Alamos Scientific Laboratory zum ersten Mal für die Diagnose von Teilchenstrahlen angewendet. Bei der Tomographie wird aus eindimensionalen Projektionen, sogenannten Profilen, welche in möglichst vielen Winkeln um ein Objekt herum aufgenommen werden, ein zweidimensionales Abbild der Dichteverteilung (Slice oder Scheibe) approximiert. Dies ist möglich durch das bereits 1917 von Johann Radon eingeführte Fourier-Scheiben-Theorem. In der Theorie kann die zwei-dimensionale Dichteverteilung exakt ermittelt werden, wenn Projektionen mit einer unendlich feinen Auflösung über unendlich viele Winkel um ein Objekt herum in die Rekonstruktion einbezogen werden. Durch die Rekonstruktion vieler Scheiben kann ein drei-dimensionales Abbild der Dichteverteilung in einem Objekt, in diesem Fall einem Ionenstrahl, berechnet werden, sofern dieses nicht optisch dicht ist.
Die Profile in der nicht-invasiven Strahldiagnose entstehen durch CCD-Kameraaufnahmen von strahlinduzierter Fluoreszenz, welche durch den Einlass von Restgas hervorgerufen wird. Es sind aber auch Profile, welche aus anderen Methoden gewonnen werden (z.B. Gittermessungen) denkbar. An Orten mit hoher Energie ist jedoch eine nicht-invasive Form der Profilaufnahme sowohl für die Qualität des Strahls, wie auch den Schutz der Messgeräte unabdingbar.
In den letzten 40 Jahren wurden im Bereich der Strahltomographie viele wichtige Fortschritte erzielt:
1. Anfangs standen nur sehr wenige Profile zur Verfügung, so dass die Methode der gefilterten Rückprojektion(FBP), welche sich direkt aus dem Fourier-Scheiben-Theorem ableitet und welches auch in der Medizin verwendet wird, nicht angewendet werden kann. Um dieses Problem zu lösen wurden iterative Methoden wie die Algebraische Rekonstruktion (ART) und die Methode der Maximalen Entropie (MEM) für die Strahltomographie erschlossen, so dass auch mit sehr geringer Profilanzahl eine Rücktransformation möglich wurde.
2. Neben der Ortsraumtomographie wurde die Phasenraumtomografie entwickelt, so dass mittlerweile eine Rekonstruktion des sechs-dimensionalen Phasenraumes möglich ist, mit welchem ein Ionenstrahl in seiner Gesamtheit beschrieben werden kann.
3. Die Projektionen wurden lange Zeit durch Aufnahmen von mehreren festen Anschlüssen aus gewonnen (Multi-Port-Technik). Auf diese Weise ist die Anzahl der möglichen Projektionen sehr begrenzt. So entwickelte man später eine Methode welche den Strahl mit Hilfe von Quadrupolen dreht (Quad-Scan-Technik), so dass auf diese Weise von einem Anschluss aus viele Projektionen gemessen werden konnten, so dass sogar die FBP angewendet werden konnte.
4. Die meisten Bestrebungen zielten darauf ab, die Tomographie für eine nicht-invasive Emittanzmessmethode zu nutzen, welches bis heute aufgrund der großen und noch immer zunehmenden Energien in modernen Beschleunigern ein wichtiges Problem ist. Um die Tomographie zur Emittanzmessung zu verwenden, führt man eine Rekonstruktion des Phasenraumes durch. Das Problem ist, dass hierfür das a priori Wissen über die Strahltransportmatrix in die Tomographie mit einfließt, die berechnete Strahltransportmatrix
jedoch nicht mit dem tatsächlichen Strahltransport übereinstimmt, da dieser bei hohen Energien durch auftretende Raumladung nicht-linear verändert wird. Hierzu wurden gute Fortschritte in der Abschätzung der tatsächlichen Transportmatrix gemacht um die Phasenraumtomographie trotzdem mit hinreichend gutem Ergebnis durchführen zu können.
Trotz all dieser Fortschritte und Entwicklungen ist die Tomographie bis heute keine weitverbreitete Methode in der Strahldiagnose. Der Grund ist, dass das Einrichten einer Tomografie eine komplexe Abfolge etlicher Entscheidungen und weitgestreutes Wissen aus vielen unterschiedlichen Bereichen erfordert, dieser nicht zu unterschätzende Mehraufwand jedoch auch durch einen signifikanten Nutzen gerechtfertigt sein muss. Der große Nutzen der Tomographie für die Strahldiagnose und Untersuchung der Strahldynamik ist bis heute allerdings weitgehend unerkannt und weiterhin reduziert auf die Entwicklung einer nicht-invasiven Methode für die Emittanzbestimmung. Ein zweites Hindernis stellte bisher auch die Diskrepanz zwischen Genauigkeit und Platzaufwand dar (hohe Genauigkeit durch viele Projektionen mit Quad-Scan-Technik auf mehreren Metern oder niedrige Genauigkeit durch wenig Projektionen mit Multi-Port-Technik auf weniger als einem Meter). Die Tomografie kann großen Nutzen leisten für die Online-Überwachung wichtiger Maschineneparameter im Strahlbetrieb (Monitoring) als auch für detaillierte Analysen zur Strahldynamik (Modellierung) weit über die Implementierung einer nicht-invasiven Emittanzmessmethode hinaus.
Um dies zu gewährleisten Bedarf es Zweierlei. Zum einen muss die Diskrepanz zwischen Genauigkeit und Platzaufwand aufgehoben werden. Hierzu wurde im Rahmen dieser Arbeit eine rotierbare Vakuumkammer entwickelt die nach dem Vorbild medizinischer Tomographen in mehr als 5000 Winkelschritten um den Strahl herum fahren kann, dabei ein Vakuum von mindestens 10-7mbar aufrecht erhält und einen Platzbedarf von weniger als 400 mm in der Strahlstrecke einnimmt. Zum anderen muss die Implementierung der Tomografie durch eine Angabe von schematischen Schritten und Entscheidungen vereinfacht werden. Eine Strahltomographie muss immer auf ihren jeweiligen Zweck hin implementiert werden, da Einzelelemente der Tomografie wie beispielsweise Messvorrichtung und dadurch die Profilanzahl, zu verwendender Tomographiealgorithmus, zu bestimmende Parameter sich je nach Einsatz unterscheiden können. Jedoch können die dazu nötigen Entscheidungen in ein Schema eingeordnet werden, welches die Implementierung der Tomographie vereinfacht und beschleunigt. Hierzu wurde in dieser Arbeit eine Diagnosepipeline und ein Entscheidungsschema eingeführt, sowie die Implementierung nach diesem Schema am Beispiel einer Strahltomographie für die Frankfurter Neutronenquelle (FRANZ) demonstriert und die entsprechenden Fragen und Entscheidungen diskutiert. Es wird gezeigt, wie sich aus den Messdaten über die Aufbereitung der Daten durch die Tomografie die erforderlichen Standardstrahlparameter für ein Monitoring gewinnen lassen. Zusätzlich wird ein Ebenen-Modell eingeführt, über welches nicht-Standardparameter oder neu modellierte Strahlparameter für detaillierte Analysen der Strahldynamik über die Standardparameter hinaus entwickelt werden können. Diese Arbeit soll ein grundlegendes Konzept für die routinemäßige Implementierung der Tomographie in der Strahldiagnose zur Verfügung stellen. Für die Verwendung zum Monitoring im Strahlbetrieb muss die Bestimmung von Standardparametern noch wesentlich im Zeitaufwand verbessert werden. Die Verwendung der Phasenraumtomographie benötigt noch eine Idee um den arcustangensförmigen Verlauf der berechneten Phasenraumrotationswinkel mit der Forderung der FBP nach äquidistanten Projektionswinkeln verträglicher zu machen.
We show how Sestoft’s abstract machine for lazy evaluation of purely functional programs can be extended to evaluate expressions of the calculus CHF – a process calculus that models Concurrent Haskell extended by imperative and implicit futures. The abstract machine is modularly constructed by first adding monadic IO-actions to the machine and then in a second step we add concurrency. Our main result is that the abstract machine coincides with the original operational semantics of CHF, w.r.t. may- and should-convergence.
I evaluate the effect of inflation targeting on inflation and how it interacts with product market deregulation during the disinflationary process in the 1990s. Using a sample of 21 OECD countries, I show that, after controlling for product market deregulation, the effect of inflation targeting is quantitatively important and statistically significant. Moreover, product market deregulation also matters in particular in countries that adopted an inflation targeting regime. I propose a New Keynesian Phillips curve with an explicit role for market deregulation to rationalize the empirical evidence.
Lipid-laden alveolar macrophages and pH monitoring have been used in the diagnosis of chronic aspiration in children with gastroesophageal reflux (GER). This study was conducted to prove a correlation between the detection of alimentary pulmonary fat phagocytosis and an increasing amount of proximal gastroesophageal reflux. It was assumed that proximal gastroesophageal reflux better correlates with aspiration than distal GER. Patients from 6 months to 16 years with unexplained recurrent wheezy bronchitis and bronchial hyperreactivity, or recurrent pneumonia with chronic cough underwent 24-hour double-channel pH monitoring and bronchoscopy with bronchoalveolar lavage (BAL). Aspiration of gastric content was determined by counting lipid laden alveolar macrophages from BAL specimens. There were no correlations between any pH-monitoring parameters and counts of lipid-laden macrophages in the whole study population, even when restricting analysis to those with abnormal reflux index expressing clinically significant GER. Quantifying lipid-laden alveolar macrophages from BAL in children with gastroesophageal-related respiratory disorders does not have an acceptable specificity to prove chronic aspiration as an underlying etiology. Therefore, research for other markers of pulmonary aspiration is needed.
Bioapatite in mammalian teeth is readily preserved in continental sediments and represents a very important archive for reconstructions of environment and climate evolution. This project provides a comprehensive data base of major, minor and trace element and isotope tracers for tooth apatite using a variety of microanalytical techniques. The aim is to identify specific sedimentary environments and to improve our understanding on the interaction between internal metabolic processes during tooth formation and external nutritional control and secondary alteration effects. Here, we use the electron microprobe to determine the major and minor element contents of fossil and modern molar enamel, cement and dentin from Hippopotamids. Most of the studied specimens are from different ecosystems in Eastern Africa, representing modern and fossil lacustrine (Lake Kikorongo, Lake Albert, and Lake Malawi) and modern fluvial environments of the Nile River system. Secondary alteration effects - in particular FeO, MnO, SO3 and F concentrations – are 2 to 10 times higher in fossil than in modern enamel; the secondary enrichment of these components in fossil dentin and cement is even higher. In modern and fossil enamel, along sections perpendicular to the enamel-dentin junction (EDJ) or along cervix-apex profiles, P2O5 and CaO contents and the CaO/P2O5 ratios are very constant (StdDev ∼1%). Linear regression analysis reveals tight control of the MgO (R2∼0.6), Na2O and Cl variation (for both R2>0.84) along EDJ-outer enamel rim profiles, despite large concentration variations (40% to 300%) across the enamel. These minor elements show well defined distribution patterns in enamel, similar in all specimens regardless of their age and origin, as the concentration of MgO and Na2O decrease from the enamel-dentin junction (EDJ) towards the outer rim, whereas Cl displays the opposite trend. Fossil enamel from Hippopotamids which lived in the saline Lake Kikorongo have a much higher MgO/Na2O ratio (∼1.11) than those from the Neogene fossils of Lake Albert (MgO/Na2O∼0.4), which was a large fresh water lake like those in the western Branch of the East African Rift System today. Similarly, the MgO/Na2O ratio in modern enamel from the White Nile River (∼0.36), which has a Precambrian catchment of dominantly granites and gneisses and passes through several saline zones, is higher than that from the Blue Nile River, whose catchment is the Neogene volcanic Ethiopian Highland (MgO/Na2O∼0.22). Thus, particularly MgO/Na2O might be a sensitive fingerprint for environments where river and lake water have suffered strong evaporation. Enamel formation in mammals takes place at successive mineralization fronts within a confined chamber where ion and molecule transport is controlled by the surrounding enamel organ. During the secretion and maturation phases the epithelium generates different fluid composition, which in principle, should determine the final composition of enamel apatite. This is supported by co-linear relationships between MgO, Cl and Na2O which can be interpreted as binary mixing lines. However, if maturation starts after secretion is completed, the observed element distribution can only be explained by equilibration of existing and addition of new apatite during maturation. It appears the initial enamel crystallites precipitating during secretion and the newly formed bioapatite crystals during maturation equilibrate with a continuously evolving fluid. During crystallization of bioapatite the enamel fluid becomes continuously depleted in MgO and Na2O, but enriched in Cl which results in the formation of MgO, and Na2O-rich, but Cl-poor bioapatite near the EDJ and MgO- and Na2O-poor, but Cl-rich bioapatite at the outer enamel rim. The linkage between lake and river water compositions, bioavailability of elements for plants, animal nutrition and tooth formation is complex and multifaceted. The quality and limits of the MgO/Na2O and other proxies have to be established with systematic investigations relating chemical distribution patterns to sedimentary environment and to growth structures developing as secretion and maturation proceed during tooth formation.
Fibroblast growth factor receptor substrate 2 (FRS2α) is a signaling adaptor protein that regulates downstream signaling of many receptor tyrosine kinases. During signal transduction, FRS2 can be both tyrosine and threonine phosphorylated and forms signaling complexes with other adaptor proteins and tyrosine phosphatases. We have here identified flotillin-1 and the cbl-associated protein/ponsin (CAP) as novel interaction partners of FRS2. Flotillin-1 binds to the phosphotyrosine binding domain (PTB) of FRS2 and competes for the binding with the fibroblast growth factor receptor. Flotillin-1 knockdown results in increased Tyr phosphorylation of FRS2, in line with the inhibition of ERK activity in the absence of flotillin-1. CAP directly interacts with FRS2 by means of its sorbin homology (SoHo) domain, which has previously been shown to interact with flotillin-1. In addition, the third SH3 domain in CAP binds to FRS2. Due to the overlapping binding domains, CAP and flotillin-1 appear to compete for the binding to FRS2. Thus, our results reveal a novel signaling network containing FRS2, CAP and flotillin-1, whose successive interactions are most likely required to regulate receptor tyrosine kinase signaling, especially the mitogen activated protein kinase pathway.
The development of insecticides requires valid risk assessment procedures to avoid causing harm to beneficial insects and especially to pollinators such as the honeybee Apis mellifera. In addition to testing according to current guidelines designed to detect bee mortality, tests are needed to determine possible sublethal effects interfering with the animal's vitality and behavioral performance. Several methods have been used to detect sublethal effects of different insecticides under laboratory conditions using olfactory conditioning. Furthermore, studies have been conducted on the influence insecticides have on foraging activity and homing ability which require time-consuming visual observation. We tested an experimental design using the radiofrequency identification (RFID) method to monitor the influence of sublethal doses of insecticides on individual honeybee foragers on an automated basis. With electronic readers positioned at the hive entrance and at an artificial food source, we obtained quantifiable data on honeybee foraging behavior. This enabled us to efficiently retrieve detailed information on flight parameters. We compared several groups of bees, fed simultaneously with different dosages of a tested substance. With this experimental approach we monitored the acute effects of sublethal doses of the neonicotinoids imidacloprid (0.15–6 ng/bee) and clothianidin (0.05–2 ng/bee) under field-like circumstances. At field-relevant doses for nectar and pollen no adverse effects were observed for either substance. Both substances led to a significant reduction of foraging activity and to longer foraging flights at doses of ≥0.5 ng/bee (clothianidin) and ≥1.5 ng/bee (imidacloprid) during the first three hours after treatment. This study demonstrates that the RFID-method is an effective way to record short-term alterations in foraging activity after insecticides have been administered once, orally, to individual bees. We contribute further information on the understanding of how honeybees are affected by sublethal doses of insecticides.
Die vorliegende Arbeit beschäftigt sich mit der zeitstetigen Portfoliooptimierung sowie mit Themen aus dem Bereich des Kreditrisikos. Das Ziel der Portfoliooptimierung ist es, zu einem gegebenen Anfangskapital die bestmöglichen Konsum- und Investmentstrategien zu finden. In dieser Arbeit wird dabei vor allem der Einfluss von Einkommen auf diese Entscheidungen untersucht. Da einerseits jedoch der zukünftige Einkommensstrom vom Zufall bestimmt ist und es andererseits keine Finanzprodukte gibt, die diesen replizieren können, stellt die Einbindung von Einkommen in die Portfoliooptimierung ein großes Problem dar. Es führt dazu, dass die Annahmen eines vollständigen Marktes nicht weiter gelten, so dass die Standardmethoden zur Lösung nicht angewendet werden können. Diese Arbeit analysiert mehrere Ausprägungen dieses Problems und geht auf verschiedene Verfahren zur Lösung ein. Weiterhin untersucht diese Studie den Einfluss des Kreditrisikos einer Firma auf die jeweilige Firmenrendite. Dabei wird vor allem auf eine Anomalie, die bereits umfassend in der Literatur diskutiert wurde, Bezug genommen. Diese Anomalie besagt, dass Firmen mit hohen Ausfallwahrscheinlichkeiten geringere Renditen erwirtschaften als Firmen mit kleineren Ausfallwahrscheinlichkeiten. Eine weitere Frage, die in den Bereich des Kreditrisikos fällt, ist die Frage, inwieweit Modelle dazu in der Lage sind, strukturierte Produkte zu bewerten und abzusichern. Diese Arbeit versucht Antworten darauf zu geben.
The objective of this work is twofold. First, we explore the performance of the density functional theory (DFT) when it is applied to solids with strong electronic correlations, such as transition metal compounds. Along this direction, particular effort is put into the refinement and development of parameterization techniques for deriving effective models on a basis of DFT calculations. Second, within the framework of the DFT, we address a number of questions related to the physics of Mott insulators, such as magnetic frustration and electron-phonon coupling (Cs2CuCl4 and Cs2CuBr4), high-temperature superconductivity (BSCCO) and doping of Mott insulators (TiOCl). In the frustrated antiferromagnets Cs2CuCl4 and Cs2CuBr4, we investigate the interplay between strong electronic correlations and magnetism on one hand and electron-lattice coupling on the other as well as the effect of this interplay on the microscopic model parameters. Another object of our investigations is the oxygen-doped cuprate superconductor BSCCO, where nano-scale electronic inhomogeneities have been observed in scanning tunneling spectroscopy experiments. By means of DFT and many-body calculations, we analyze the connection between the structural and electronic inhomogeneities and the superconducting properties of BSCCO. We use the DFT and molecular dynamic simulations to explain the microscopic origin of the persisting under doping Mott insulating state in the layered compound TiOCl.
This paper considers the logic FOcard, i.e., first-order logic with cardinality predicates that can specify the size of a structure modulo some number. We study the expressive power of FOcard on the class of languages of ranked, finite, labelled trees with successor relations. Our first main result characterises the class of FOcard-definable tree languages in terms of algebraic closure properties of the tree languages. As it can be effectively checked whether the language of a given tree automaton satisfies these closure properties, we obtain a decidable characterisation of the class of regular tree languages definable in FOcard. Our second main result considers first-order logic with unary relations, successor relations, and two additional designated symbols < and + that must be interpreted as a linear order and its associated addition. Such a formula is called addition-invariant if, for each fixed interpretation of the unary relations and successor relations, its result is independent of the particular interpretation of < and +. We show that the FOcard-definable tree languages are exactly the regular tree languages definable in addition-invariant first-order logic. Our proof techniques involve tools from algebraic automata theory, reasoning with locality arguments, and the use of logical interpretations. We combine and extend methods developed by Benedikt and Segoufin (ACM ToCL, 2009) and Schweikardt and Segoufin (LICS, 2010).