Refine
Year of publication
- 2012 (2663) (remove)
Document Type
- Article (1050)
- Part of Periodical (406)
- Book (235)
- Part of a Book (184)
- Conference Proceeding (165)
- Doctoral Thesis (164)
- Report (133)
- Review (125)
- Working Paper (87)
- Contribution to a Periodical (40)
Language
- German (1366)
- English (1195)
- Portuguese (44)
- French (18)
- Multiple languages (16)
- Spanish (11)
- Italian (8)
- Croatian (2)
- dut (1)
- Norwegian Bokmål (1)
Keywords
- Literatur (56)
- Deutsch (53)
- Rilke, Rainer Maria (27)
- Lyrik (18)
- Begriffsgeschichte <Fach> (17)
- Freud, Sigmund (17)
- Rezension (17)
- Übersetzung (17)
- Deutschland (16)
- Pasolini, Pier Paolo (16)
Institute
- Medizin (269)
- Gesellschaftswissenschaften (151)
- Präsidium (148)
- Rechtswissenschaft (143)
- Physik (117)
- Biowissenschaften (93)
- Biochemie und Chemie (88)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (82)
- Wirtschaftswissenschaften (75)
- Geschichtswissenschaften (66)
Diatoms contribute largely to the total primary production of the ecosphere and are key players in global biogeochemical cycles. Their chloroplasts are surrounded by four membranes owing to their secondary endosymbiotic origin. Their thylakoids are arranged into three parallel bands and differentiation of thylakoid membranes into grana or stroma is not observed. The fucoxanthin chlorophyll a/c binding proteins act as the light harvesting proteins and play a role in photoprotection during excess light as well. The diatom genome encodes three different families of antenna proteins. Family I are the classical light harvesting proteins called "Lhcf". Family II are the red algae related Lhca-R1/2 proteins called "Lhcr" and family III are the photoprotective LI818 related proteins called "Lhcx".
All known Fcps have a molecular weight in the range of 17-23 kDa. They are membrane proteins and have shorter loops and termini compared to LHCs of higher plants and are therefore extremely hydrophobic. This makes the isolation of single specific Fcps using routine protein purification techniques difficult.
The purification of a specific Fcp containing complex has not been achieved so far and until this is done several questions concerning light harvesting antenna systems of diatoms cannot be answered. For e.g. Which proteins interact specifically? Are various Fcps differently pigmented? Which pigments interact with each other and how? Which proteins contribute to photosystem specific antenna systems? Can pure Fcps be reconstituted into crystals like LHCII proteins? In order to answer these questions specific Fcp containing complexes have to be purified. ...
Untersuchung von Korrelationseffekten in der Doppelphotoemission von normal- und supraleitendem Blei
(2012)
Im Rahmen dieser Arbeit wurde für die erstmalige Untersuchung der Doppelphotoemission von supraleitenden Materialien eine neue Messapparatur aufgebaut. Mit ihr lassen sich auf eine neue Weise Korrelationseffekte zwischen zwei Elektronen untersuchen, denn beide werden für jedes Reaktionsereignis mit ihrem vollständigen Impulsvektor aufgezeichnet. Die Apparatur kann daher für einen direkten Nachweis der Cooperpaarung in Supraleitern verwendet werden. Dazu wurden ein speziell für diesen Zweck angepasstes Spektrometer, Vakuumsystem und Probenhalter konstruiert. Ein mehrfach verbessertes Vakuumsystem sorgte dafür, dass eine Bleioberfläche über einen Zeitraum von mindestens 15 Stunden nach einer Reinigung gemessen werden konnte. Das Spektrometer erlaubte die koinzidente Messung von Elektronen über einen großen Raumwinkelbereich mit ausschließlich elektrischen Feldern. Dadurch war es auch im supraleitenden Zustand möglich, die Trajektorien der Elektronen zu berechnen. Die Energieauflösung für jedes Elektron lag zwischen 1/30 und 1/50, je nach untersuchtem Emissionswinkel. Ein eigens entwickelter Probenhalter erlaubte es, eine nur von einer Seite thermisch abgeschirmte Probe auf eine Temperatur von 4,5 K zu kühlen. Die Experimente wurden an einer Beamline des Berliner Synchrotrons BESSY durchgeführt.
Von entscheidender Bedeutung für die Auswertung der Daten ist die Qualität der Pulserkennungsroutine. Sie bestimmt die Totzeit der Messapparatur, das heisst wie nahe zwei Elektronen zeitlich und räumlich beieinander liegen dürfen, um noch detektiert zu werden. Sie beeinflusst somit die Beobachtung erheblich. In den als digitalisierte Pulse aufgenommen Rohdaten besteht die Schwierigkeit darin, zwei übereinander liegende Signale als solche zu erkennen und die richtige Zeit beider Signale zu bestimmten. Dies wurde erheblich verbessert, indem ein in Vorabeiten simulierter Doppelpulsalgorithmus modifiziert und erstmalig verwendet wurde. In der Folge konnte die Totzeit deutlich verringert und daher bis zu 20% mehr Doppelereignisse gefunden werden. Darüber hinaus ließen sich Fehler bei der Zeiterkennung nahe aufeinander folgender Pulse korrigieren. Ein in diesem Zusammenhang entwickeltes Programm erzeugte durch die Addition von gemessenen Einzelpulsen künstliche Doppelereignisse mit beliebiger Abstandsverteilung und erlaubte so erstmals eine exakte Simulation der Detektortotzeit mit verschiedenen Pulserkennungsalgorithmen.
Neben den Koinzidenzereignissen wurden auch die Ergebnisse der gewöhnlichen Photoemission untersucht und mit Bandstrukturrechnungen verglichen. Aufgrund der Messmethode wurde keine Vorauswahl bezüglich des Emissionswinkels oder der kinetischen Energie getroffen. Die Ergebnisse der Fermiflächen stimmen innerhalb der erreichten Auflösung mit den theoretischen Vorhersagen überein. Ebenso konnten die Strukturen in den Parallelimpulsspektren der Elektronen, die aus lokalisierten Energieniveaus emittiert wurden, mit der Interferenz der ausgehenden Wellenfunktionen erklärt werden. Eine Simulation dieses Effekts lieferte trotz der vergleichsweise sehr niedrigen Elektronenenergien eine gute Übereinstimmung der wesentlichen Merkmale.
Es wurden Doppelphotoemissionspektren von Blei bei verschiedenen Photonenenergien im Bereich von 21,22 eV bis 40 aufgenommen. Dabei konnten verschiedene Emissionskanäle identifiziert werden. Das Korrelationsloch ist ein sehr grundlegender Effekt, der aufgrund der Coulombabstoßung und des Pauli-Prinzips auftritt und daher bei allen Metallen vorkommt. Betrachtet man das Korrelationsloch im Impulsraum, so führt es dazu, dass zwei gleichzeitig emittierte Elektronen keine ähnlichen Impulsvektoren besitzen dürfen. Durch die verbesserten Pulserkennungsalgorithmen war es möglich, das Korrelationsloch zu untersuchen und über einen weiten Energiebereich zu vermessen. Es zeigte sich wie erwartet als Verarmungszone in der Impulsverteilung eines Elektrons um den Impuls eines zweiten. Ein solcher Effekt ist mit einem einzelnen Detektor sehr schwer zu messen, da die Totzeit die gleiche Auswirkung auf die Spektren hat. Durch eine Simulation konnte ihr Einfluss in jedem Spektrum herausgefunden und so beide Effekte voneinander getrennt werden. Sie stehen damit für einen Vergleich mit einer noch zu entwickelnden theoretischen Vorhersage zur Verfügung.
Aufgrund der bei Blei sehr nahe an der Fermikante liegenden, lokalisierten Energieniveaus konnte der Augerzerfall aus dem Valenzband identifiziert und untersucht werden. Korrelationseffekte zwischen den beiden Elektronen spielten aufgrund des sehr breiten Valenzbandes wie erwartet eine untergeordnete Rolle. Dies ließ sich nachweisen, indem die Energieverteilung durch eine Selbstfaltung der Valenzbandzustandsdichte beschrieben wurde und die Winkelverteilung der Augerelektronen keine Beeinflussung durch die Emissionsrichtung der Photoelektronen zeigte. Beide Beobachtungen deuten auf einen vollständig unabhängigen Emissionsprozess der beiden Elektronen hin. Überraschenderweise zeigte sich aber eine Energieverschiebung des Photoelektrons, abhängig von der kinetischen Energie des Augerelektrons. Dieser in der Gasphase als Post-Collision-Interaction bekannte Effekt sollte aufgrund der schnellen Abschirmung der im Festkörper zurückbleibenden Löcher nicht auftauchen. Die Ursache für die Energieverschiebung ist noch unbekannt.
Für die Identifizierung der Emission von Cooperpaaren wurden Messungen oberhalb und unterhalb der Sprungtemperatur bei verschiedenen Photonenenergien zwischen 20 eV und 40 eV durchgeführt. Verschiedene Spektren wurde nach der Signatur des Prozesses untersucht. Aufgrund der geringen Statistik konnte er nicht identifiziert werden. Demnach konnte auch die theoretische Vorhersage nicht widerlegt werden. Da dieses Experiment aus technischer Sicht äußerst herausfordernd ist, war die Untersuchung von Blei, als einfach zu präparierendes Material mit hoher Sprungtemperatur, naheliegend. Es stellte sich jedoch durch die Auswertung heraus, dass es im Hinblick auf die untersuchte Fragestellung einen wesentlichen Nachteil besitzt. Die Hauptintensität befindet sich im Gegensatz zu Kupfer für alle hier verwendeten Photonenenergien bei niedrigen Elektronenenergien, so dass nur wenige Ereignisse in dem für die Cooperpaaremission interessanten Energiefenster liegen.
Introduction: Erectile dysfunction (ED) is common in men with systemic sclerosis (SSc) but the demographics, risk factors and treatment coverage for ED are not well known.
Method: This study was carried out prospectively in the multinational EULAR Scleroderma Trial and Research database by amending the electronic data-entry system with the International Index of Erectile Function-5 and items related to ED risk factors and treatment. Centres participating in this EULAR Scleroderma Trial and Research substudy were asked to recruit patients consecutively.
Results: Of the 130 men studied, only 23 (17.7%) had a normal International Index of Erectile Function-5 score. Thirty-eight per cent of all participants had severe ED (International Index of Erectile Function-5 score ≤ 7). Men with ED were significantly older than subjects without ED (54.8 years vs. 43.3 years, P < 0.001) and more frequently had simultaneous non-SSc-related risk factors such as alcohol consumption. In 82% of SSc patients, the onset of ED was after the manifestation of the first non-Raynaud's symptom (median delay 4.1 years). ED was associated with severe cutaneous, muscular or renal involvement of SSc, elevated pulmonary pressures and restrictive lung disease. ED was treated in only 27.8% of men. The most common treatment was sildenafil, whose efficacy is not established in ED of SSc patients.
Conclusions: Severe ED is a common and early problem in men with SSc. Physicians should address modifiable risk factors actively. More research into the pathophysiology, longitudinal development, treatment and psychosocial impact of ED is needed.
Background: In Emergency and Medical Admission Departments (EDs and MADs), prompt recognition and appropriate infection control management of patients with Highly Infectious Diseases (HIDs, e.g. Viral Hemorrhagic Fevers and SARS) are fundamental for avoiding nosocomial outbreaks.
Methods: The EuroNHID (European Network for Highly Infectious Diseases) project collected data from 41 EDs and MADs in 14 European countries, located in the same facility as a national/regional referral centre for HIDs, using specifically developed checklists, during on-site visits from February to November 2009.
Results: Isolation rooms were available in 34 facilities (82,9%): these rooms had anteroom in 19, dedicated entrance in 15, negative pressure in 17, and HEPA filtration of exhausting air in 12. Only 6 centres (14,6%) had isolation rooms with all characteristics. Personnel trained for the recognition of HIDs was available in 24 facilities; management protocols for HIDs were available in 35.
Conclusions: Preparedness level for the safe and appropriate management of HIDs is partially adequate in the surveyed EDs and MADs.
Background: Hepatitis C decreases health related quality of life (HRQL) which is further diminished by antiviral therapy. HRQL improves after successful treatment. This trial explores the course of and factors associated with HRQL in patients given individualized or standard treatment based on early treatment response (Ditto-study).
Methods: The Short Form (SF)-36 Health Survey was administered at baseline (n = 192) and 24 weeks after the end of therapy (n = 128).
Results: At baseline HRQL was influenced by age, participating center, severity of liver disease and income. Exploring the course of HRQL (scores at follow up minus baseline), only the dimension general health increased. In this dimension patients with a relapse or sustained response differed from non-responders. Men and women differed in the dimension bodily pain. Treatment schedule did not influence the course of HRQL.
Conclusions: Main determinants of HRQL were severity of liver disease, age, gender, participating center and response to treatment. Our results do not exclude a more profound negative impact of individualized treatment compared to standard, possibly caused by higher doses and extended treatment duration in the individualized group. Antiviral therapy might have a more intense and more prolonged negative impact on females.
Background: Europe was certified to be polio-free in 2002 by the WHO. However, wild polioviruses remain endemic in India, Pakistan, Afghanistan, and Nigeria, occasionally causing polio outbreaks, as in Tajikistan in 2010. Therefore, effective surveillance measures and vaccination campaigns remain important. To determine the poliovirus immune status of a German study population, we retrospectively evaluated the seroprevalence of neutralizing antibodies (NA) to the poliovirus types 1, 2 and 3 (PV1, 2, 3) in serum samples collected from 1,632 patients admitted the University Hospital of Frankfurt am Main, Germany, in 2001, 2005 and 2010.
Methods: Testing was done by using a standardized microneutralization assay.
Results: Level of immunity to PV1 ranged between 84.2% (95%CI: 80.3-87.5), 90.4% (88.3-92.3) and 87.5% (85.4-88.8) in 2001, 2005 and 2010. For PV2, we found 90.8% (87.5-90.6), 91.3% (89.3-93.1) and 89.8% (88.7-90.9), in the same period. Seroprevalence to PV3 was 76.6% (72.2-80.6), 69.8% (66.6-72.8) and 72.9% (67.8-77.5) in 2001 and 2005 and 2010, respectively. In 2005 and 2010 significant lower levels of immunity to PV3 in comparison to PV1 and 2 were observed. Since 2001, immunity to PV3 is gradually, but not significantly decreasing.
Conclusion: Immunity to PV3 is insufficient in our cohort. Due to increasing globalization and worldwide tourism, the danger of polio-outbreaks is not averted - even not in developed countries, such as Germany. Therefore, vaccination remains necessary.
Background: Ewing sarcoma patients have a poor prognosis despite multimodal therapy. Integration of combination immunotherapeutic strategies into first-/second-line regimens represents promising treatment options, particularly for patients with intrinsic or acquired resistance to conventional therapies. We evaluated the susceptibility of Ewing sarcoma to natural killer cell-based combination immunotherapy, by assessing the capacity of histone deacetylase inhibitors to improve immune recognition and sensitize for natural killer cell cytotoxicity.
Methods: Using flow cytometry, ELISA and immunohistochemistry, expression of natural killer cell receptor ligands was assessed in chemotherapy-sensitive/-resistant Ewing sarcoma cell lines, plasma and tumours. Natural killer cell cytotoxicity was evaluated in Chromium release assays. Using ATM/ATR inhibitor caffeine, the contribution of the DNA damage response pathway to histone deacetylase inhibitor-induced ligand expression was assessed.
Results: Despite comparable expression of natural killer cell receptor ligands, chemotherapy-resistant Ewing sarcoma exhibited reduced susceptibility to resting natural killer cells. Interleukin-15-activation of natural killer cells overcame this reduced sensitivity. Histone deacetylase inhibitor-pretreatment induced NKG2D-ligand expression in an ATM/ATR-dependent manner and sensitized for NKG2D-dependent cytotoxicity (2/4 cell lines). NKG2D-ligands were expressed in vivo, regardless of chemotherapy-response and disease stage. Soluble NKG2D-ligand plasma concentrations did not differ between patients and controls.
Conclusion: Our data provide a rationale for combination immunotherapy involving immune effector and target cell manipulation in first-/second-line treatment regimens for Ewing sarcoma.
Much is known about the computation in individual neurons in the cortical column. Also, the selective connectivity between many cortical neuron types has been studied in great detail. However, due to the complexity of this microcircuitry its functional role within the cortical column remains a mystery. Some of the wiring behavior between neurons can be interpreted directly from their particular dendritic and axonal shapes. Here, I describe the dendritic density field (DDF) as one key element that remains to be better understood. I sketch an approach to relate DDFs in general to their underlying potential connectivity schemes. As an example, I show how the characteristic shape of a cortical pyramidal cell appears as a direct consequence of connecting inputs arranged in two separate parallel layers.
The small bowel is essential to sustain alimentation and small bowel Crohn's disease (CD) may severely limit its function. Small bowel imaging is a crucial element in diagnosing small
bowel CD, and treatment control with imaging is increasingly used to optimize the patients outcome. Thereby, capsule endoscopy, Balloon-assisted enteroscopy, and Magnetic resonance imaging have become key players to manage CD patients. In this review, role of small bowel imaging is detailed discussed for use in diagnosing and managing Crohn's disease patients.
Editorial : Andreas Dombret "Regulating Systemically Important Financial Institutions is Vitally Important" ; Research Money/Macro : Dimitris Christelis, Dimitris Georgarakos, Michael Haliassos "International Portfolio Differences: Environment versus Characteristics" ; Research Finance : Raimond Maurer, Ralph Rogalla, Yuanyuan Shen "Optimal Asset Allocation in Retirement with Open-end Real Estate Funds" ; Research Law : Theodor Baums "Shareholder Suits in German Company Law – An Empirical Study" ; Policy Platform : Helmut Siekmann, Patrick Tuschl "Constitutional Ruling on Court of Auditors' Review of Banks" ; Interview : Michael S. Barr "Information Does not Necessarily Lead to Understanding"
Around 1800, aesthetic debate suddenly places music at the very top in the hierarchy of the arts, even superseding poetry: This has become a commonplace not only in scholarly discourse. The protagonists of this re-arrangement of the artistic disciplines are Wilhelm Heinrich Wackenroder, E.T.A. Hoffmann and Ludwig Tieck. In their programmatic texts, they state that music is to be free and absolute and stress its metaphysical quality and its close relation to the supernatural. Furthermore, music is supposed to be no longer dependent on the other arts, and music releases the listener or the musician from prosaic everyday life. As Wackenroder writes in Die Wunder der Tonkunst, […] [a]ll sickening thoughts which, according to Wackenroder, are the illness of mankind vanish with a piece of music, making our mind sane again. Literary romanticism here recurs to a long tradition that reaches back to the classical ages in Greece and Arabia: Music is used as a remedy for curing illnesses of various kinds. In classical antiquity, Apollo is the god of music, poetry and dancing as well as the god of healing. He was also named “Iatros” (physician) or Apollo Medicus. […] Orpheus as a bard and demigod was also said to be capable of curing diseases by means of his music. […] Thus, music in history is part of treating physical illness on the one hand, but on the other hand is more and more considered to provide a remedy especially for mental deficiencies. Music is meant to improve nervous disorders and sometimes it is even prescribed as a regular medicine. As we will see in Hoffmann’s text Die Genesung, there is a connection between the ritual healing processes in the temples of Aesculapius and the setting of the forest in which the old man regains his health.
Eine der primären Aufgaben nicht nur der Komparatistik, sondern der Literaturwissenschaft im Allgemeinen sollte es sein, Literatur als ein globales Phänomen zu erfassen und zu beschreiben. Manifestiert sich der globale Charakter von Literatur auch am augenscheinlichsten im Rahmen einer Poetik der imitatio in motivischer, thematischer und gattungsgeschichtlicher Hinsicht, so besteht er dennoch auch dann, wenn bestimmte Techniken eine internationale Präsenz besitzen. Dies gilt beispielsweise für die Konkrete Poesie, deren Funktion als einer der Katalysatoren der Globalität von Literatur im Folgenden erläutert wird.
Konkrete Poesie ist per se ein internationales Phänomen, oder wie Eugen Gomringer es formuliert hat: „die konkrete poesie […] ist einer der konsequentesten versuche, poesie inter- und übernational zu begründen.“ Zunächst müssen wir – im Sinne wissenschaftlicher Eindeutigkeit – zwischen einem engeren und einem weiteren Begriff der Konkreten Poesie unterscheiden. Die Konkrete Poesie im engeren Sinne meint eine seit den 1970er Jahren historisch gewordene Dichtung. Ihre ‘Geburtsstunde’ lässt sich zu Recht als „transatlantic baptism“ , nämlich durch Eugen Gomringer und Décio Pignatari in der Hochschule für Gestaltung im Jahre 1955 in Ulm, bezeichnen. In den frühen 1950er Jahren sowohl in Deutschland als auch Brasilien entstanden, findet sie Aufnahme in fast allen europäischen Ländern, Nordamerika und Japan. Im Folgenden soll der Begriff der Konkreten Poesie jedoch nicht in diesem unnötig eingeschränkten historischen Sinn gebraucht werden, sondern in einem sehr viel umfassenderen Sinn: Er ist all jenen Gedichten vorbehalten, in denen eine Transpa-renz des Zeichengebrauchs nicht gegeben ist, sondern stattdessen die Materialität der jeweils eingesetzten Zeichen im Vordergrund steht, wie dies auf ähnliche Weise schon im Futurismus und Dadaismus betrieben wurde, bevor der Surrealismus diesen Experimenten ein jähes Ende bereitet hat. Gilt dies auch für die Bereiche der Lautdichtung, der Gedichtobjekte u. ä., so beschränken sich die folgenden Ausführungen auf den visuellen Bereich, und zwar auf visuelle Konkrete Poesie nach 1945, zumal in der Dichtung aus dieser Zeit eine starke Tendenz zu konkretistischen Verfahrensweisen herrscht.
„Die Lose ähneln sich, die Odysseen“. Dieser Vers Ingeborg Bachmanns aus ihrem Gedicht Von einem Land, einem Fluss und den Seen behauptet, die Irrfahrten und Schicksale der vielen Odysseus-Gestalten seien einander ähnlich. Wenn sich aber die Schicksale und Heimkehrreisen der Umherwandernden ähneln, dann könnten sich auch ihre literarischen Werke ähnlich sein. Ausgehend von dieser Vermutung sollen im folgenden Beitrag zwei große Lyriker des 20. Jahrhunderts gegenübergestellt werden, die sich mit der Frage des Exils und seiner Überwindung beschäftigt haben: die Österreicherin Ingeborg Bachmann und der Iraker Sa'dī Yūsuf. Zwar gehören beide unterschiedlichen Sprachräumen und Literaturtraditionen an. Zugleich sind sie aber aus diesen Räumen ausgebrochen, um neue geografische, sprachliche und gedankliche (W)orte zu erkunden, die keine fest umrissenen Grenzen mehr kennen. Darüber hinaus haben sie in ihren Texten auf ähnliche Weise Untergänge und Auferstehungen inszeniert, die meines Erachtens den Erfahrungen ihres Exils entspringen. Ihre Sichtweisen auf das Eigene und Fremde fordern uns auf, unseren eigenen Blick in einer Zeit zunehmenden und zugleich konfliktreicheren Zusammenlebens zu öffnen und zu hinterfragen.
Deutsch im Kreis Schanfigg
(2012)
In dieser Arbeit wird unter Schanfigg nach Kessler "Schanfigg im weitern Sinne" verstanden, d.h. die Dörfer des politischen Kreises Schanfigg [...]. Da Dialekte im Gegensatz zu Hochsprachen nicht-normierte Sprachvarietäten darstellen, zeichnen sich die Ortsgrammatiken durch eine jeweils enorme Formenvielfalt in lautlicher und in morphologischer Hinsicht aus. Dies war denn auch eines der Ziele der Untersuchung: Mit Hilfe der Prager Phonologie und der auf ihr beruhenden Morphologie sollte aufgezeigt werden, wie groß die allophonische und allomorphische Bandbreite ist, derer sich die Sprecher im Gespräch unbewußt bedienen. Sehr schön läßt sich dies anhand der Verbalmorphologie bei den unregelmäßigen Verben (Kurzverben) aufzeigen. Ein weiteres Ziel der Untersuchung war es, die Stellung der Ortsdialekte des Schanfiggs und ihres Gesamts, also das Schanfigger Diasystem, innerhalb der dem Schanfigg benachbarten Mundarten darzustellen. Idealerweise hätten das Prättigau, das Churwaldner Tal und die Churer bzw. Churerrheintaler Mundarten herangezogen werden müssen. Da aber leider keine Untersuchungen zu den Verhältnissen im Prättigau und im Churwaldner Tal vorhanden sind, wurden die Schanfigger Verhältnisse mit denjenigen der Stadt Chur (vgl. Eckhardt 1991) und des Deutschen im Bezirk Imboden (vgl. Toth und Ebneter 1996) verglichen.
Sedimentbilanzen haben sich als Methode zur Quantifizierung von Sedimentflüssen in Raum und Zeit in den Geowissenschaften etabliert. Sie eröffnen die Möglichkeit, differenzierte Aus¬sagen über die Erosions- und Sedimentationsdynamik von Einzugsgebieten zu treffen. Ziel der vorliegenden Arbeit ist es, die holozäne Erosions- und Sedimentationsentwicklung im mesoskaligen Mittelgebirgseinzugsgebiet des Speyerbachs im Pfälzerwald zu erfassen, und räumlich und zeitlich möglichst differenziert darzulegen. Um Langzeit-Sedimentbilanzen für den Speyerbach zu berechnen wurden verfügbare Daten zum Boden, eine eigene Kartierung der Erosion und Sedimentation sowie eine intensive (OSL und 14C-) Datierung zweier Stand¬orte durchgeführt. Die Sedimente wurden durch eine direkte Kartierung erfasst. Die Erosions¬tiefe errechnet sich aus der Subtraktion der aktuellen Mächtigkeit der Hauptlagen und der Parabraunerden vom initialen Zustand (= Berechnungsgrundlage).
Die Sedimentbilanz I basiert auf öffentlich zugänglichen bodenkundlichen Punkt- und Flächendaten und hat eine Erosion von ~27 Mio. m³ mit einem Einzugsgebiets-Sedimentaus¬tragsverhältnis (CSDR) von 31,5 % ergeben. Die Sensitivitätsanalyse belegt eine hohe Abhängigkeit des Ergebnisses von der Wahl der Berechnungsgrundlage. Aufgrund fehlender Daten sind eine höhere räumliche Auflösung sowie Aussagen zur zeitlichen Entwicklung nicht möglich.
Die Berechnung der Sedimentbilanz II erfolgte auf der Grundlage eigens erhobener Punkt- und Flächendaten, womit die Anwendung eines nested approach möglich wurde: Neben der Gesamtbilanz für den Speyerbach (sechste Strahler-Ordnung) wurden Bilanzen für Teilein¬zugsgebiete erster und vierter Strahler-Ordnung erstellt, anhand derer die Skalenabhängigkeit der Sedimentdynamik diskutiert werden konnte. Es wurden ~109 Mio. m³ und ein CSDR von 5 % errechnet und ebenfalls eine hohe Sensitivität gegenüber der Änderung der Erosionstiefen festgestellt.
Die erfolgreiche Datierung von periglazialen Deckschichten zweier Bodenprofile unterstützt die Ergebnisse der Landnutzungsrekonstruktion aus Literaturdaten und historischen Karten und zeigt, dass in den Tälchen erster Ordnung Erosion verstärkt in der Neuzeit stattfand. Nur in den lösslehmbeeinflussten Gebieten hat sich die Besiedlung im Frühmittelalter in der Ablagerung von Bodensedimenten abgebildet. Es wurden frühholozäne Umlagerungsprozesse am Hang identifiziert. Aufgrund der guten Datierungseigenschaften der sandigen periglazia¬len Lagen wäre das Untersuchungsgebiet geeignet, der Frage nach der Parallelisierung der frühholozänen Umlagerungen von Hangsedimenten mit Klimaschwankungen nachzugehen.
Die vorliegende Arbeit liefert mit den erstellten Sedimentbilanzen und der Darlegung der Landnutzungsverhältnisse ein regionales Beispiel für Mittelgebirgsräume im Rhein-Einzugs¬gebiet. Die mikro- bis mesoskaligen Ergebnisse folgen der generellen Tendenz anderer welt¬weiter Studien, wonach die Sedimentaustragsverhältnisse mit steigender Einzugsgebietsgröße abnehmen. Die Werte der Sedimentbilanz II liegen jedoch deutlich unter denen der Lössge¬biete und belegen, dass sich die Zwischenspeicherung in der Mittelgebirgsregion höher ist. Die räumliche Differenzierung zeigt regionale Unterschiede, die auf der Zugänglichkeit, der administrativen Zugehörigkeit und die naturräumliche Ausstattung zurückzuführen sind. Arbeiten in anderen Sandsteinregionen Deutschlands sind derzeit im Gange und werden in Zukunft eine Einschätzung der vorliegenden Untersuchung zulassen.
Mit einer Prävalenz von rund 5% bildet das Hereditäre Nonpolypöse Kolorektalkarzinom (HNPCC), auch Lynch Syndrom genannt, die häufigste genetische Disposition unter allen Kolorektalkarzinomen in Deutschland. Das Lynch Syndrom wird autosomal-dominant vererbt und tritt im Schnitt bereits ab dem 44. Lebensalter auf, während die Mehrheit der Kolorektalkarzinome erst mit 63 Jahren diagnostiziert wird. Ein wichtiges Merkmal sind sogenannte HNPCC-assoziierte Malignome, welche sich außerhalb des Dickdarms befinden. Die Diagnose gestaltet sich allerdings relativ schwierig, da bei Lynch Syndrom-Patienten kein eindeutiger klinisch auffälliger Phänotyp vorliegt und die Diagnosestellung nur in Zusammenhang mit einer Familienanamnese des Patienten möglich ist.
Mittlerweile ist bekannt, dass für das charakteristische Auftreten von hochgradigen Mikrosatelliteninstabilitäten im Tumorgewebe ein defektes DNA-Mismatch-Reparatursystem verantwortlich ist. Diese Defekte treten vor allem in den Genen MLH1, MSH2, MSH6 oder PMS2 auf und können über die Keimbahn vererbt werden.
Das Fusionsprotein MLH1•ITGA9 wurde im Jahr 2009 publiziert, nachdem es bei einer Familie aus Französisch-Guyana gehäuft identifiziert wurde. Mehrere Familienmitglieder waren an unterschiedlichen Krebsarten erkrankt, und die Tatsache, dass neben Dickdarmtumoren auch synchrones und metachrones extrakolonisches Tumorwachstum auftrat, ließen den Schluss einer positiven Familienanamnese für das Lynch Syndrom zu. Auffällig war jedoch, dass das Spektrum dieser extrakolonischen Tumoren nicht im Einklang mit den typischen HNPCC-assoziierten Malignomen stand. Daher lag die Vermutung nahe, dass das Fusionsprotein MLH1•ITGA9 für diesen Phänotyp verantwortlich ist.
Das dem zugrundeliegende Fusionsgen MLH1•ITGA9 ist das Resultat einer interstitiellen Deletion auf Chromosom 3p21.3. Es kodiert für den N-Terminus des Mismatch-Reparaturgens MLH1 sowie den C-Terminus des rund 400 kb downstream gelegenen Integrin α9. Aufgrund der fehlenden nukleären Lokalisationssequenz und weiterer wichtiger im C-Terminus gelegenen Domänen des MLH1-Proteins ist davon auszugehen, dass es außer Stande ist, Basenfehlpaarungen zu reparieren; ebenso sollte das Fusionsprotein theoretisch keine Funktionen des Wildtyp Integrin α9 mehr ausüben können.
Diese Annahmen konnten durch diverse Versuche wie Zelladhäsions- und Zellmigrationsassays bestätigt werden; das Fusionsprotein hatte dabei keinerlei Einfluß auf das Adhäsions- oder Migrationsverhalten unterschiedlicher Zelllinien.
Bezüglich der Lokalisation von MLH1•ITGA9 wurde über Fluoreszenzmikroskopie aufgrund der fehlenden nuklären Lokalisationssequenz im MLH1-Proteinteil der Nachweis erbracht, dass sowohl das Fusionsprotein als auch seine Variante MLH1∆ (bestehend aus dem MLH1-Teil) lediglich im Zytoplasma, und nicht wie der Wildtyp auch im Zellkern, zu finden ist.
Desweiteren zeigten Co-Immunopräzipitationsexperimente eine Interaktion zwischen dem Fusionsprotein und MLH1∆ mit dem Tumorsuppressor BRCA1. Die Folgen dieser Interaktion wurden auf translationeller und Proteinebene mit dem Ergebnis untersucht, dass Zellen, welche das Fusionsprotein oder seine trunkierte Variante MLH1∆ exprimieren, nach Etoposidstimulierung teilweise in gravierendem Ausmaß einen negativen Einfluss auf die p53-abhängige DNA-Reparaturmaschinerie aufweisen. Dies zeigte sich besonders deutlich auf transkriptioneller Ebene in einer bis zu 96%igen Herunterregulierung wichtiger Zellzyklus- sowie proapoptotischer Gene. Die durchflusszytometrische Analyse dieser Zellen zeigte außerdem eine höhere Apoptoseresistenz nach Etoposidstimulierung im Vergleich zu Wildtyp-MLH1 exprimierenden Zellen.
Menschliche Aktivitäten beeinflussen beinahe alle Bereiche des Lebens auf der Erde (MEA 2005a; UNEP 2007). Die Zerstörung und Veränderung natürlicher Lebensräume sind als Hauptursache für den weltweiten Biodiversitätsverlust identifiziert (Harrison and Bruna 1999; Dale et al. 2000; Foley et al. 2005; MEA 2005a). Zusammen mit dem Klimawandel wird die Landnutzungsveränderung daher als einflussreichster Aspekt anthropogen verursachten globalen Wandels betrachtet (MEA 2005a). Landnutzungsveränderung schließt sowohl die Umwandlung natürlicher Habitate in Agrarland oder Siedlungen als auch die Landnutzungsintensivierung in bereits kultivierten Landschaften mit ein. Diese Veränderungen haben weitreichende Konsequenzen für die Artenvielfalt und resultieren häufig in dem Verlust von Arten mit zunehmender Intensität der Landnutzung (Scholes and Biggs 2005).
Biodiversität und Ökosysteme stellen viele verschiedene Funktionen zur Verfügung, wie z. B. die Sauerstoffproduktion, die Reinigung von Wasser und die Bestäubung von Nutzpflanzen.
Einige dieser Funktionen sind hilfreich, andere wichtig und wieder andere notwendig für das menschliche Wohlergehen (MEA 2005b; UNEP 2007). Mittlerweile sind Ökosystemfunktionen und die vielen Nutzen, die sie erbringen, zu einem zentralen Thema der interdisziplinären Forschung von Sozialwissenschaften und Naturwissenschaften geworden (Barkmann et al. 2008 und darin enthaltene Referenzen). Dadurch bedingt ist es zu einiger Verwirrung bezüglich der verwendeten Begriffe der "Ökosystemfunktion" (engl. "ecosystem function") und dem der "Ökosystemdienstleistung" (engl. "ecosystem service") gekommen (deGroot et al. 2002). Da der Fokus meiner Arbeit auf grundlegenden Funktionen von Ökosystemen liegt, verwende ich im Folgenden den Begriff der Ökosystemfunktion.
Für viele Ökosystemfunktionen ist noch sehr unzureichend bekannt, wie diese von externen Störungen beeinflusst werden (Kremen and Ostfeld 2005; Balvanera et al. 2006). Ökosystemfunktionen werden selten von nur einer einzigen Art aufrechterhalten, sondern meist von einer ganzen Reihe unterschiedlicher taxonomischer Gruppen – alle mit ihren ganz eigenen Ansprüchen. Diese Arten, wie auch deren intra- und interspezifischen Interaktionen, können durchaus nterschiedlich auf die gleiche Störungsquelle oder Störungsintensität reagieren. Dies kann Vorhersagen zum Verhalten von Ökosystemfunktionen extrem erschweren. ...
We provide a mathematical framework to model continuous time trading in limit order markets of a small investor whose transactions have no impact on order book dynamics. The investor can continuously place market and limit orders. A market order is executed immediately at the best currently available price, whereas a limit order is stored until it is executed at its limit price or canceled. The limit orders can be chosen from a continuum of limit prices.
In this framework we show how elementary strategies (hold limit orders with only finitely many different limit prices and rebalance at most finitely often) can be extended in a suitable
way to general continuous time strategies containing orders with infinitely many different limit prices. The general limit buy order strategies are predictable processes with values in the set of nonincreasing demand functions (not necessarily left- or right-continuous in the price variable). It turns out that this family of strategies is closed and any element can be approximated by a sequence of elementary strategies.
Furthermore, we study Merton’s portfolio optimization problem in a specific instance of this framework. Assuming that the risky asset evolves according to a geometric Brownian
motion, a proportional bid-ask spread, and Poisson execution times for the limit orders of the small investor, we show that the optimal strategy consists in using market orders to keep the
proportion of wealth invested in the risky asset within certain boundaries, similar to the result for proportional transaction costs, while within these boundaries limit orders are used to profit from the bid-ask spread.
Ende der 70ger Jahre, fünf Jahre nach der Einführung des ersten kommerziellen, medizinischen Computertomographen wurde die Tomographie am Los Alamos Scientific Laboratory zum ersten Mal für die Diagnose von Teilchenstrahlen angewendet. Bei der Tomographie wird aus eindimensionalen Projektionen, sogenannten Profilen, welche in möglichst vielen Winkeln um ein Objekt herum aufgenommen werden, ein zweidimensionales Abbild der Dichteverteilung (Slice oder Scheibe) approximiert. Dies ist möglich durch das bereits 1917 von Johann Radon eingeführte Fourier-Scheiben-Theorem. In der Theorie kann die zwei-dimensionale Dichteverteilung exakt ermittelt werden, wenn Projektionen mit einer unendlich feinen Auflösung über unendlich viele Winkel um ein Objekt herum in die Rekonstruktion einbezogen werden. Durch die Rekonstruktion vieler Scheiben kann ein drei-dimensionales Abbild der Dichteverteilung in einem Objekt, in diesem Fall einem Ionenstrahl, berechnet werden, sofern dieses nicht optisch dicht ist.
Die Profile in der nicht-invasiven Strahldiagnose entstehen durch CCD-Kameraaufnahmen von strahlinduzierter Fluoreszenz, welche durch den Einlass von Restgas hervorgerufen wird. Es sind aber auch Profile, welche aus anderen Methoden gewonnen werden (z.B. Gittermessungen) denkbar. An Orten mit hoher Energie ist jedoch eine nicht-invasive Form der Profilaufnahme sowohl für die Qualität des Strahls, wie auch den Schutz der Messgeräte unabdingbar.
In den letzten 40 Jahren wurden im Bereich der Strahltomographie viele wichtige Fortschritte erzielt:
1. Anfangs standen nur sehr wenige Profile zur Verfügung, so dass die Methode der gefilterten Rückprojektion(FBP), welche sich direkt aus dem Fourier-Scheiben-Theorem ableitet und welches auch in der Medizin verwendet wird, nicht angewendet werden kann. Um dieses Problem zu lösen wurden iterative Methoden wie die Algebraische Rekonstruktion (ART) und die Methode der Maximalen Entropie (MEM) für die Strahltomographie erschlossen, so dass auch mit sehr geringer Profilanzahl eine Rücktransformation möglich wurde.
2. Neben der Ortsraumtomographie wurde die Phasenraumtomografie entwickelt, so dass mittlerweile eine Rekonstruktion des sechs-dimensionalen Phasenraumes möglich ist, mit welchem ein Ionenstrahl in seiner Gesamtheit beschrieben werden kann.
3. Die Projektionen wurden lange Zeit durch Aufnahmen von mehreren festen Anschlüssen aus gewonnen (Multi-Port-Technik). Auf diese Weise ist die Anzahl der möglichen Projektionen sehr begrenzt. So entwickelte man später eine Methode welche den Strahl mit Hilfe von Quadrupolen dreht (Quad-Scan-Technik), so dass auf diese Weise von einem Anschluss aus viele Projektionen gemessen werden konnten, so dass sogar die FBP angewendet werden konnte.
4. Die meisten Bestrebungen zielten darauf ab, die Tomographie für eine nicht-invasive Emittanzmessmethode zu nutzen, welches bis heute aufgrund der großen und noch immer zunehmenden Energien in modernen Beschleunigern ein wichtiges Problem ist. Um die Tomographie zur Emittanzmessung zu verwenden, führt man eine Rekonstruktion des Phasenraumes durch. Das Problem ist, dass hierfür das a priori Wissen über die Strahltransportmatrix in die Tomographie mit einfließt, die berechnete Strahltransportmatrix
jedoch nicht mit dem tatsächlichen Strahltransport übereinstimmt, da dieser bei hohen Energien durch auftretende Raumladung nicht-linear verändert wird. Hierzu wurden gute Fortschritte in der Abschätzung der tatsächlichen Transportmatrix gemacht um die Phasenraumtomographie trotzdem mit hinreichend gutem Ergebnis durchführen zu können.
Trotz all dieser Fortschritte und Entwicklungen ist die Tomographie bis heute keine weitverbreitete Methode in der Strahldiagnose. Der Grund ist, dass das Einrichten einer Tomografie eine komplexe Abfolge etlicher Entscheidungen und weitgestreutes Wissen aus vielen unterschiedlichen Bereichen erfordert, dieser nicht zu unterschätzende Mehraufwand jedoch auch durch einen signifikanten Nutzen gerechtfertigt sein muss. Der große Nutzen der Tomographie für die Strahldiagnose und Untersuchung der Strahldynamik ist bis heute allerdings weitgehend unerkannt und weiterhin reduziert auf die Entwicklung einer nicht-invasiven Methode für die Emittanzbestimmung. Ein zweites Hindernis stellte bisher auch die Diskrepanz zwischen Genauigkeit und Platzaufwand dar (hohe Genauigkeit durch viele Projektionen mit Quad-Scan-Technik auf mehreren Metern oder niedrige Genauigkeit durch wenig Projektionen mit Multi-Port-Technik auf weniger als einem Meter). Die Tomografie kann großen Nutzen leisten für die Online-Überwachung wichtiger Maschineneparameter im Strahlbetrieb (Monitoring) als auch für detaillierte Analysen zur Strahldynamik (Modellierung) weit über die Implementierung einer nicht-invasiven Emittanzmessmethode hinaus.
Um dies zu gewährleisten Bedarf es Zweierlei. Zum einen muss die Diskrepanz zwischen Genauigkeit und Platzaufwand aufgehoben werden. Hierzu wurde im Rahmen dieser Arbeit eine rotierbare Vakuumkammer entwickelt die nach dem Vorbild medizinischer Tomographen in mehr als 5000 Winkelschritten um den Strahl herum fahren kann, dabei ein Vakuum von mindestens 10-7mbar aufrecht erhält und einen Platzbedarf von weniger als 400 mm in der Strahlstrecke einnimmt. Zum anderen muss die Implementierung der Tomografie durch eine Angabe von schematischen Schritten und Entscheidungen vereinfacht werden. Eine Strahltomographie muss immer auf ihren jeweiligen Zweck hin implementiert werden, da Einzelelemente der Tomografie wie beispielsweise Messvorrichtung und dadurch die Profilanzahl, zu verwendender Tomographiealgorithmus, zu bestimmende Parameter sich je nach Einsatz unterscheiden können. Jedoch können die dazu nötigen Entscheidungen in ein Schema eingeordnet werden, welches die Implementierung der Tomographie vereinfacht und beschleunigt. Hierzu wurde in dieser Arbeit eine Diagnosepipeline und ein Entscheidungsschema eingeführt, sowie die Implementierung nach diesem Schema am Beispiel einer Strahltomographie für die Frankfurter Neutronenquelle (FRANZ) demonstriert und die entsprechenden Fragen und Entscheidungen diskutiert. Es wird gezeigt, wie sich aus den Messdaten über die Aufbereitung der Daten durch die Tomografie die erforderlichen Standardstrahlparameter für ein Monitoring gewinnen lassen. Zusätzlich wird ein Ebenen-Modell eingeführt, über welches nicht-Standardparameter oder neu modellierte Strahlparameter für detaillierte Analysen der Strahldynamik über die Standardparameter hinaus entwickelt werden können. Diese Arbeit soll ein grundlegendes Konzept für die routinemäßige Implementierung der Tomographie in der Strahldiagnose zur Verfügung stellen. Für die Verwendung zum Monitoring im Strahlbetrieb muss die Bestimmung von Standardparametern noch wesentlich im Zeitaufwand verbessert werden. Die Verwendung der Phasenraumtomographie benötigt noch eine Idee um den arcustangensförmigen Verlauf der berechneten Phasenraumrotationswinkel mit der Forderung der FBP nach äquidistanten Projektionswinkeln verträglicher zu machen.
Übergeordnetes Ziel der Arbeit war die Synthese von Molekülen, die zur gezielten Funktionalisierung von Oberflächen dienen sollten. Dazu mussten jeweils Synthesewege inklusive geeigneter Schutzgruppenchemie sowie Reinigungsstrategien entwickelt werden. Im Rahmen dieser Zielsetzung wurde zunächst eine Anlage zur Gradientensublimation aufgebaut, mit der sich die Substanzen in sehr hoher Reinheit erhalten ließen.
Im Feldversuch von Future Fleet wurde einer Vielzahl von Fragestellungen nachgegangen. In
Bezug auf das Verkehrsverhalten und die Akzeptanz von Elektroautos standen folgende Forschungsfragen
im Vordergrund:
·Welches sind Faktoren für Attraktivität und Akzeptanz von Elektrofahrzeugen im Rahmen
einer betrieblichen Nutzung?
·Wie entwickelt sich das Verkehrsverhalten der Nutzerinnen und Nutzer?
·Wie wirken sich die veränderte Technik und Poolkonzepte auf das Verkehrsverhalten
und die Einstellungen der Nutzer/innen aus? Wie integrieren Nutzer und Nutzerinnen die
veränderten Eigenschaften in ihre Alltagsroutinen?
Es bestand ein sehr großes Interesse der SAP-Mitarbeiter/innen am Feldtest. Es konnte nur ein
Bruchteil der Interessierten am Feldtest teilnehmen. Zwei Nutzungsszenarien wurden entwickelt.
Das Szenario 1 "wochenweise Überlassung" für eine mehrtägige Nutzung der Elektrofahrzeuge
durch eine Person auf beruflichen und privaten Wegen. Das Szenario 2 "Dienstliche Nutzung
(Poolfahrzeug)" für Dienstfahrten von Mitarbeiterinnen und Mitarbeitern zu einem anderen Standort
oder Außenterminen. ...
Der Beitrag arbeitet d’Alemberts Absicht heraus, durch eine mathematisch begründete Wissensordnung, die einen universellen Geltungsanspruch erhebt, die Dogmatik des religiösen Glaubens genauso wie die Autoritätshörigkeit der ständischen Gesellschaft zu diskreditieren und somit die bestehenden Machtverhältnisse zu destabilisieren. Mit der universalistischen Wissensordnung der Enzyklopädie soll schließlich auch eine neue normative Ordnung etabliert werden. Dabei ist die Rolle der Enzyklopädisten als Aufklärer der unaufgeklärten Gesellschaft Teil der universalistischen Wissensordnung. Obwohl sich die beanspruchte emanzipative Wirkung des enzyklopädischen Universalismus im historischen Kontext von Dogmatismus und Despotismus nachvollziehen lässt, stellt sich die Frage, inwieweit dieser universalistische Anspruch tatsächlich eine ‚kritischen Haltung’, wie sie von Foucault anhand Kants Schrift „Was ist Aufklärung?“ definiert wird, genügt oder doch nur eine ‚Wissenskritik’ bleibt. Die Haltungsfrage verweist auf d’Alemberts ambivalentes Verhältnis zu den politischen Autoritäten seiner Zeit.
Der 1723 in Schottland geborene und 1794 in Princeton, New Jersey, verstorbene John Witherspoon hat eine Sonderstellung in der amerikanischen Kulturgeschichte, denn er gilt als Urheber der "ersten umfassenden amerikanischen Rhetorik". Diese konstituiert sich im Wesentlichen in seinen Lectures on Eloquence, seinen Lectures on Moral Philosophy sowie seiner politischen und homiletischen Redepraxis im Kontext der amerikanischen Revolution (1763-1789). Die vorliegende Studie untersucht die historiographisch-kulturwissenschaftliche Bedeutung dieses einflussreichen, fast vergessenen Gründervaters und seiner produktiven Rezeption (imitatio atque aemulatio) ciceronianisch-republikanischer Rhetorik.
Im Zentrum steht die Frage nach Witherspoons imitatio Ciceronis und inwieweit diese für den Calvinisten mit der imitatio Christi im revolutionären Prozess vereinbar war. Tatsächlich zeigt sich bei der Untersuchung ein fundamentaler Habitus-Konflikt zwischen dem ursprünglich polytheistisch und republikanisch orientierten Ciceronianus und dem monotheistischen zur Monarchie tendierenden Christianus. Dieser Konflikt erklärt zum Teil die erheblichen Diskrepanzen zwischen Witherspoons rhetorischer Praxis und Lehre. Diese beziehen sich insbesondere auf die rhetorische inventio, die Witherspoon in seinen Vorlesungen als der Lehre nicht würdig erachtet. In seinen Reden nutzt er jedoch inventive Techniken wie die Status- und Chrienlehre zur effektiven Strukturierung. Dies wird anhand von drei bedeutsamen Reden verdeutlicht (The Dominion of Providence Over the Passions of Men, "Speech on the Convention with Burgoyne" und "Sermon Delivered at a Public Thanksgiving After Peace").
Von großer Bedeutung ist die dezidierte Hochschätzung des agonistischen ciceronianischen Rednerideals. Dieses Leitbild spielt im Prozess der Konstituierung der jungen amerikanischen Republik eine vitale Rolle und taucht insbesondere als republikanische Leidenschaft auf, die Witherspoons Anverwandlung der Catilinarien Ciceros zugrunde liegt. Andererseits findet sich das Festhalten an streng konservativ-calvinistischen Prinzipien. Auch im Bereich der Rhetorik bestätigt sich daher das als "doppelköpfig" erkannte Antlitz Amerikas, insofern heidnische und christliche Tradition eine besondere Verbindung eingehen. Witherspoon konnte, als erster akademischer Vertreter des Common-Sense-Realismus in Amerika, die sich ergebenden Spannungen zwar nicht lösen, aber offenbar mit seiner proto-pragmatistischen Philosophie verdecken.
Um ein besseres Verständnis der Stellung der ciceronianischen Rhetorik bei Witherspoon zu ermöglichen, wird sie auf dem Hintergrund tiefgreifender neuzeitlicher Humanismen wie des christlichen Humanismus und des Bürgerhumanismus rekonstruiert und im Bildungshorizont der "Neuen Rhetorik" des 18. Jahrhunderts gesehen. Mit diesen Paradigmen lässt sich die Rhetorik des Princetoner Professors als zivistisch-theistische Variante gegenüber der belletristisch-theistischen Ausprägung des Schotten Hugh Blair und der zivistisch-deistischen Entwicklung Thomas Jeffersons abgrenzen.
We show how Sestoft’s abstract machine for lazy evaluation of purely functional programs can be extended to evaluate expressions of the calculus CHF – a process calculus that models Concurrent Haskell extended by imperative and implicit futures. The abstract machine is modularly constructed by first adding monadic IO-actions to the machine and then in a second step we add concurrency. Our main result is that the abstract machine coincides with the original operational semantics of CHF, w.r.t. may- and should-convergence.
I evaluate the effect of inflation targeting on inflation and how it interacts with product market deregulation during the disinflationary process in the 1990s. Using a sample of 21 OECD countries, I show that, after controlling for product market deregulation, the effect of inflation targeting is quantitatively important and statistically significant. Moreover, product market deregulation also matters in particular in countries that adopted an inflation targeting regime. I propose a New Keynesian Phillips curve with an explicit role for market deregulation to rationalize the empirical evidence.
Lipid-laden alveolar macrophages and pH monitoring have been used in the diagnosis of chronic aspiration in children with gastroesophageal reflux (GER). This study was conducted to prove a correlation between the detection of alimentary pulmonary fat phagocytosis and an increasing amount of proximal gastroesophageal reflux. It was assumed that proximal gastroesophageal reflux better correlates with aspiration than distal GER. Patients from 6 months to 16 years with unexplained recurrent wheezy bronchitis and bronchial hyperreactivity, or recurrent pneumonia with chronic cough underwent 24-hour double-channel pH monitoring and bronchoscopy with bronchoalveolar lavage (BAL). Aspiration of gastric content was determined by counting lipid laden alveolar macrophages from BAL specimens. There were no correlations between any pH-monitoring parameters and counts of lipid-laden macrophages in the whole study population, even when restricting analysis to those with abnormal reflux index expressing clinically significant GER. Quantifying lipid-laden alveolar macrophages from BAL in children with gastroesophageal-related respiratory disorders does not have an acceptable specificity to prove chronic aspiration as an underlying etiology. Therefore, research for other markers of pulmonary aspiration is needed.
Zur Erforschung des Strahlstransports durch zwei Toroidsegmente wurden im Rahmen dieser Arbeit theoretische Betrachtungen, Simulationen und experimentelle Untersuchungen durchgeführt. Dazu wurde ein toroidaler Teststand, bestehend aus zwei 30 Grad Toroidsegmenten mit einer magnetischen Feldstärke von 0,6 T und einer Driftsektion zwischen diesen beiden Magneten von 400 mm Länge, verwendet. Von einer Volumenionenquelle wurde ein Wasserstoffionenstrahl erzeugt und dieser mittels eines Solenoids angepasst und in das erste Toroidsegment eingeschossen. Mit Hilfe eines beweglichen Detektors konnte der Ionenstrahl an jeder Position im Rezipienten beim Transport durch den toroidalen Aufbau experimentell untersucht und vermessen werden.
Bei den Experimenten mit dem vorhandenen Detektor konnten auf den Aufnahmen der Leuchtdichteverteilung starke Sekundärelektroneneffekte beobachtet werden, welche die Untersuchung des Ionenstrahls mit dem Detektor erschwerten oder teilweise ganz unmöglich machten. Aus diesem Grund wurde zur Unterdrückung dieser Elektronen eine Wasserstoffatmosphäre im Rezipienten aufgebaut, welche die Elektronen stärker absorbiert als die Ionen und damit die Beobachtung des Ionenstrahls ermöglichen sollte. Auf diesem Wege lässt sich das transversale Verhalten des Strahls beim Strahltransport durch die toroidalen Magnetfelder mit dem vorhandenen Detektor untersuchen. Die Auswirkungen des Wasserstoffgases auf die geladenen Teilchen wurden dabei theoretisch und experimentell untersucht und analysiert. Die Auswirkung von Helium-, Stickstoff- und Argongas auf den Ionenstrahl und die Elektronen wurde in diesem Zusammenhang experimentell betrachtet.
Des Weiteren wurde mit Hilfe des Computerprogramms TBT der Strahltransport durch die zwei toroidalen Magnetfeldsegmente unter Verwendung von Referenzeinstellungen simuliert und die Ergebnisse mit den theoretischen und experimentellen Daten des Strahltransports verglichen. Bei diesen Simulationen konnten die Gyrationsbewegungen sowie die Transmission des Ionenstrahls durch die Driftsektion genauer untersucht werden.
Da die Magnetfelder der Toroidsegmente auch in der Driftsektion als Führungsfelder dienen sollen, sind die im experimentellen Aufbau verwendeten Toroidsegmente nicht magnetisch geschirmt. Dies hat zur Folge, dass das von den Magneten erzeugte Feld Auswirkungen auf andere Komponenten des toroidalen Teststandes besitzt. Aus diesem Grund wurden die Auswirkungen dieser Magnetfelder auf die Ionenquelle sowie auf das Druckmesssystem des Teststands genauer betrachtet.
Der Hoppe-Baum ist eine zufällig wachsende, diskrete Baumstuktur, wobei die stochastische Dynamik durch die Entwicklung der Hoppe Urne wie folgt gegeben ist: Die ausgezeichnete Kugel mit der die Hoppe Urne startet entspricht der Wurzel des Hoppe Baumes. In der Hoppe Urne wird diese Kugel mit Wahrscheinlichkeit proportional zu einem Parameter theta>0 gezogen, alle anderen Kugeln werden mit Wahrscheinlichkeit proportional zu 1 gezogen. Wann immer eine Kugel gezogen wird, wird sie zusammen mit einer neuen Kugel in die Urne zurückgelegt, was in unserem Baum dem Einfügen eines neuen Kindes an den gezogenen Knoten entspricht. Im Spezialfall theta=1 erhält man einen zufälligen rekursiven Baum.
In der Arbeit werden Erwartungswerte, Varianzen und Grenzwertsätze für Tiefe, Höhe, Pfadlänge und die Anzahl der Blätter gegeben.
Bioapatite in mammalian teeth is readily preserved in continental sediments and represents a very important archive for reconstructions of environment and climate evolution. This project provides a comprehensive data base of major, minor and trace element and isotope tracers for tooth apatite using a variety of microanalytical techniques. The aim is to identify specific sedimentary environments and to improve our understanding on the interaction between internal metabolic processes during tooth formation and external nutritional control and secondary alteration effects. Here, we use the electron microprobe to determine the major and minor element contents of fossil and modern molar enamel, cement and dentin from Hippopotamids. Most of the studied specimens are from different ecosystems in Eastern Africa, representing modern and fossil lacustrine (Lake Kikorongo, Lake Albert, and Lake Malawi) and modern fluvial environments of the Nile River system. Secondary alteration effects - in particular FeO, MnO, SO3 and F concentrations – are 2 to 10 times higher in fossil than in modern enamel; the secondary enrichment of these components in fossil dentin and cement is even higher. In modern and fossil enamel, along sections perpendicular to the enamel-dentin junction (EDJ) or along cervix-apex profiles, P2O5 and CaO contents and the CaO/P2O5 ratios are very constant (StdDev ∼1%). Linear regression analysis reveals tight control of the MgO (R2∼0.6), Na2O and Cl variation (for both R2>0.84) along EDJ-outer enamel rim profiles, despite large concentration variations (40% to 300%) across the enamel. These minor elements show well defined distribution patterns in enamel, similar in all specimens regardless of their age and origin, as the concentration of MgO and Na2O decrease from the enamel-dentin junction (EDJ) towards the outer rim, whereas Cl displays the opposite trend. Fossil enamel from Hippopotamids which lived in the saline Lake Kikorongo have a much higher MgO/Na2O ratio (∼1.11) than those from the Neogene fossils of Lake Albert (MgO/Na2O∼0.4), which was a large fresh water lake like those in the western Branch of the East African Rift System today. Similarly, the MgO/Na2O ratio in modern enamel from the White Nile River (∼0.36), which has a Precambrian catchment of dominantly granites and gneisses and passes through several saline zones, is higher than that from the Blue Nile River, whose catchment is the Neogene volcanic Ethiopian Highland (MgO/Na2O∼0.22). Thus, particularly MgO/Na2O might be a sensitive fingerprint for environments where river and lake water have suffered strong evaporation. Enamel formation in mammals takes place at successive mineralization fronts within a confined chamber where ion and molecule transport is controlled by the surrounding enamel organ. During the secretion and maturation phases the epithelium generates different fluid composition, which in principle, should determine the final composition of enamel apatite. This is supported by co-linear relationships between MgO, Cl and Na2O which can be interpreted as binary mixing lines. However, if maturation starts after secretion is completed, the observed element distribution can only be explained by equilibration of existing and addition of new apatite during maturation. It appears the initial enamel crystallites precipitating during secretion and the newly formed bioapatite crystals during maturation equilibrate with a continuously evolving fluid. During crystallization of bioapatite the enamel fluid becomes continuously depleted in MgO and Na2O, but enriched in Cl which results in the formation of MgO, and Na2O-rich, but Cl-poor bioapatite near the EDJ and MgO- and Na2O-poor, but Cl-rich bioapatite at the outer enamel rim. The linkage between lake and river water compositions, bioavailability of elements for plants, animal nutrition and tooth formation is complex and multifaceted. The quality and limits of the MgO/Na2O and other proxies have to be established with systematic investigations relating chemical distribution patterns to sedimentary environment and to growth structures developing as secretion and maturation proceed during tooth formation.
Fibroblast growth factor receptor substrate 2 (FRS2α) is a signaling adaptor protein that regulates downstream signaling of many receptor tyrosine kinases. During signal transduction, FRS2 can be both tyrosine and threonine phosphorylated and forms signaling complexes with other adaptor proteins and tyrosine phosphatases. We have here identified flotillin-1 and the cbl-associated protein/ponsin (CAP) as novel interaction partners of FRS2. Flotillin-1 binds to the phosphotyrosine binding domain (PTB) of FRS2 and competes for the binding with the fibroblast growth factor receptor. Flotillin-1 knockdown results in increased Tyr phosphorylation of FRS2, in line with the inhibition of ERK activity in the absence of flotillin-1. CAP directly interacts with FRS2 by means of its sorbin homology (SoHo) domain, which has previously been shown to interact with flotillin-1. In addition, the third SH3 domain in CAP binds to FRS2. Due to the overlapping binding domains, CAP and flotillin-1 appear to compete for the binding to FRS2. Thus, our results reveal a novel signaling network containing FRS2, CAP and flotillin-1, whose successive interactions are most likely required to regulate receptor tyrosine kinase signaling, especially the mitogen activated protein kinase pathway.
The development of insecticides requires valid risk assessment procedures to avoid causing harm to beneficial insects and especially to pollinators such as the honeybee Apis mellifera. In addition to testing according to current guidelines designed to detect bee mortality, tests are needed to determine possible sublethal effects interfering with the animal's vitality and behavioral performance. Several methods have been used to detect sublethal effects of different insecticides under laboratory conditions using olfactory conditioning. Furthermore, studies have been conducted on the influence insecticides have on foraging activity and homing ability which require time-consuming visual observation. We tested an experimental design using the radiofrequency identification (RFID) method to monitor the influence of sublethal doses of insecticides on individual honeybee foragers on an automated basis. With electronic readers positioned at the hive entrance and at an artificial food source, we obtained quantifiable data on honeybee foraging behavior. This enabled us to efficiently retrieve detailed information on flight parameters. We compared several groups of bees, fed simultaneously with different dosages of a tested substance. With this experimental approach we monitored the acute effects of sublethal doses of the neonicotinoids imidacloprid (0.15–6 ng/bee) and clothianidin (0.05–2 ng/bee) under field-like circumstances. At field-relevant doses for nectar and pollen no adverse effects were observed for either substance. Both substances led to a significant reduction of foraging activity and to longer foraging flights at doses of ≥0.5 ng/bee (clothianidin) and ≥1.5 ng/bee (imidacloprid) during the first three hours after treatment. This study demonstrates that the RFID-method is an effective way to record short-term alterations in foraging activity after insecticides have been administered once, orally, to individual bees. We contribute further information on the understanding of how honeybees are affected by sublethal doses of insecticides.
Die vorliegende Arbeit beschäftigt sich mit der zeitstetigen Portfoliooptimierung sowie mit Themen aus dem Bereich des Kreditrisikos. Das Ziel der Portfoliooptimierung ist es, zu einem gegebenen Anfangskapital die bestmöglichen Konsum- und Investmentstrategien zu finden. In dieser Arbeit wird dabei vor allem der Einfluss von Einkommen auf diese Entscheidungen untersucht. Da einerseits jedoch der zukünftige Einkommensstrom vom Zufall bestimmt ist und es andererseits keine Finanzprodukte gibt, die diesen replizieren können, stellt die Einbindung von Einkommen in die Portfoliooptimierung ein großes Problem dar. Es führt dazu, dass die Annahmen eines vollständigen Marktes nicht weiter gelten, so dass die Standardmethoden zur Lösung nicht angewendet werden können. Diese Arbeit analysiert mehrere Ausprägungen dieses Problems und geht auf verschiedene Verfahren zur Lösung ein. Weiterhin untersucht diese Studie den Einfluss des Kreditrisikos einer Firma auf die jeweilige Firmenrendite. Dabei wird vor allem auf eine Anomalie, die bereits umfassend in der Literatur diskutiert wurde, Bezug genommen. Diese Anomalie besagt, dass Firmen mit hohen Ausfallwahrscheinlichkeiten geringere Renditen erwirtschaften als Firmen mit kleineren Ausfallwahrscheinlichkeiten. Eine weitere Frage, die in den Bereich des Kreditrisikos fällt, ist die Frage, inwieweit Modelle dazu in der Lage sind, strukturierte Produkte zu bewerten und abzusichern. Diese Arbeit versucht Antworten darauf zu geben.
The objective of this work is twofold. First, we explore the performance of the density functional theory (DFT) when it is applied to solids with strong electronic correlations, such as transition metal compounds. Along this direction, particular effort is put into the refinement and development of parameterization techniques for deriving effective models on a basis of DFT calculations. Second, within the framework of the DFT, we address a number of questions related to the physics of Mott insulators, such as magnetic frustration and electron-phonon coupling (Cs2CuCl4 and Cs2CuBr4), high-temperature superconductivity (BSCCO) and doping of Mott insulators (TiOCl). In the frustrated antiferromagnets Cs2CuCl4 and Cs2CuBr4, we investigate the interplay between strong electronic correlations and magnetism on one hand and electron-lattice coupling on the other as well as the effect of this interplay on the microscopic model parameters. Another object of our investigations is the oxygen-doped cuprate superconductor BSCCO, where nano-scale electronic inhomogeneities have been observed in scanning tunneling spectroscopy experiments. By means of DFT and many-body calculations, we analyze the connection between the structural and electronic inhomogeneities and the superconducting properties of BSCCO. We use the DFT and molecular dynamic simulations to explain the microscopic origin of the persisting under doping Mott insulating state in the layered compound TiOCl.
Wie sieht eigentlich die eigene didaktische Praxis der Politikdidaktik an Hochschulen
aus? Im vorliegenden Text wird diese Frage am Beispiel eines Einführungsmoduls
diskutiert.
Zentraler Anspruch Frankfurter Politikdidaktik ist eine kritische Subjektorientierung,
die sich vor allem auf einen emphatischen, aber auch auf einen kritischen
Subjektbegriff gründet. Dieser findet sich in verschiedenen, an der Praxis orientierten
Formen wieder: in Form der Reflexion subjektiver Theorien der Studierenden,
in Form einer grundsätzlichen und konkreten Begründungspflicht politischer Bildung
und damit auch einhergehend einer Metakommunikation, im Verständnis der
Kritik politischer Bildung in jeweils konkreten Verhältnissen (Seminar wie Unterricht),
in der Betrachtung von Macht und Herrschaft in Form des pädagogischen
Widerspruchs von Autonomie und Leitung und auch in Form der Gegenstandsanalyse
einer kritischen Problemorientierung und kategorialen Bildung.
Methodisch sind reflexive und praktische Zugänge zu den genannten Bereichen
politischer Bildung prägend. Wirksame Bildungsprozesse müssen sich auf
subjektive Theorien beziehen und müssen ihre eigene, konkrete Bildungspraxis
einbeziehen. Subjektive Theorien werden in einem theoretischen Teil des Moduls
eruiert und reflektiert. Eine Projektphase im zweiten Teil stellt die Bedingungen
zur Verfügung, diese subjektiven Theorie durch (hoffentlich alternatives) praktisches
Handeln und seine Reflexion zu verändern. Ziel ist, die biografisch von Praxis
geprägten und stets handlungsleitenden subjektiven Theorien durch intellektuelle,
aber auch durch praktisch-körperliche Bildungserfahrungen so zu bearbeiten,
sodass sich ein professioneller Habitus entwickeln kann.
Wassergefiltertes Infrarot A (wIRA) stellt eine spezielle Form der Infrarotstrahlung (Wärmestrahlung) im Bereich von 780–1400 nm dar, die aufgrund ihrer sehr guten Verträglichkeit in der Medizin zur Prävention und Therapie verwendet wird. wIRA entspricht dem Großteil der in gemäßigten Klimazonen die Erdoberfläche wassergefiltert erreichenden Infrarotstrahlung der Sonne (Filterwirkung des Wassers und des Wasserdampfs der Erdatmosphäre). Durch die Wasserfilterung werden die Strahlungsanteile gemindert, die sonst durch Wechselwirkung mit Wassermolekülen in der Haut eine unerwünschte thermische Belastung der obersten Hautschicht hervorrufen würden. Technisch wird wIRA in speziellen Strahlern erzeugt, in denen die gesamte Strahlung eines Halogenstrahlers durch eine Wasser enthaltende Küvette hindurchtritt. wIRA wirkt beim Menschen über thermische und nicht thermische Effekte. Es steigert Temperatur, Sauerstoffpartialdruck und Durchblutung im Gewebe. Wesentliche klinische Wirkungen sind – indikationsübergreifend – eine Minderung von Schmerzen, Entzündung und vermehrter Sekretion sowie eine Verbesserung der Infektabwehr und der Regeneration. wIRA kann eingesetzt werden zur Therapie von akuten und chronischen Wunden, bei verschiedenen Hauterkrankungen (vulgären Warzen, Herpes labialis, Herpes Zoster, Sklerodermie, Morphaea, Akne papulopustulosa), zur Resorptionsverbesserung topisch aufgetragener Substanzen, im Rahmen einer photodynamischen Therapie (PDT; zur Therapie aktinischer Keratosen), bei bewegungssystembezogenen Erkrankungen (muskulären Verspannungen, Myogelosen, Lumbago, rheumatischen Erkrankungen, Morbus Bechterew, Arthrose, Arthritis, Fibromyalgie), zur Regeneration nach Sport, zur lokalen Beeinflussung der Fettverteilung sowie zum Aufrechterhalten oder Erhöhen der Körpertemperatur (z.B. in der Neonatologie) einschließlich Kompensation einer Hypothermie. Außerdem kann wIRA zur lokalen oder systemischen Hyperthermie im Rahmen der Onkologie mit Strahlentherapie oder Chemotherapie kombiniert werden.
Hintergrund: In dieser prospektiven Studie wurden erstmals die Auswirkung der Lageveränderung von der Rücken- auf Bauchlagerung auf Hämodynamik und Säure-Basen-Haushalt unter Einlungenventilation bei Patienten untersucht, die sich einer elektiven endoskopischen Ösophagusresektion unterzogen.
Methodik: Insgesamt wurden 10 Patienten (Alter 63 ± 12 Jahre) der ASA-Klassen I-III eingeschlossen. Ausgeschlossen waren Patienten der ASA-Klasse IV-V und Patienten bei denen die Einlungenventilation aus technischen Gründen nicht durchführbar war. Aufgezeichnet wurden neben hämodynamischen Parametern (HF, MAD, ZVD, PAPmean, HI, SVRI) auch respiratorische Parameter (pH, BE, HCO3-, paCO2, paO2, SaO2, SgvO2).
Ergebnisse: Hämodynamik: Die Herzfrequenz stieg unter Einlungenventilation in Bauchlage signifikant gegenüber dem Ausgangswert an. Auch der ZVD stieg 30min nach Umlagerung vom Rücken in Bauchlage unter Einlungenventilation signifikant an. Der Herzindex lag unter Einlungenventilation in Bauchlage signifikant unter dem Endwert.
Säure-Basen-Haushalt: paCO2 und Standard-Bicarbonat (HCO3-) lagen sowohl vor als auch nach Umlagerung im Normbereich. Der pH und der base excess (BE) zeigten einen minimalen Abfall 15min. nach Lagerungsmanöver vom Rücken- in die Bauchlage. Der Sauerstoffpartialdruck (paO2) fiel signifikant um 50% im Vergleich zum Ausgangswert unter Einlungenventilation ab. Die gemischt-venöse Sättigung (SgvO2) fiel ebenfalls unter Einlungenventilation unter den Normbereich, während der Umlagerung vom Rücken auf den Bauch konnte ein Anstieg der SgvO2 um 1,5% verzeichnet werden. Nach Umlagerung traten keine signifikanten Veränderungen der Werte auf.
Schlussfolgerung: Die Ergebnisse der vorliegenden Untersuchung zeigen, dass laparoskopische Ösophagusresektionen mit Veränderungen der hämodynamischen und respiratorischen Parameter einhergehen, die klinische Relevanz war dabei in dem von uns untersuchten Kollektiv als gering anzusehen.
Schwerpunkt: Gefäßforschung. Inhalt: Vorwort ... », Kompakt
* Paul Ehrlich-Preis für Zellbiologen und Nachwuchspreis für Diabetes-Forscherin
* Ausgezeichnet: Leibniz-Preis für Rainer Forst
* Biologischer Nanomotor mit Hybridantrieb entdeckt
Forschung intensiv
* Thrombose-Forschung. Wenn das Blut in den Adern stockt [Eva-Maria Siefert]
* Sauerstoffradikale. Schutz oder Schaden für die Gefäße? [Ralf Brandes und Katrin Schröder]
* Fettstoffwechsel und Diabetes. Fischöl und Bewegung helfen [Ingrid Fleming]
* Micro-RNAs. Kleine Schnipsel mit großer Wirkung [Reinier Boon und Stefanie Dimmeler]
* Archäologie. Die Römer im Hessischen Ried [Hans-Markus von Kaenel, Markus Helfert, Thomas Maurer und Carsten Wenzel]
* Archäologie. Innovation vor 4000 Jahren in der Eurasischen Steppe [Rüdiger Krause und Jochen Fornasier]
Forschung aktuell
* Über Geburt, Blüte und Kollaps der Nok-Kultur im subsaharischen Afrika [Ulrike Jaspers]
* Verdächtige Familien. DNA-Abstammungsgutachten in Einwanderungsverfahren [Torsten Heinemann und Thomas Lemke]
* Personalisierte Medizin. Ein Strategiewechsel. Gendiagnostik verbessert die Therapieentscheidung [Theo Dingermann]
Perspektiven
* »Hört mal zu, so ist’s gemeint«. Ein Gespräch mit Axel Honneth und Morton Raffnsøe-Møller über »Das Recht der Freiheit« [Axel Honneth, Morten Raffnsøe-Møller und Bernd Frye]
Gute Bücher
* Rainer Forst: Kritik der Rechtfertigungsverhältnisse. Perspektiven einer kritischen Theorie der Politik [Jörg Schaub]
* Martin Seel: 111 Tugenden, 111 Laster: Eine philosophische Revue [Lasse Lorenzen]
* Heinz Drügh, Christian Metz, Björn Weyand (Hrsg.): Warenästhetik – Neue Perspektiven auf Konsum, Kultur und Kunst [Bernd Frye]
* Michael Stolleis (Hrsg.): Herzkammern der Republik. Die Deutschen und das Bundesverfassungsgericht [Felix Hanschmann]
* Frank-Olaf Radtke: Kulturen sprechen nicht. Die Politik grenzüberschreitender Dialoge [Thomas Kunz]
* Maria R.-Alföldi, Edilberto Formigli und Johannes Fried: Die römische Wölfin. Ein antikes Monument stürzt von seinem Sockel [Andrea Salcuni]
* Heike Will: Sei naiv und mach‘ ein Experiment. Feodor Lynen. Biographie des Münchener Nobelpreisträgers [Anne Hardy]
* Jürgen Runge, James Shikwati (Hrsg.): Geological Resources and Good Governance in Sub-Saharan Africa [Tim Bittiger]
Vorschau und Impressum ... »
This paper considers the logic FOcard, i.e., first-order logic with cardinality predicates that can specify the size of a structure modulo some number. We study the expressive power of FOcard on the class of languages of ranked, finite, labelled trees with successor relations. Our first main result characterises the class of FOcard-definable tree languages in terms of algebraic closure properties of the tree languages. As it can be effectively checked whether the language of a given tree automaton satisfies these closure properties, we obtain a decidable characterisation of the class of regular tree languages definable in FOcard. Our second main result considers first-order logic with unary relations, successor relations, and two additional designated symbols < and + that must be interpreted as a linear order and its associated addition. Such a formula is called addition-invariant if, for each fixed interpretation of the unary relations and successor relations, its result is independent of the particular interpretation of < and +. We show that the FOcard-definable tree languages are exactly the regular tree languages definable in addition-invariant first-order logic. Our proof techniques involve tools from algebraic automata theory, reasoning with locality arguments, and the use of logical interpretations. We combine and extend methods developed by Benedikt and Segoufin (ACM ToCL, 2009) and Schweikardt and Segoufin (LICS, 2010).
Die Fundmeldungen in Band 24 von Botanik und Naturschutz in Hessen tragen die laufenden Nummern 1750 bis 1872 und stammen von Rolf Angersbach, Kurt Baumann, Ralph Baumgärtel, Dieter Bickler, Dirk Bönsel, Wolfgang Ehmke, Christian Feuring, Thomas Gregor, Volker Holzgreve, Karsten Horn, Heinz Kalheber, Gerwin Kasperek, Matthias Kellner, Detlef Mahn, Hans Reichert, Bernd Sauerwein, Hjalmar Thiel, Bärbel Wellmann und Jochen Wulfhorst.