Refine
Year of publication
- 2012 (2656) (remove)
Document Type
- Article (1050)
- Part of Periodical (406)
- Book (235)
- Part of a Book (184)
- Conference Proceeding (165)
- Doctoral Thesis (164)
- Report (133)
- Review (125)
- Working Paper (87)
- Contribution to a Periodical (40)
Language
- German (1361)
- English (1193)
- Portuguese (44)
- French (18)
- Multiple languages (16)
- Spanish (11)
- Italian (8)
- Croatian (2)
- dut (1)
- Norwegian Bokmål (1)
Keywords
- Literatur (56)
- Deutsch (53)
- Rilke, Rainer Maria (27)
- Lyrik (18)
- Begriffsgeschichte <Fach> (17)
- Freud, Sigmund (17)
- Rezension (17)
- Übersetzung (17)
- Deutschland (16)
- Pasolini, Pier Paolo (16)
Institute
- Medizin (269)
- Gesellschaftswissenschaften (151)
- Präsidium (148)
- Rechtswissenschaft (143)
- Physik (117)
- Biowissenschaften (93)
- Biochemie und Chemie (88)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (82)
- Wirtschaftswissenschaften (75)
- Geschichtswissenschaften (66)
„Die Lose ähneln sich, die Odysseen“. Dieser Vers Ingeborg Bachmanns aus ihrem Gedicht Von einem Land, einem Fluss und den Seen behauptet, die Irrfahrten und Schicksale der vielen Odysseus-Gestalten seien einander ähnlich. Wenn sich aber die Schicksale und Heimkehrreisen der Umherwandernden ähneln, dann könnten sich auch ihre literarischen Werke ähnlich sein. Ausgehend von dieser Vermutung sollen im folgenden Beitrag zwei große Lyriker des 20. Jahrhunderts gegenübergestellt werden, die sich mit der Frage des Exils und seiner Überwindung beschäftigt haben: die Österreicherin Ingeborg Bachmann und der Iraker Sa'dī Yūsuf. Zwar gehören beide unterschiedlichen Sprachräumen und Literaturtraditionen an. Zugleich sind sie aber aus diesen Räumen ausgebrochen, um neue geografische, sprachliche und gedankliche (W)orte zu erkunden, die keine fest umrissenen Grenzen mehr kennen. Darüber hinaus haben sie in ihren Texten auf ähnliche Weise Untergänge und Auferstehungen inszeniert, die meines Erachtens den Erfahrungen ihres Exils entspringen. Ihre Sichtweisen auf das Eigene und Fremde fordern uns auf, unseren eigenen Blick in einer Zeit zunehmenden und zugleich konfliktreicheren Zusammenlebens zu öffnen und zu hinterfragen.
Deutsch im Kreis Schanfigg
(2012)
In dieser Arbeit wird unter Schanfigg nach Kessler "Schanfigg im weitern Sinne" verstanden, d.h. die Dörfer des politischen Kreises Schanfigg [...]. Da Dialekte im Gegensatz zu Hochsprachen nicht-normierte Sprachvarietäten darstellen, zeichnen sich die Ortsgrammatiken durch eine jeweils enorme Formenvielfalt in lautlicher und in morphologischer Hinsicht aus. Dies war denn auch eines der Ziele der Untersuchung: Mit Hilfe der Prager Phonologie und der auf ihr beruhenden Morphologie sollte aufgezeigt werden, wie groß die allophonische und allomorphische Bandbreite ist, derer sich die Sprecher im Gespräch unbewußt bedienen. Sehr schön läßt sich dies anhand der Verbalmorphologie bei den unregelmäßigen Verben (Kurzverben) aufzeigen. Ein weiteres Ziel der Untersuchung war es, die Stellung der Ortsdialekte des Schanfiggs und ihres Gesamts, also das Schanfigger Diasystem, innerhalb der dem Schanfigg benachbarten Mundarten darzustellen. Idealerweise hätten das Prättigau, das Churwaldner Tal und die Churer bzw. Churerrheintaler Mundarten herangezogen werden müssen. Da aber leider keine Untersuchungen zu den Verhältnissen im Prättigau und im Churwaldner Tal vorhanden sind, wurden die Schanfigger Verhältnisse mit denjenigen der Stadt Chur (vgl. Eckhardt 1991) und des Deutschen im Bezirk Imboden (vgl. Toth und Ebneter 1996) verglichen.
Sedimentbilanzen haben sich als Methode zur Quantifizierung von Sedimentflüssen in Raum und Zeit in den Geowissenschaften etabliert. Sie eröffnen die Möglichkeit, differenzierte Aus¬sagen über die Erosions- und Sedimentationsdynamik von Einzugsgebieten zu treffen. Ziel der vorliegenden Arbeit ist es, die holozäne Erosions- und Sedimentationsentwicklung im mesoskaligen Mittelgebirgseinzugsgebiet des Speyerbachs im Pfälzerwald zu erfassen, und räumlich und zeitlich möglichst differenziert darzulegen. Um Langzeit-Sedimentbilanzen für den Speyerbach zu berechnen wurden verfügbare Daten zum Boden, eine eigene Kartierung der Erosion und Sedimentation sowie eine intensive (OSL und 14C-) Datierung zweier Stand¬orte durchgeführt. Die Sedimente wurden durch eine direkte Kartierung erfasst. Die Erosions¬tiefe errechnet sich aus der Subtraktion der aktuellen Mächtigkeit der Hauptlagen und der Parabraunerden vom initialen Zustand (= Berechnungsgrundlage).
Die Sedimentbilanz I basiert auf öffentlich zugänglichen bodenkundlichen Punkt- und Flächendaten und hat eine Erosion von ~27 Mio. m³ mit einem Einzugsgebiets-Sedimentaus¬tragsverhältnis (CSDR) von 31,5 % ergeben. Die Sensitivitätsanalyse belegt eine hohe Abhängigkeit des Ergebnisses von der Wahl der Berechnungsgrundlage. Aufgrund fehlender Daten sind eine höhere räumliche Auflösung sowie Aussagen zur zeitlichen Entwicklung nicht möglich.
Die Berechnung der Sedimentbilanz II erfolgte auf der Grundlage eigens erhobener Punkt- und Flächendaten, womit die Anwendung eines nested approach möglich wurde: Neben der Gesamtbilanz für den Speyerbach (sechste Strahler-Ordnung) wurden Bilanzen für Teilein¬zugsgebiete erster und vierter Strahler-Ordnung erstellt, anhand derer die Skalenabhängigkeit der Sedimentdynamik diskutiert werden konnte. Es wurden ~109 Mio. m³ und ein CSDR von 5 % errechnet und ebenfalls eine hohe Sensitivität gegenüber der Änderung der Erosionstiefen festgestellt.
Die erfolgreiche Datierung von periglazialen Deckschichten zweier Bodenprofile unterstützt die Ergebnisse der Landnutzungsrekonstruktion aus Literaturdaten und historischen Karten und zeigt, dass in den Tälchen erster Ordnung Erosion verstärkt in der Neuzeit stattfand. Nur in den lösslehmbeeinflussten Gebieten hat sich die Besiedlung im Frühmittelalter in der Ablagerung von Bodensedimenten abgebildet. Es wurden frühholozäne Umlagerungsprozesse am Hang identifiziert. Aufgrund der guten Datierungseigenschaften der sandigen periglazia¬len Lagen wäre das Untersuchungsgebiet geeignet, der Frage nach der Parallelisierung der frühholozänen Umlagerungen von Hangsedimenten mit Klimaschwankungen nachzugehen.
Die vorliegende Arbeit liefert mit den erstellten Sedimentbilanzen und der Darlegung der Landnutzungsverhältnisse ein regionales Beispiel für Mittelgebirgsräume im Rhein-Einzugs¬gebiet. Die mikro- bis mesoskaligen Ergebnisse folgen der generellen Tendenz anderer welt¬weiter Studien, wonach die Sedimentaustragsverhältnisse mit steigender Einzugsgebietsgröße abnehmen. Die Werte der Sedimentbilanz II liegen jedoch deutlich unter denen der Lössge¬biete und belegen, dass sich die Zwischenspeicherung in der Mittelgebirgsregion höher ist. Die räumliche Differenzierung zeigt regionale Unterschiede, die auf der Zugänglichkeit, der administrativen Zugehörigkeit und die naturräumliche Ausstattung zurückzuführen sind. Arbeiten in anderen Sandsteinregionen Deutschlands sind derzeit im Gange und werden in Zukunft eine Einschätzung der vorliegenden Untersuchung zulassen.
Mit einer Prävalenz von rund 5% bildet das Hereditäre Nonpolypöse Kolorektalkarzinom (HNPCC), auch Lynch Syndrom genannt, die häufigste genetische Disposition unter allen Kolorektalkarzinomen in Deutschland. Das Lynch Syndrom wird autosomal-dominant vererbt und tritt im Schnitt bereits ab dem 44. Lebensalter auf, während die Mehrheit der Kolorektalkarzinome erst mit 63 Jahren diagnostiziert wird. Ein wichtiges Merkmal sind sogenannte HNPCC-assoziierte Malignome, welche sich außerhalb des Dickdarms befinden. Die Diagnose gestaltet sich allerdings relativ schwierig, da bei Lynch Syndrom-Patienten kein eindeutiger klinisch auffälliger Phänotyp vorliegt und die Diagnosestellung nur in Zusammenhang mit einer Familienanamnese des Patienten möglich ist.
Mittlerweile ist bekannt, dass für das charakteristische Auftreten von hochgradigen Mikrosatelliteninstabilitäten im Tumorgewebe ein defektes DNA-Mismatch-Reparatursystem verantwortlich ist. Diese Defekte treten vor allem in den Genen MLH1, MSH2, MSH6 oder PMS2 auf und können über die Keimbahn vererbt werden.
Das Fusionsprotein MLH1•ITGA9 wurde im Jahr 2009 publiziert, nachdem es bei einer Familie aus Französisch-Guyana gehäuft identifiziert wurde. Mehrere Familienmitglieder waren an unterschiedlichen Krebsarten erkrankt, und die Tatsache, dass neben Dickdarmtumoren auch synchrones und metachrones extrakolonisches Tumorwachstum auftrat, ließen den Schluss einer positiven Familienanamnese für das Lynch Syndrom zu. Auffällig war jedoch, dass das Spektrum dieser extrakolonischen Tumoren nicht im Einklang mit den typischen HNPCC-assoziierten Malignomen stand. Daher lag die Vermutung nahe, dass das Fusionsprotein MLH1•ITGA9 für diesen Phänotyp verantwortlich ist.
Das dem zugrundeliegende Fusionsgen MLH1•ITGA9 ist das Resultat einer interstitiellen Deletion auf Chromosom 3p21.3. Es kodiert für den N-Terminus des Mismatch-Reparaturgens MLH1 sowie den C-Terminus des rund 400 kb downstream gelegenen Integrin α9. Aufgrund der fehlenden nukleären Lokalisationssequenz und weiterer wichtiger im C-Terminus gelegenen Domänen des MLH1-Proteins ist davon auszugehen, dass es außer Stande ist, Basenfehlpaarungen zu reparieren; ebenso sollte das Fusionsprotein theoretisch keine Funktionen des Wildtyp Integrin α9 mehr ausüben können.
Diese Annahmen konnten durch diverse Versuche wie Zelladhäsions- und Zellmigrationsassays bestätigt werden; das Fusionsprotein hatte dabei keinerlei Einfluß auf das Adhäsions- oder Migrationsverhalten unterschiedlicher Zelllinien.
Bezüglich der Lokalisation von MLH1•ITGA9 wurde über Fluoreszenzmikroskopie aufgrund der fehlenden nuklären Lokalisationssequenz im MLH1-Proteinteil der Nachweis erbracht, dass sowohl das Fusionsprotein als auch seine Variante MLH1∆ (bestehend aus dem MLH1-Teil) lediglich im Zytoplasma, und nicht wie der Wildtyp auch im Zellkern, zu finden ist.
Desweiteren zeigten Co-Immunopräzipitationsexperimente eine Interaktion zwischen dem Fusionsprotein und MLH1∆ mit dem Tumorsuppressor BRCA1. Die Folgen dieser Interaktion wurden auf translationeller und Proteinebene mit dem Ergebnis untersucht, dass Zellen, welche das Fusionsprotein oder seine trunkierte Variante MLH1∆ exprimieren, nach Etoposidstimulierung teilweise in gravierendem Ausmaß einen negativen Einfluss auf die p53-abhängige DNA-Reparaturmaschinerie aufweisen. Dies zeigte sich besonders deutlich auf transkriptioneller Ebene in einer bis zu 96%igen Herunterregulierung wichtiger Zellzyklus- sowie proapoptotischer Gene. Die durchflusszytometrische Analyse dieser Zellen zeigte außerdem eine höhere Apoptoseresistenz nach Etoposidstimulierung im Vergleich zu Wildtyp-MLH1 exprimierenden Zellen.
Menschliche Aktivitäten beeinflussen beinahe alle Bereiche des Lebens auf der Erde (MEA 2005a; UNEP 2007). Die Zerstörung und Veränderung natürlicher Lebensräume sind als Hauptursache für den weltweiten Biodiversitätsverlust identifiziert (Harrison and Bruna 1999; Dale et al. 2000; Foley et al. 2005; MEA 2005a). Zusammen mit dem Klimawandel wird die Landnutzungsveränderung daher als einflussreichster Aspekt anthropogen verursachten globalen Wandels betrachtet (MEA 2005a). Landnutzungsveränderung schließt sowohl die Umwandlung natürlicher Habitate in Agrarland oder Siedlungen als auch die Landnutzungsintensivierung in bereits kultivierten Landschaften mit ein. Diese Veränderungen haben weitreichende Konsequenzen für die Artenvielfalt und resultieren häufig in dem Verlust von Arten mit zunehmender Intensität der Landnutzung (Scholes and Biggs 2005).
Biodiversität und Ökosysteme stellen viele verschiedene Funktionen zur Verfügung, wie z. B. die Sauerstoffproduktion, die Reinigung von Wasser und die Bestäubung von Nutzpflanzen.
Einige dieser Funktionen sind hilfreich, andere wichtig und wieder andere notwendig für das menschliche Wohlergehen (MEA 2005b; UNEP 2007). Mittlerweile sind Ökosystemfunktionen und die vielen Nutzen, die sie erbringen, zu einem zentralen Thema der interdisziplinären Forschung von Sozialwissenschaften und Naturwissenschaften geworden (Barkmann et al. 2008 und darin enthaltene Referenzen). Dadurch bedingt ist es zu einiger Verwirrung bezüglich der verwendeten Begriffe der "Ökosystemfunktion" (engl. "ecosystem function") und dem der "Ökosystemdienstleistung" (engl. "ecosystem service") gekommen (deGroot et al. 2002). Da der Fokus meiner Arbeit auf grundlegenden Funktionen von Ökosystemen liegt, verwende ich im Folgenden den Begriff der Ökosystemfunktion.
Für viele Ökosystemfunktionen ist noch sehr unzureichend bekannt, wie diese von externen Störungen beeinflusst werden (Kremen and Ostfeld 2005; Balvanera et al. 2006). Ökosystemfunktionen werden selten von nur einer einzigen Art aufrechterhalten, sondern meist von einer ganzen Reihe unterschiedlicher taxonomischer Gruppen – alle mit ihren ganz eigenen Ansprüchen. Diese Arten, wie auch deren intra- und interspezifischen Interaktionen, können durchaus nterschiedlich auf die gleiche Störungsquelle oder Störungsintensität reagieren. Dies kann Vorhersagen zum Verhalten von Ökosystemfunktionen extrem erschweren. ...
We provide a mathematical framework to model continuous time trading in limit order markets of a small investor whose transactions have no impact on order book dynamics. The investor can continuously place market and limit orders. A market order is executed immediately at the best currently available price, whereas a limit order is stored until it is executed at its limit price or canceled. The limit orders can be chosen from a continuum of limit prices.
In this framework we show how elementary strategies (hold limit orders with only finitely many different limit prices and rebalance at most finitely often) can be extended in a suitable
way to general continuous time strategies containing orders with infinitely many different limit prices. The general limit buy order strategies are predictable processes with values in the set of nonincreasing demand functions (not necessarily left- or right-continuous in the price variable). It turns out that this family of strategies is closed and any element can be approximated by a sequence of elementary strategies.
Furthermore, we study Merton’s portfolio optimization problem in a specific instance of this framework. Assuming that the risky asset evolves according to a geometric Brownian
motion, a proportional bid-ask spread, and Poisson execution times for the limit orders of the small investor, we show that the optimal strategy consists in using market orders to keep the
proportion of wealth invested in the risky asset within certain boundaries, similar to the result for proportional transaction costs, while within these boundaries limit orders are used to profit from the bid-ask spread.
Ende der 70ger Jahre, fünf Jahre nach der Einführung des ersten kommerziellen, medizinischen Computertomographen wurde die Tomographie am Los Alamos Scientific Laboratory zum ersten Mal für die Diagnose von Teilchenstrahlen angewendet. Bei der Tomographie wird aus eindimensionalen Projektionen, sogenannten Profilen, welche in möglichst vielen Winkeln um ein Objekt herum aufgenommen werden, ein zweidimensionales Abbild der Dichteverteilung (Slice oder Scheibe) approximiert. Dies ist möglich durch das bereits 1917 von Johann Radon eingeführte Fourier-Scheiben-Theorem. In der Theorie kann die zwei-dimensionale Dichteverteilung exakt ermittelt werden, wenn Projektionen mit einer unendlich feinen Auflösung über unendlich viele Winkel um ein Objekt herum in die Rekonstruktion einbezogen werden. Durch die Rekonstruktion vieler Scheiben kann ein drei-dimensionales Abbild der Dichteverteilung in einem Objekt, in diesem Fall einem Ionenstrahl, berechnet werden, sofern dieses nicht optisch dicht ist.
Die Profile in der nicht-invasiven Strahldiagnose entstehen durch CCD-Kameraaufnahmen von strahlinduzierter Fluoreszenz, welche durch den Einlass von Restgas hervorgerufen wird. Es sind aber auch Profile, welche aus anderen Methoden gewonnen werden (z.B. Gittermessungen) denkbar. An Orten mit hoher Energie ist jedoch eine nicht-invasive Form der Profilaufnahme sowohl für die Qualität des Strahls, wie auch den Schutz der Messgeräte unabdingbar.
In den letzten 40 Jahren wurden im Bereich der Strahltomographie viele wichtige Fortschritte erzielt:
1. Anfangs standen nur sehr wenige Profile zur Verfügung, so dass die Methode der gefilterten Rückprojektion(FBP), welche sich direkt aus dem Fourier-Scheiben-Theorem ableitet und welches auch in der Medizin verwendet wird, nicht angewendet werden kann. Um dieses Problem zu lösen wurden iterative Methoden wie die Algebraische Rekonstruktion (ART) und die Methode der Maximalen Entropie (MEM) für die Strahltomographie erschlossen, so dass auch mit sehr geringer Profilanzahl eine Rücktransformation möglich wurde.
2. Neben der Ortsraumtomographie wurde die Phasenraumtomografie entwickelt, so dass mittlerweile eine Rekonstruktion des sechs-dimensionalen Phasenraumes möglich ist, mit welchem ein Ionenstrahl in seiner Gesamtheit beschrieben werden kann.
3. Die Projektionen wurden lange Zeit durch Aufnahmen von mehreren festen Anschlüssen aus gewonnen (Multi-Port-Technik). Auf diese Weise ist die Anzahl der möglichen Projektionen sehr begrenzt. So entwickelte man später eine Methode welche den Strahl mit Hilfe von Quadrupolen dreht (Quad-Scan-Technik), so dass auf diese Weise von einem Anschluss aus viele Projektionen gemessen werden konnten, so dass sogar die FBP angewendet werden konnte.
4. Die meisten Bestrebungen zielten darauf ab, die Tomographie für eine nicht-invasive Emittanzmessmethode zu nutzen, welches bis heute aufgrund der großen und noch immer zunehmenden Energien in modernen Beschleunigern ein wichtiges Problem ist. Um die Tomographie zur Emittanzmessung zu verwenden, führt man eine Rekonstruktion des Phasenraumes durch. Das Problem ist, dass hierfür das a priori Wissen über die Strahltransportmatrix in die Tomographie mit einfließt, die berechnete Strahltransportmatrix
jedoch nicht mit dem tatsächlichen Strahltransport übereinstimmt, da dieser bei hohen Energien durch auftretende Raumladung nicht-linear verändert wird. Hierzu wurden gute Fortschritte in der Abschätzung der tatsächlichen Transportmatrix gemacht um die Phasenraumtomographie trotzdem mit hinreichend gutem Ergebnis durchführen zu können.
Trotz all dieser Fortschritte und Entwicklungen ist die Tomographie bis heute keine weitverbreitete Methode in der Strahldiagnose. Der Grund ist, dass das Einrichten einer Tomografie eine komplexe Abfolge etlicher Entscheidungen und weitgestreutes Wissen aus vielen unterschiedlichen Bereichen erfordert, dieser nicht zu unterschätzende Mehraufwand jedoch auch durch einen signifikanten Nutzen gerechtfertigt sein muss. Der große Nutzen der Tomographie für die Strahldiagnose und Untersuchung der Strahldynamik ist bis heute allerdings weitgehend unerkannt und weiterhin reduziert auf die Entwicklung einer nicht-invasiven Methode für die Emittanzbestimmung. Ein zweites Hindernis stellte bisher auch die Diskrepanz zwischen Genauigkeit und Platzaufwand dar (hohe Genauigkeit durch viele Projektionen mit Quad-Scan-Technik auf mehreren Metern oder niedrige Genauigkeit durch wenig Projektionen mit Multi-Port-Technik auf weniger als einem Meter). Die Tomografie kann großen Nutzen leisten für die Online-Überwachung wichtiger Maschineneparameter im Strahlbetrieb (Monitoring) als auch für detaillierte Analysen zur Strahldynamik (Modellierung) weit über die Implementierung einer nicht-invasiven Emittanzmessmethode hinaus.
Um dies zu gewährleisten Bedarf es Zweierlei. Zum einen muss die Diskrepanz zwischen Genauigkeit und Platzaufwand aufgehoben werden. Hierzu wurde im Rahmen dieser Arbeit eine rotierbare Vakuumkammer entwickelt die nach dem Vorbild medizinischer Tomographen in mehr als 5000 Winkelschritten um den Strahl herum fahren kann, dabei ein Vakuum von mindestens 10-7mbar aufrecht erhält und einen Platzbedarf von weniger als 400 mm in der Strahlstrecke einnimmt. Zum anderen muss die Implementierung der Tomografie durch eine Angabe von schematischen Schritten und Entscheidungen vereinfacht werden. Eine Strahltomographie muss immer auf ihren jeweiligen Zweck hin implementiert werden, da Einzelelemente der Tomografie wie beispielsweise Messvorrichtung und dadurch die Profilanzahl, zu verwendender Tomographiealgorithmus, zu bestimmende Parameter sich je nach Einsatz unterscheiden können. Jedoch können die dazu nötigen Entscheidungen in ein Schema eingeordnet werden, welches die Implementierung der Tomographie vereinfacht und beschleunigt. Hierzu wurde in dieser Arbeit eine Diagnosepipeline und ein Entscheidungsschema eingeführt, sowie die Implementierung nach diesem Schema am Beispiel einer Strahltomographie für die Frankfurter Neutronenquelle (FRANZ) demonstriert und die entsprechenden Fragen und Entscheidungen diskutiert. Es wird gezeigt, wie sich aus den Messdaten über die Aufbereitung der Daten durch die Tomografie die erforderlichen Standardstrahlparameter für ein Monitoring gewinnen lassen. Zusätzlich wird ein Ebenen-Modell eingeführt, über welches nicht-Standardparameter oder neu modellierte Strahlparameter für detaillierte Analysen der Strahldynamik über die Standardparameter hinaus entwickelt werden können. Diese Arbeit soll ein grundlegendes Konzept für die routinemäßige Implementierung der Tomographie in der Strahldiagnose zur Verfügung stellen. Für die Verwendung zum Monitoring im Strahlbetrieb muss die Bestimmung von Standardparametern noch wesentlich im Zeitaufwand verbessert werden. Die Verwendung der Phasenraumtomographie benötigt noch eine Idee um den arcustangensförmigen Verlauf der berechneten Phasenraumrotationswinkel mit der Forderung der FBP nach äquidistanten Projektionswinkeln verträglicher zu machen.
Übergeordnetes Ziel der Arbeit war die Synthese von Molekülen, die zur gezielten Funktionalisierung von Oberflächen dienen sollten. Dazu mussten jeweils Synthesewege inklusive geeigneter Schutzgruppenchemie sowie Reinigungsstrategien entwickelt werden. Im Rahmen dieser Zielsetzung wurde zunächst eine Anlage zur Gradientensublimation aufgebaut, mit der sich die Substanzen in sehr hoher Reinheit erhalten ließen.
Im Feldversuch von Future Fleet wurde einer Vielzahl von Fragestellungen nachgegangen. In
Bezug auf das Verkehrsverhalten und die Akzeptanz von Elektroautos standen folgende Forschungsfragen
im Vordergrund:
·Welches sind Faktoren für Attraktivität und Akzeptanz von Elektrofahrzeugen im Rahmen
einer betrieblichen Nutzung?
·Wie entwickelt sich das Verkehrsverhalten der Nutzerinnen und Nutzer?
·Wie wirken sich die veränderte Technik und Poolkonzepte auf das Verkehrsverhalten
und die Einstellungen der Nutzer/innen aus? Wie integrieren Nutzer und Nutzerinnen die
veränderten Eigenschaften in ihre Alltagsroutinen?
Es bestand ein sehr großes Interesse der SAP-Mitarbeiter/innen am Feldtest. Es konnte nur ein
Bruchteil der Interessierten am Feldtest teilnehmen. Zwei Nutzungsszenarien wurden entwickelt.
Das Szenario 1 "wochenweise Überlassung" für eine mehrtägige Nutzung der Elektrofahrzeuge
durch eine Person auf beruflichen und privaten Wegen. Das Szenario 2 "Dienstliche Nutzung
(Poolfahrzeug)" für Dienstfahrten von Mitarbeiterinnen und Mitarbeitern zu einem anderen Standort
oder Außenterminen. ...
Der Beitrag arbeitet d’Alemberts Absicht heraus, durch eine mathematisch begründete Wissensordnung, die einen universellen Geltungsanspruch erhebt, die Dogmatik des religiösen Glaubens genauso wie die Autoritätshörigkeit der ständischen Gesellschaft zu diskreditieren und somit die bestehenden Machtverhältnisse zu destabilisieren. Mit der universalistischen Wissensordnung der Enzyklopädie soll schließlich auch eine neue normative Ordnung etabliert werden. Dabei ist die Rolle der Enzyklopädisten als Aufklärer der unaufgeklärten Gesellschaft Teil der universalistischen Wissensordnung. Obwohl sich die beanspruchte emanzipative Wirkung des enzyklopädischen Universalismus im historischen Kontext von Dogmatismus und Despotismus nachvollziehen lässt, stellt sich die Frage, inwieweit dieser universalistische Anspruch tatsächlich eine ‚kritischen Haltung’, wie sie von Foucault anhand Kants Schrift „Was ist Aufklärung?“ definiert wird, genügt oder doch nur eine ‚Wissenskritik’ bleibt. Die Haltungsfrage verweist auf d’Alemberts ambivalentes Verhältnis zu den politischen Autoritäten seiner Zeit.
Der 1723 in Schottland geborene und 1794 in Princeton, New Jersey, verstorbene John Witherspoon hat eine Sonderstellung in der amerikanischen Kulturgeschichte, denn er gilt als Urheber der "ersten umfassenden amerikanischen Rhetorik". Diese konstituiert sich im Wesentlichen in seinen Lectures on Eloquence, seinen Lectures on Moral Philosophy sowie seiner politischen und homiletischen Redepraxis im Kontext der amerikanischen Revolution (1763-1789). Die vorliegende Studie untersucht die historiographisch-kulturwissenschaftliche Bedeutung dieses einflussreichen, fast vergessenen Gründervaters und seiner produktiven Rezeption (imitatio atque aemulatio) ciceronianisch-republikanischer Rhetorik.
Im Zentrum steht die Frage nach Witherspoons imitatio Ciceronis und inwieweit diese für den Calvinisten mit der imitatio Christi im revolutionären Prozess vereinbar war. Tatsächlich zeigt sich bei der Untersuchung ein fundamentaler Habitus-Konflikt zwischen dem ursprünglich polytheistisch und republikanisch orientierten Ciceronianus und dem monotheistischen zur Monarchie tendierenden Christianus. Dieser Konflikt erklärt zum Teil die erheblichen Diskrepanzen zwischen Witherspoons rhetorischer Praxis und Lehre. Diese beziehen sich insbesondere auf die rhetorische inventio, die Witherspoon in seinen Vorlesungen als der Lehre nicht würdig erachtet. In seinen Reden nutzt er jedoch inventive Techniken wie die Status- und Chrienlehre zur effektiven Strukturierung. Dies wird anhand von drei bedeutsamen Reden verdeutlicht (The Dominion of Providence Over the Passions of Men, "Speech on the Convention with Burgoyne" und "Sermon Delivered at a Public Thanksgiving After Peace").
Von großer Bedeutung ist die dezidierte Hochschätzung des agonistischen ciceronianischen Rednerideals. Dieses Leitbild spielt im Prozess der Konstituierung der jungen amerikanischen Republik eine vitale Rolle und taucht insbesondere als republikanische Leidenschaft auf, die Witherspoons Anverwandlung der Catilinarien Ciceros zugrunde liegt. Andererseits findet sich das Festhalten an streng konservativ-calvinistischen Prinzipien. Auch im Bereich der Rhetorik bestätigt sich daher das als "doppelköpfig" erkannte Antlitz Amerikas, insofern heidnische und christliche Tradition eine besondere Verbindung eingehen. Witherspoon konnte, als erster akademischer Vertreter des Common-Sense-Realismus in Amerika, die sich ergebenden Spannungen zwar nicht lösen, aber offenbar mit seiner proto-pragmatistischen Philosophie verdecken.
Um ein besseres Verständnis der Stellung der ciceronianischen Rhetorik bei Witherspoon zu ermöglichen, wird sie auf dem Hintergrund tiefgreifender neuzeitlicher Humanismen wie des christlichen Humanismus und des Bürgerhumanismus rekonstruiert und im Bildungshorizont der "Neuen Rhetorik" des 18. Jahrhunderts gesehen. Mit diesen Paradigmen lässt sich die Rhetorik des Princetoner Professors als zivistisch-theistische Variante gegenüber der belletristisch-theistischen Ausprägung des Schotten Hugh Blair und der zivistisch-deistischen Entwicklung Thomas Jeffersons abgrenzen.
We show how Sestoft’s abstract machine for lazy evaluation of purely functional programs can be extended to evaluate expressions of the calculus CHF – a process calculus that models Concurrent Haskell extended by imperative and implicit futures. The abstract machine is modularly constructed by first adding monadic IO-actions to the machine and then in a second step we add concurrency. Our main result is that the abstract machine coincides with the original operational semantics of CHF, w.r.t. may- and should-convergence.
I evaluate the effect of inflation targeting on inflation and how it interacts with product market deregulation during the disinflationary process in the 1990s. Using a sample of 21 OECD countries, I show that, after controlling for product market deregulation, the effect of inflation targeting is quantitatively important and statistically significant. Moreover, product market deregulation also matters in particular in countries that adopted an inflation targeting regime. I propose a New Keynesian Phillips curve with an explicit role for market deregulation to rationalize the empirical evidence.
Lipid-laden alveolar macrophages and pH monitoring have been used in the diagnosis of chronic aspiration in children with gastroesophageal reflux (GER). This study was conducted to prove a correlation between the detection of alimentary pulmonary fat phagocytosis and an increasing amount of proximal gastroesophageal reflux. It was assumed that proximal gastroesophageal reflux better correlates with aspiration than distal GER. Patients from 6 months to 16 years with unexplained recurrent wheezy bronchitis and bronchial hyperreactivity, or recurrent pneumonia with chronic cough underwent 24-hour double-channel pH monitoring and bronchoscopy with bronchoalveolar lavage (BAL). Aspiration of gastric content was determined by counting lipid laden alveolar macrophages from BAL specimens. There were no correlations between any pH-monitoring parameters and counts of lipid-laden macrophages in the whole study population, even when restricting analysis to those with abnormal reflux index expressing clinically significant GER. Quantifying lipid-laden alveolar macrophages from BAL in children with gastroesophageal-related respiratory disorders does not have an acceptable specificity to prove chronic aspiration as an underlying etiology. Therefore, research for other markers of pulmonary aspiration is needed.