Refine
Year of publication
Document Type
- Article (30754)
- Part of Periodical (11923)
- Book (8316)
- Doctoral Thesis (5735)
- Part of a Book (3721)
- Working Paper (3388)
- Review (2878)
- Contribution to a Periodical (2369)
- Preprint (2215)
- Report (1544)
Language
- German (42604)
- English (29591)
- French (1067)
- Portuguese (723)
- Multiple languages (314)
- Croatian (302)
- Spanish (301)
- Italian (195)
- mis (174)
- Turkish (148)
Is part of the Bibliography
- no (75744) (remove)
Keywords
- Deutsch (1038)
- Literatur (809)
- taxonomy (766)
- Deutschland (543)
- Rezension (491)
- new species (453)
- Frankfurt <Main> / Universität (341)
- Rezeption (325)
- Geschichte (292)
- Übersetzung (271)
Institute
- Medizin (7773)
- Präsidium (5232)
- Physik (4573)
- Wirtschaftswissenschaften (2710)
- Extern (2661)
- Gesellschaftswissenschaften (2378)
- Biowissenschaften (2196)
- Biochemie und Chemie (1978)
- Frankfurt Institute for Advanced Studies (FIAS) (1775)
- Center for Financial Studies (CFS) (1632)
„Frauenlieder gehören zu den ältesten poetischen Zeugnissen, welche in die schriftliche Überlieferung der volkssprachlichen Dichtung im Mittelalter eingegangen sind, und schon allein aus diesem Grunde kommt ihnen eine herausragende kultur- und literarhistorische Bedeutung zu.“
Für die mittelalterlichen Lieder mit weiblichem lyrischem Ich finden sich diverse Definitionen die je nach Schwerpunkt und Sichtweise einen unterschiedlich großen Korpus an Liedern als Frauenlieder deklarieren. Für diese Arbeit habe ich versucht eine Definition zu finden, die minimal einschränkend ist und dabei keine wertenden und ästhetischen Kriterien ansetzt, die aus einem heutigen Verständnis geprägt sind. Dementsprechend basiert diese Arbeit auf der Minimaldefintion eines Frauenliedes nach Ingrid Kasten: „Es sind Lieder, deren lyrisches Subjekt eine Frau ist.“
Da explizit bei Ingrid Kasten von einem lyrischen Subjekt die Rede ist, also von der Person, die das Lied trägt, sind Gattungen wie das Tagelied oder die Pastourelle ausgeschlossen, da sie zwar weibliche Redeanteile stellen, diese allerdings keine eigenständige Meinung wiedergeben, sondern nur im Kontext des Liedes einen Dialog herstellen. Hierzu Angelica Rieger: „Zu der gattungsbedingt stark eingeschränkten Rollen der Frau in der pastorela kommt die Tatsache, daß die narrative Grundstruktur der Gattung der Frauenstimme nur im Zitat Raum läßt. Beides verhindert die Entwicklung eines selbstständigen weiblichen lyrischen Ichs innerhalb der Grenzen der Gattung. […] In jedem Fall beschränkt sich [bei der alba] die «voix féminine» auf die von der Gattung diktierte Rollenverteilung zwischen domna, amic und gaita.“
Um nun noch den Begriff der Gattung zu definieren, greife ich auf die allgemeine Definition des Duden zurück, dieser definiert Gattung als „Gesamtheit von [Arten von] Dingen, Einzelwesen, Formen, die in wesentlichen Eigenschaften übereinstimmen.“
Somit soll diese Arbeit klären, inwiefern die Frauenlieder der Troubadoure, der Trouvères, der Minnesänger und der galicisch-portugiesischen Troubadoure unter dem Gattungsbegriff „Frauenlied“ vereint werden können oder ob sich so viele verschiedene Formen von Liedern mit weiblichem lyrischen Subjekt finden lassen, dass lediglich von einem Überbegriff die Rede sein kann.
Theater und Serie
(2010)
Soaps machen dumm. So ein permanent aktualisiertes Vorurteil. Gegen die Wiederholung des Immergleichen durch standardisierte Serienproduktion bemüht man gerne das Theater - und das heißt letztlich die Mutter aller Fernsehserien: den Guckkasten. Doch längst führt das Theater vor, was sich vom Fortsetzungsformat der Seifenoper lernen lässt: die exponierte Wiederholbarkeit eines auf das Personalisieren angelegten Schemas. So kann gerade der Bezug auf die Soap Opera im Theater der potenziellen Reflexion von Form und Funktion des Dramas dienen. In diesem Sinn akzentuiert René Polleschs Arbeit eine noch kaum erforschte, gleichwohl paradigmatische Form nicht protagonistischer Darstellung. Wie kein anderer mobilisiert er jenes Serienprinzip, das die einzelne Episode nicht mehr als geschlossenes Ganzes betrachtet, für ein politisches Theater der Gegenwart. Was Polleschs "Soap-Theater" zur Sprache bringt, besteht aus recyceltem Material. Die Aufführungen selbst sind immer wieder als Fortsetzungen angelegt. Polleschs Markenzeichen ist denn auch das schnelle Auf-Anschluss-Sprechen. Die in seinen Stücken nichtdialogisch angelegte Rede springt von Darstellerin zu Darsteller. Dabei wird nicht nur das Gesprochene, sondern ebenso die sprechende Figur als populärkulturelles Zitat ausgewiesen. So zeugt die Übersetzung des Soapformats auf die Bühne von den praktisch-reflexiven Umgangsmöglichkeiten mit fortgesetzten Wiederholungen. Die Instanz der Rede ins Serielle überführend, zielt Pollesch präzise auf jene personale Darstellungsfunktion des Sprechtheaters, die die Kritiker der Massenkultur als Residualbereich individuellen Ausdrucks verklären. Seine Inszenierungen unterlaufen mithin das dem Drama zugrunde liegende protagonistische Modell, das von der evidenzstiftenden personalen Darstellung einer literarisch vorgegebenen - singulären - Figur im Hier und Jetzt ausgeht. Der absoluten Gegenwartsfolge innerhalb eines geschlossenen Ganzen widerstreitend, stellt Pollesch durch den Einsatz des Serienprinzips jenes Spannungsverhältnis aus, das die verschränkte Zeitlichkeit des Theaters immer schon kennzeichnet: die Relation zwischen der physischen Präsenz des Darstellers, dem körperbildlichen Herbeizitieren einer bestimmten gesellschaftlichen Position und der Fiktion einer im Zitat szenisch herzustellenden sprechenden 'persona'. Im Verweis auf diese Grundelemente des Sprechtheaters, deren Fügung die dramatische Gestalt produziert und die allererst die Voraussetzung ihrer Repräsentationsfunktion ist, wendet sich Polleschs Arbeit gegen eine gängige Form der Ästhetisierung von Politik. Denn gerade durch seinen spezifischen Einsatz des Serienprinzips treten die Darstellerinnen und Darsteller auf der Bühne nicht als authentifizierende Repräsentanten einer Figur, sondern als leibhaftiger Verfremdungseffekt hervor. Physisch präsent und zugleich reflexiv zitierend, machen sie so auf die latent gehaltene Serialität jener vom Theater herkommenden Darstellungsform aufmerksam, die mit ihren eigenen Voraussetzungen auch die ihr inhärente politische Funktion verstellt. Polleschs 'Tod eines Praktikanten' - 2007 auf dem Prater, der kleinen Spielstätte der Berliner Volksbühne, aufgeführt - zeigt exemplarisch, worin die Schlagkraft einer offensiven Fusion von Theater und Serie besteht.
Bitter taste receptors (TAS2Rs) are expressed in mucous epithelial cells of the tongue but also outside the gustatory system in epithelial cells of the colon, stomach and bladder, in the upper respiratory tract, in the cornified squamous epithelium of the skin as well as in airway smooth muscle cells, in the testis and in the brain. In the present work we addressed the question if bitter taste receptors might also be expressed in other epithelial tissues as well. By staining a tissue microarray with 45 tissue spots from healthy human donors with an antibody directed against the best characterized bitter taste receptor TAS2R38, we observed an unexpected strong TAS2R38 expression in the amniotic epithelium, syncytiotrophoblast and decidua cells of the human placenta. To analyze the functionality we first determined the TAS2R38 expression in the placental cell line JEG-3. Stimulation of these cells with diphenidol, a clinically used antiemetic agent that binds TAS2Rs including TAS2R38, demonstrated the functionality of the TAS2Rs by inducing calcium influx. Restriction enzyme based detection of the TAS2R38 gene allele identified JEG-3 cells as PTC (phenylthiocarbamide)-taster cell line. Calcium influx induced by PTC in JEG-3 cells could be inhibited with the recently described TAS2R38 inhibitor probenecid and proved the specificity of the TAS2R38 activation. The expression of TAS2R38 in human placental tissues points to further new functions and hitherto unknown endogenous ligands of TAS2Rs far beyond bitter tasting.
Laut Richard Dyer haben die Menschen schon immer Serialität als Spiel mit Wiederholung und Erwartung geliebt: "It’s clear that humans have always loved seriality. Bards, jongleurs, griots and yarnspinners (not to mention parents and nurses) have all long known the value of leaving their listeners wanting more, of playing on the mix of repetition and anticipation, and indeed of the anticipation of repetition, that underpins serial pleasure. However, it is only under capitalism that seriality became a reigning principle of cultural production, starting with the serialisation of novels and cartoons, then spreading to news and movie programming." Dyer unterscheidet in seinem historischen Abriss kaum zwischen Wiederholung und Serialität. Die Menschen lieben Serialität, weil es eine Lust an der Wiederholung gibt, doch erst seit der seriellen Produktion des Kapitalismus hat sich die Serie als Format durchgesetzt. Die Wiederholung im Kinderspiel unterscheidet sich jedoch von den Fortsetzungsromanen und Fernsehserien, da hier Variation und Linearität partiell eine größere Rolle spielt, die sich nicht auf die Erwartungshaltung in der rituellen Wiederholung reduzieren lässt. Denn obwohl dem zuzustimmen ist, dass "allen serialen und seriell angebotenen Produkten [...] das stilistische Merkmal der Wiederholung gemeinsam [ist]", ist es meiner Ansicht nach notwendig, zwischen der Wiederholung und dem Seriellen in kulturellen und ästhetischen Ausdrucksformen zu unterscheiden. Daher werde ich zunächst die Wiederholung genauer skizzieren, bevor ich auf spezifische serielle Formate in Film und Fernsehen eingehe.
Hintergrund: Die Delegation ärztlicher Leistungen an nichtärztliches medizinisches Fachpersonal wird in Deutschland vor dem Hintergrund eines absehbaren Hausärztemangels bei gleichzeitig wachsendem Bedarf an hausärztlichen Betreuungsleistungen seit einiger Zeit diskutiert. Inzwischen wurden unterschiedliche Qualifikationsmodelle für Medizinische Fachangestellte (MFA) (z.B. die Versorgungs-assistentin in der Hausarztpraxis, VERAH) konzipiert und implementiert, die für eine Delegation von Leistungen qualifizieren. VERAH sind v.a. in Baden-Württemberg in Hausarztpraxen tätig, da deren Einsatz dort im Rahmen der Hausarztzentrierten Versorgung (HzV) seit 2008 finanziell honoriert wird. Dabei ist es den Praxen freigestellt, wie sie das VERAH-Konzept und damit auch die Delegation umsetzen. Auch gesetzliche Vorgaben zur Delegation lassen erheblichen Spielraum bei der Umsetzung. Erschwerend kommt hinzu, dass weiterhin Unklarheit darüber besteht, welche Leistungsübertragung als „Delegation“ und welche eher als „Substitution“ zu verstehen ist.
Zielrichtung der Arbeit: Ziel dieser publikationsbasierten Dissertation ist eine Darstellung der Formen und Graduierungen von Delegation, d.h. der tatsächlichen Umsetzung von Leistungsübertragung in der Hausarztpraxis am Beispiel der VERAH in Baden-Württemberg. Es können Empfehlungen für das Gelingen der Delegation aus der Analyse von Ergebnissen auf Patienten-, Praxis- und Teamebene abgeleitet werden.
Resultate: Diese Dissertation basiert auf sechs Publikationen, die im Rahmen von zwei Projekten zur Evaluation des VERAH-Einsatzes in der HzV in Baden-Württemberg entstanden. Die Evaluationen basieren auf einem Mixed Methods-Design, d.h. auf der Analyse von querschnittlich erhobenen quantitativen Daten sowie qualitativen Daten zu verschiedenen Fragen des VERAH-Einsatzes.
Es existiert ein breites Spektrum an Formen und Graduierungen der Delegation in Hausarztpraxen, die am HzV-Modell teilnehmen. VERAH übernehmen einerseits supplementäre (zusätzliche) ärztliche Tätigkeiten, wie z.B. Geriatrisches Assessment oder Impfberatungen, aber auch komplementäre (ergänzende) Tätigkeiten wie z.B. die Beratung der Angehörigen zu Hilfeleistungen im Gesundheitssystem. Vor allem im Rahmen von Hausbesuchen üben VERAH auch substituierende (ersetzende) Funktionen
aus. Auf Patientenseite sind gerade ältere, multimorbide und pflegebedürftige Patienten Empfänger delegierter Leistungen. Sie erhalten eine umfassende Betreuung und werden beim Erhalt ihrer häuslichen Selbständigkeit unterstützt. Die Patienten sehen in der VERAH eine zusätzliche Vertrauensperson in der Praxis und akzeptieren sie als kompetente Ansprechpartnerin. Die Hausärzte profitieren durch die Delegation von Tätigkeiten an VERAH, indem sie entlastet werden und Zeit für wichtige medizinische Aufgaben gewinnen. Für VERAH stellt die Delegation eine Erweiterung ihrer Tätigkeits- und Kompetenzbereiche dar und kann insofern als ein Schritt zur Professionalisierung des nichtärztlichen Personals einer Hausarztpraxis gelten.
Viele Faktoren, die zum Gelingen einer Umsetzung der Delegation beitragen, können vom hausärztlichen Team selbst beeinflusst werden. Darunter fallen das Engagement der MFA, die Qualifikation, zeitliche Flexibilität, ausreichend Gestaltungsspielraum, Grad der Autonomie, Abgrenzung des Verantwortungsbereiches und auch adäquates Equipment. Entsprechend richten sich die hier formulierten Empfehlungen meist an die Praxis, aber auch an den Gesetzgeber.
Bedeutung für die übergeordnete Fragestellung: Die Ergebnisse dieser Arbeit zeigen, dass mit dem VERAH-Konzept erste Ansätze einer teambasierten Versorgung vorhanden sind, und dass sich die Analyse dieses Konzeptes eignet, um Desiderata für die Zukunft von Delegation (haus-)ärztlicher Leistungen an nichtärztliches Personal formulieren zu können. Teambasierte Ansätze bedürfen, wie auch internationale Beispiele verdeutlichen, einer Weiterentwicklung der bestehenden Delegationskonzepte in deutschen Hausarztpraxen. Idealerweise mündet eine mit Delegation einhergehende Aufgaben- und Rollenneuverteilung in einer Betreuungsform, in der alle Teammitglieder entsprechend ihrer Qualifikation an der Versorgung der Patienten in der Hausarztpraxis beteiligt sind. Daher kommt die Einbindung von Pflegekräften in die hausärztliche Versorgung genauso in Frage, wie auch speziell ausgebildete VERAH/MFA. In jedem Fall sollte über Schritte der Professionalisierung nichtärztlicher Berufsgruppen nachgedacht werden. Ob sich in Deutschland, wie in den USA und in Kanada, aus diesen Delegationskonzepten im Laufe der Zeit Substitution (im Sinne der Verantwortungsübertragung an nichtärztliche Berufsgruppen) entwickelt, bleibt abzuwarten. Die Ergebnisse der Dissertation zeigen, dass es mit der gegenwärtigen Umsetzung der Delegation an VERAH zu einer Erweiterung des Leistungsspektrums in den Hausarztpraxen kommen kann; eine Ausweitung der Delegation sollte jedoch zeitnah vorangetrieben werden.
Development and implementation of novel optogenetic tools in the nematode Caenorhabditis elegans
(2016)
Optogenetics, though still only a decade old field, has revolutionized research in neurobiology. It comprises of methods that allow control of neural activity by light in a minimally-invasive, spatio-temporally precise and genetically targeted manner. The optogenetic actuators or the genetically encoded light sensitive elements mediate light driven manipulation of membrane potential, intracellular signalling, neuronal network activity and behaviour (Fenno et al. 2011; Dugué et al. 2012). These techniques have been particularly useful for dissecting neural circuits and behaviour in the transparent and genetically amenable nematode model system Caenorhabditis elegans (Husson et al. 2013; Fang-yen et al. 2015).
In fact, C. elegans was the first living organism in which microbial rhodopsin based optogenetic tools (Channelrhodopsin-2 or ChR2, and Halorhodopsin or NpHR) were successfully implemented and bimodal 'remote' control of behaviour was achieved (Nagel et al. 2005; Zhang et al. 2007). Since then it has been a prominent model for the development and application of novel optogenetic tools and techniques, especially in the nervous system which comprises of 302 neurons and is organised in a hierarchical organization. The environmental stimuli are sensed by the sensory neurons, leading to the processing of information by the downstream interneurons, that relay to motor neurons which in-turn synapse onto muscles that drive the movement-based responses.
The microbial rhodopsins like ChR2 and NpHR mediate light driven depolarization and hyperpolarization, respectively and thereby activate or inhibit neural activity. However, they do not allow local control of membrane potential as they are expressed all over the plasma membrane of the cell rather than being restricted to specific domains, for example synaptic sites. Moreover, they completely over-ride the intrinsic activity of the cell, completely bypassing the signal transduction processes inside the cell. Thus, in order to study intracellular signalling and to answer questions pertaining to the endogenous role of receptors and channels in an in-vivo context, the optogenetic tool-kit needs to be expanded.
This thesis aimed at developing and implementing novel optogenetic tools in C. elegans that allow for sub-cellular signalling control as well as endogenous receptor control. These are: two light activated guanylyl cyclases (bPGC and BeCyclOp) to modify cyclic guanosine monophosphate (cGMP) mediated signalling in the sensory neurons, as well as attempts towards rendering endogenous C. elegans receptors - glutamate receptor (GLR-3/-6), acetylcholine receptor (ACR-16), glutamate gated chloride channel (GLC-1) light switchable and to understand their biological function in-vivo.
Organisms respond to sensory cues by activation of a primary receptor followed by relay of information downstream to effector targets by secondary signalling molecules. cGMP is a widely used 2nd messenger in cellular signaling, acting via protein kinase G or cyclic nucleotide gated (CNG) channels. In sensory neurons, cGMP allows for signal modulation and amplification, before depolarization. Chemo-, thermo-, and oxygen-sensation in C. elegans involve sensory neurons that use cGMP as the main 2nd messenger. For example, ASJ is the pheromone sensing neuron regulating larval development, AWC is the chemosensory neuron responding to volatile odours and BAG senses oxygen and carbon dioxide in the environment. In these neurons, cGMP acts downstream of the GPCRs and functions by activating cationic TAX-2/-4 CNG channels, thereby depolarising the sensory neuron. Manipulating cGMP levels is required to access signalling between sensation and sensory neuron depolarization, thereby provide insights into signal encoding. We achieve this by implementing two photo-activatable guanylyl cyclases - 1) a mutated version of Beggiatoa sp. bacterial light-activated adenylyl cyclase, with specificity for GTP (Ryu et al. 2010), termed BlgC or bPGC (Beggiatoa photoactivated guanylyl cyclase) and 2) guanylyl cyclase rhodopsin (Avelar et al. 2014) from Blastocladiella emersonii (BeCyclOp).
bPGC is a BLUF (blue light sensing using flavin) domain containing cyclase which uses FAD as the co-factor and catalyses the synthesis of cGMP from GTP upon activation by blue light. Prior to implementation in sensory neurons, a simpler heterologous system with co-expression of the TAX-2/-4 CNG channel in C. elegans body wall muscle (BWM) was used. The cGMP generated by the light activated cyclases activates the CNG channel leading to the muscle depolarization, thereby causing changes in body length which can be easily scored.
Die Wärme liebende Asiatische Tigermücke »Aedes albopictus« fühlt sich seit Jahrzehnten im Mittelmeerraum wohl. Sie ist Überträgerin gefährlicher, bisher in Europa nicht verbreiteter Viren. Wird sie sich aufgrund des Klimawandels und anderer Umweltfaktoren weiter nach Norden ausbreiten? Und werden andere eingeschleppte Arten ihr folgen? Das untersucht die Arbeitsgruppe von Prof. Dr. Sven Klimpel mithilfe der ökologischen Nischenmodellierung und genomischer Analysen.
Die meisten von Menschen in neue Habitate eingeschleppten Arten sind harmlos. Doch einige richten beträchtliche ökologische und ökonomische Schäden an. Rückgängig machen kann man den Prozess nicht, aber vorbeugen sollte man. Computermodelle ermitteln die gefährdeten Knotenpunkte im Handelsnetz und sagen die nächsten Invasoren im marinen Bereich inzwischen zuverlässig voraus.
Lauschangriff mit tödlichen Folgen : Signalmoleküle von Bakterien können fremden Arten schaden
(2016)
Eine der wichtigsten Fähigkeiten aller Lebewesen ist die Kommunikation. Ihre universelle Ausdrucksform findet sie im Austausch hoch spezifischer Signalmoleküle. Bei der Entschlüsselung der diversen »Sprachen« und »Dialekte« von Bakterien machen Forscher immer wieder neue und überraschende Entdeckungen, die auch eine Alternative zu Antibiotika versprechen.
Es war kein Aprilscherz, als das »Time Magazine« am 1. April 2013 auf der Titelseite ankündigte, wie man Krebs heilen kann. Anlass war die Gründung einer Initiative zur besseren Vernetzung von klinischen Forschern und Grundlagenwissenschaftlern, um so neue Therapieansätze wie »Checkpoint-Inhibitoren« bei malignem Melanom (schwarzem Hautkrebs), auch auf andere Krebserkrankungen übertragen zu können. Checkpoint-Inhibitoren sind der erste echte Durchbruch in der Therapie von fortgeschrittenen Krebserkrankungen.
Software evolves. Developers and programmers manifest the needs that arise due to evolving software by making changes to the source code. While developers make such changes, reusing old code and rewriting existing code are inevitable. There are many challenges that a developer faces when manually reusing old code or rewriting existing code. Software tools and program transformation systems aid such reuse or rewriting of program source code. But there are significantly occuring development tasks that are hard to accomplish manually, where the current state-of-the-art tools are still not able to adequately automate these tasks. In this thesis, we discuss some of these unexplored challenges that a developer faces while reusing and rewriting program source code, the significance of such challenges, the existing automation support for these challenges and how we can improve upon them.
Modern software development relies on code reuse, which software developers
typically realize through hand-written abstractions, such as functions,
methods, or classes. However, such abstractions can be challenging to
develop and maintain. An alternative form of reuse is \emph{copy-paste-modify}, in which developers explicitly duplicate source code to adapt the duplicate for a new purpose. Copy-pasted code results in code clones, i.e., groups of code fragments that are similar to each other. Past research strongly suggests that copy-paste-modify is a popular technique among software developers. In this paper, we perform a small user study that shows that copy-paste-modify can be substantially faster to use than manual abstraction.
One might propose that software developers should forego hand-written abstractions in favour of copying and pasting. However, empirical evidence also shows that copy-paste-modify complicates software maintenance and increases the frequency of bugs. Furthermore, the developers in an informal poll we conducted strongly preferred to read code written using abstractions. To address the concern around copy-paste-modify, we propose a tool that merges similar pieces of code and automatically creates suitable abstractions. Our tool allows developers to get the best of both worlds: easy reuse together with custom abstractions. Because different kinds of abstractions may be beneficial in different contexts, our tool provides multiple abstraction mechanisms, which we selected based on a study of popular open-source repositories.
To demonstrate the feasibility of our approach, we have designed and implemented a prototype merging tool for C++ and evaluated our tool on a number of clones exhibiting some variation, i.e near clones, in popular Open Source packages. We observed that maintainers find our algorithmically created abstractions to be largely preferable to existing duplicated code. Rewriting existing code can be considered as a form of program transformation, where a program in one form is transformed into a program in another form. One significant form of program transformation is data representation migration that involves changing the type of a particular data structure, and then updating all of the operations that has a control or data dependence on that data structure according to the new type. Changing the data representation can provide benefits such as improving efficiency and improving the quality of the computed results. Performing such a transformation is challenging, because it requires applying data-type specific changes to code fragments that may be widely scattered throughout the source code connected by dataflow dependencies. Refactoring systems are typically sensitive to dataflow dependencies, but are not programmable with respect to the features of particular data types. Existing program transformation languages provide the needed flexibility, but do not concisely support reasoning about dataflow dependencies.
To address the needs of data representation migration, we propose a new approach to program transformation that relies on a notion of semantic dependency: every transformation step propagates the transformation process onward to code that somehow depends on the transformed code. Our approach provides a declarative transformation specification language, for expressing type-specific transformation rules. We further provide scoped rules, a mechanism for guiding rule application, and tags, a device for simple program analysis within our framework, to enable more powerful program transformations.
We have implemented a prototype transformation system based on these ideas for C and C++ code and evaluate it against three example specifications, including vectorization, transformation of integers to big integers, and transformation of array-of-structs data types to struct-of-arrays format. Our evaluation shows that our approach can improve program performance and the precision of the computed results, and that it scales to programs of at least 3700 lines.
Vitamin-D-Mangel – ein Risikofaktor für Diabetes : wie Forscher das Immunsystem umprogrammieren
(2016)
Was tun, wenn das Immunsystem nicht mehr zwischen fremden und eigenen Zellen unterscheiden kann? Bei Diabetes Typ 1, einer der häufigsten Autoimmunerkrankungen, gibt es bisher keine Heilung. Besonders schwierig wird die Therapie, wenn parallel dazu weitere Autoimmunerkrankungen auftreten. Mit Vitamin D und anderen Immunmodulatoren soll sich die Situation der Patienten in Zukunft grundlegend verbessern.
Organspenden retten und verlängern Leben : Prof. Dr. Ingeborg Hauser im Interview mit Dr. Anne Hardy
(2016)
Der 21. Mai 2015 ist für Claudia und Timothy Pillar ein besonderer Tag. Seitdem verbindet das Paar mehr als die Erlebnisse einer fast vierzigjährigen Ehe und ein gemeinsamer Sohn. Tim Pillar hat seiner Frau eine Niere gespendet und ihr damit wieder ein (fast) normales Leben ermöglicht. Inzwischen spricht sie von ihrer Krankheit in der Vergangenheitsform.
Überraschende neue Antworten auf die althergebrachte Frage nach dem »Eigenen« und »Fremden« geben die Romane des indischstämmigen Schriftstellers Moyez G. Vassanji, der in Kenia geboren wurde, seit Jahrzehnten in Kanada lebt und heute zu den bedeutendsten Autoren der ostafrikanischen Gegenwartsliteratur zählt. Seine Protagonisten verkörpern eine transregionale Verflechtungsgeschichte, die aus europäischer Perspektive kaum wahrgenommen wird, aber durchaus Impulse für aktuelle Debatten geben kann.
Der Film als modernes mobiles Medium lebt von Erfahrungen des Eigenen und Fremden. Zeigten die Reisefilme zu Beginn des 20. Jahrhunderts bewusst die »wunderbare Differenz« zur eigenen Wirklichkeit, wurde in der heilen Welt der Heimatfilme nach Ende des Zweiten Weltkriegs das Eigene für den Konsum verfügbar gemacht. Erst die Hollywood-Blockbuster verfolgten die Strategie, das kulturell Fremde so zu minimieren, dass daraus der für alle verständliche »Dialekt der Moderne« wurde.
Einflüsse aus anderen Sprachen gehören zum Sprachwandel. Doch wie viele fremde Wörter und Wendungen verträgt eine Sprache? Wann sind sie das Salz in der Suppe? Wann und warum gelten sie als Störfaktor? Das Verhältnis zum Fremdwort kann viel aussagen über den allgemeinen Zustand einer Sprachgemeinschaft – vor allem der deutschen.
Auf nur 25 Seiten schuf Tacitus gegen Ende des 1. Jahrhunderts »Germania« und damit auch das Volk der Germanen, das so gar nicht existierte. In der Antike lebten auf diesem Territorium völlig unabhängig voneinander vielerlei Stämme. Warum zeichnete Tacitus das positive Bild eines unverdorbenen, kampfeslustigen Naturvolks? Wollte er damit den dekadenten Römern einen Spiegel vorhalten? Wollte er vor den starken Gegnern im fremden Norden warnen, gegen die die Römer nicht wieder zu Felde ziehen sollten?
Die Deutschen traten »sich selbst immer ein wenig fremd gegenüber «, schreibt der Frankfurter Mittelalter-Historiker Johannes Fried in seinem Buch »Die Anfänge der Deutschen«, das deren »ethnische Taufe« vom späten 8. bis zum 12. Jahrhundert in den Blick nimmt. Das viel beachtete Werk, das nach 20 Jahren in einer überarbeiteten Neuausgabe vorliegt, lässt sich mittlerweile auch als Kommentar zur aktuellen Diskussion um eine angebliche Bedrohung »eigener« Werte lesen. Bernd Frye sprach mit Prof. Dr. Johannes Fried über ein Volk, das seinerseits aus fremden Elementen und Einwanderungsprozessen erwachsen ist.
Sie hören Stimmen, vermuten Botschaften in bedeutungslosen Ereignissen oder fühlen sich ferngesteuert: Die Symptome von Menschen mit einer schizophrenen Störung galten bisher als »uneinfühlbar«, da für Außenstehende nicht nachvollziehbar. Aktuelle neurowissenschaftliche Modelle helfen, die Verwechslung von »eigen« und »fremd« aufzuklären.
Zu Beginn der industriellen Massenproduktion und vor dem Zeitalter des Klons stand Serialität nicht für identische Reproduktion, sie verschränkte vielmehr Ordnung und Variation. Durch diese begriffliche Fassung von Serie war es möglich, dass sie nicht allein Mittel der Standardisierung und Gesetzmäßigkeit war, sondern mit ihr auch Varianzen und Differenzen formuliert werden konnten. Kunstgeschichtlich manifestiert die Serie - exemplarisch kann hierfür Claude Monet stehen - grundlegende konzeptionelle Veränderungen in der Auffassung von Kunst: Auf der einen Seite macht die serielle Darstellung deutlich, dass die bildende Kunst sich von ihrer repräsentativen Aufgabe emanzipiert hatte. Das Bild war fortan keine "Form 'natürlicher Malerei'", sondern eine Übersetzung, eine Transformation, die sich einem Wechselspiel denkerischer, technischer und darstellender Prozesse verdankt. Bild und bildnerische Verfahren werden erkennbar als künstlerische Verfahrensweisen, die auf je spezifische gesellschaftliche, zeitliche und ästhetische Anforderungen reagieren und diese einbeziehen. Auf der anderen Seite sind mit der seriellen Darstellung aufgrund ihrer Reflexion der Relationen der Elemente zueinander eine Spannung zwischen Offenheit und Geschlossenheit, eine Verräumlichung von Zeit und ein Umschlag von Diachronie in Synchronie verknüpft. Die Serie in der bildenden Kunst kann als eine Figur charakterisiert werden, die Konzepten der Identität, der Sukzession und linearen Entwicklung konträr ist. Insofern verwundert es nicht, dass in den 1960er Jahren, in denen das Interesse an seriellen Verfahren, Ordnungen und Produktionen erstarkte, das Prinzip der Serie zu Reformulierungen und Verschiebungen des Kunstbegriffs beigetragen hat.
So wie der intermediale Dialog eine Polyphonie der Erzählerperspektiven zum Ausdruck bringt, die in 'Leben? Oder Theater?' narratologisches Programm ist, stellt die Serialität hier kein rein formales Experiment dar, sondern ist eng mit der Erzählung verbunden. Auch wenn es im Folgenden vorrangig um eine Serialität im Medium des Bildes geht, ist diese in eine Bilder'geschichte', mithin in einen narrativen Gesamtzusammenhang integriert und muss aus diesem und in Hinblick auf ihre Funktion für diesen untersucht werden. Es wird sich zeigen, dass Wiederholung und Serialität in 'Leben? Oder Theater?' thematisch immer an die Auseinandersetzung mit dem Tod bzw. das Spannungsverhältnis zwischen Leben und Tod gebunden ist.
Aerosolteilchen agieren als Kondensationskeime für Wolkentröpfchen (engl. Cloud Condensation Nuclei, CCN) oder Eiskristalle und sind deswegen für die Wolken- und Niederschlagsbildung entscheidend. Sowohl die Aerosolpartikel als auch die Wolken können Sonnenlicht effizient streuen, wodurch ein kühlender Effekt auf das Klima ausgeübt wird. Einige der Teilchen, wie z. B. aufgewirbelter Staub oder Seesalz, werden direkt in die Atmosphäre injiziert; der größte Anteil der Teilchen und etwa die Hälfte der CCN werden allerdings durch die Kondensation gasförmiger Substanzen gebildet. Dieser Prozess wird als Nukleation oder Partikelneubildung (engl. New Particle Formation, NPF) bezeichnet. Trotz intensiver Forschung ist die NPF noch nicht vollständig verstanden, was an der Komplexität der chemischen Abläufe in der Atmosphäre und an der Schwierigkeit liegt, die relevanten Substanzen bei extrem geringen Mischungsverhältnissen (etwa ein Molekül oder Cluster per 1012 bis 1015 Moleküle) zu identifizieren und zu quantifizieren. Neben der Frage nach den bei der Nukleation beteiligten Substanzen ist außerdem noch unklar, ob Ionen-induzierte Nukleation ein wichtiger Prozess für das Klima ist. Das CLOUD-Projekt (Cosmics Leaving OUtdoor Droplets) am CERN soll diesen Fragen nachgehen, indem dort die Partikelbildung in einem Kammer-Experiment unter extrem gut kontrollierten Bedingungen simuliert wird. Die chemischen Systeme, die in dieser Schrift diskutiert werden, umfassen das binäre (H2SO4-H2O), das ternäre Ammoniak (H2SO4-H2O-NH3) und das ternäre Dimethylamin (H2SO4-H2O-(CH3)2NH)-System.
Einige der wesentlichen Ergebnisse von Experimenten an der CLOUD-Kammer werden diskutiert. Diese zeigen, dass das binäre und das ternäre Ammoniak System die atmosphärische Nukleation bei niedrigen Temperaturen erklären können, wohingegen das ternäre Dimethylamin System prinzipiell in der Lage ist, die hohen bodennahen Nukleationsraten bei atmosphärisch relevanten Schwefelsäure-Konzentrationen zu beschreiben. Des Weiteren werden zwei für Nukleationsstudien wesentliche Messmethoden vorgestellt. Das Chemical Ionization Mass Spectrometer (CIMS) wird zur Messung von gasförmiger Schwefelsäure verwendet, da H2SO4 vermutlich die wichtigste Substanz bei der atmosphärischen Nukleation ist. Das Chemical Ionization-Atmospheric Pressure interface-Time Of Flight (CI-APi-TOF) Massenspektrometer misst Schwefelsäure und neutrale Cluster. Beide Geräte wurden für den Einsatz bei CLOUD optimiert und instrumentelle Entwicklungen wurden in Bezug auf die Ionenquelle vorgenommen, die eine Korona-Entladung verwendet. Außerdem wurden eine Kalibrationseinheit zur Bereitstellung definierter Schwefelsäure-Konzentrationen entwickelt und das CI-APi-TOF aufgebaut. In Bezug auf das ternäre Dimethylamin System werden Nukleationsraten und die ersten Messungen von gro en nukleierenden neutralen Clustern präsentiert. Monomer- und Dimer-Konzentrationen der Schwefelsäure, die mit dem CIMS bei tiefen Temperaturen gemessen wurden, dienten der Ableitung der thermodynamischen Eigenschaften bei der Dimer-Bildung im binären und ternären Ammoniak System. Um möglichst exakte Nukleationsraten zu bestimmen, wurde eine neue Methode entwickelt, die es erlaubt, den Effekt der Selbst-Koagulation bei der Nukleation miteinzubeziehen.
Die zusammengefassten Studien tragen signifikant zum Verständnis der Partikelneubildung bei.
Der musikalische Serialismus wird bis heute als ein mechanistisches Kompositionsverfahren abgetan, wie es typisch für die verunsicherte Nachkriegszeit der 1950er Jahre zu sein scheint. Dieser Ansatz übersieht die grundsätzlichen Impulse, die von diesen Ansätzen bis heute ausgehen. Festmachen kann man dies z. B. daran, wie stark seit den 90er Jahren ein formales strukturorientiertes Denken in der elektronischen Musik zum Durchbruch gelangte, wie es noch mit Sound- und Midiorientierten Verfahren in den 80er Jahren nicht absehbar war. Für einen qualitativ neuen Typus form- und strukturgenerierender Tools im Virtuellen digitaler Symbolverarbeitung stehen heute kollaborative Echtzeitprogramme bereit, die 'Komposition' als ein neues strukturelles Dispositiv erfahren lassen und in direkter Linie zum Serialismus gesehen werden können.
Nur die Einbeziehung des Fremden bewahre vor steriler Identität, meinte Adorno, aus dem Exil in den USA nach Frankfurt zurückgekehrt. Wie steht es heute um Fremdheit und Fremde und um das Verhältnis von Eigenem und Fremdem? Das erkundet der Philosoph und Publizist Rolf Wiggershaus im Gespräch mit fünf Frankfurter Professorinnen und Professoren.
Haben Vorurteile einen Sinn? In der Entwicklungsgeschichte des Menschen vermutlich schon, um Freund und Feind unterscheiden zu können. Aber in der heutigen globalen, wenn auch komplexeren Welt ist es wichtig zu wissen, warum Vorurteile entstehen und welche Gruppenprozesse dahinterstecken. Die Sozialpsychologie kann seit den 1950er Jahren auf eine Vielzahl von Experimenten verweisen – mit spannenden Ergebnissen. Eines lautet: Je mehr Kontakt Menschen aus unterschiedlichen Gruppen miteinander haben, desto geringer sind auch die Vorurteile.
Die Begegnung mit dem Nachbarn bleibt nahezu kommunikationsfrei, wenn man nur darauf achtet, dass die Zweige der Birke nicht über die Grenze zu ihm hinüberwachsen. Ist der Nachbar nicht mehr nur der Andere von nebenan und gegenüber, sondern tendenziell längst ein Fremder geworden? Haben Nachbarschaften wirklich ihren sozialen Verpflichtungscharakter weitgehend verloren? Der Kulturanthropologe begibt sich auf Spurensuche.
Die 16 Bücher, die Ed Ruscha zwischen 1963 und 1978 publizierte, teilen eine Reihe charakteristischer Eigenschaften. In ihrer unprätentiösen Erscheinung bestechen sie auf unverkennbare Art und Weise durch ein klares Layout und eine nüchterne Typografie, die scheinbar im Widerspruch zu den oft etwas absurd anmutenden Titeln wie 'Twentysix Gasoline Stations', 'Nine Swimming Pools', 'Some Los Angeles Apartments' oder 'Every Building on the Sunset Strip' stehen. Im Innern der Bücher ist jeweils eine Serie meist schwarz-weißer Fotografien zu sehen, welche abbildet, was im Titel angekündigt wird: Tankstellen, Swimmingpools, Parkplätze etc. Obschon einem beim Durchblättern auf den ersten Blick hauptsächlich die Fotografien ins Auge springen, wird rasch deutlich, dass diese immer in engem Zusammenhang mit ihrem Trägermedium, dem Buch, stehen. Zwei Aspekte von Ruschas Fotobüchern sind interessant im Hinblick auf das Prinzip der Reihung: einerseits das prototypische Vorgehen des Künstlers in der Produktion seiner Publikationen und andererseits der Zusammenhang zwischen der Präsentation einer fotografischen Serie in Buchform und der daraus resultierenden doppelten Zeitlichkeit.
Einer der berühmtesten Sätze Nietzsches lautet: "Was ist also Wahrheit? Ein bewegliches Heer von Metaphern, Metonymien, Anthropomorphismen kurz eine Summe von menschlichen Relationen, die, poetisch und rhetorisch gesteigert, übertragen, geschmückt wurden, und die nach langem Gebrauche einem Volke fest, canonisch und verbindlich dünken [...]". Der Satz wird immer wieder zitiert und aufgerufen, wenn es darum geht, Geltungsansprüche von Theorien in Frage zu stellen, Begriffe und normative Vorstellungen zu dekonstruieren oder den Anteil des Figurativen im Denken hervorzukehren. Dabei liegt der Akzent dann auf den dominanten Tropen Metapher und Metonymie, wenn nicht allein auf der Metapher. In jedem Fall aber ist es die Identifizierung von Wahrheit und Metapher, die in den Mittelpunkt der Aufmerksamkeit gerückt wird, von Wahrheit und Bild oder übertragener, 'uneigentlicher', verschobener Bedeutung, von Wahrheit und nicht fixierbarer, sondern in Bewegung befindlicher Bedeutung, und die Verschiebung kommt - dem Wortsinn entsprechend - durch Tropen zustande. Denn zumindest traditionelle Rhetorik definiert Tropen als diejenigen Figuren, bei denen sich die Bedeutung vom ursprünglichen Wortinhalt wegwendet (τρέπεσϑαι). Tropen sind Wendungen des Sinns. An Nietzsches berühmtem Satz soll hier das Augenmerk kurz auf zwei andere Aspekte gerichtet werden: zum einen auf die in dem Satz selbst enthaltene Metapher, die des Heeres, und zum anderen auf die Struktur des Satzes, d. h. darauf, dass die Prädizierung der Wahrheit als "Heer von Metaphern, Metonymien, Anthropomorphismen" ihrerseits eine rhetorische Figur darstellt, nämlich eine Aufzählung.
One of the main things that we as humans do in our lifetime is the recognition and/or classification of all kind of visual objects. It is known that about fifty percentage of the neocortex is responsible for visual processing. This fact tells us that object recognition (OR) is a complex task in our and in the animal brain, but we do it in a fraction of a second.
The main question is: How does the brain exactly do it? Does the brain use some feature extraction algorithm for OR tasks? The hierarchical structure of the visual cortex and studies on a part of the visual cortex called V1 tell us that our brain uses feature extraction for OR tasks by Gabor filters. We also use our previous knowledge in object recognition to detect and recognize the objects which we never saw before. Also, as we grow up we learn new objects faster than before.
These facts imply that the visual cortex of human and other animals uses some common (universal) features at least in the first stages to distinguish between different objects. In this context, we might ask: Do universal features in images exist, such that by using them we are able to efficiently recognize any unknown object? Is it necessary to extract new special features for any new object? How about using existing features from other tasks for this? Is it possible to efficiently use extracted feature of a specific task for other tasks? Are there some general features in natural and non-natural images which can also be used for specific object recognition? For example, can we use extracted features of natural images also for handwritten digit classification?
In this context, our work proposes a new information-based approach and tries to give some answers to the questions above. As a result, in our case we found that we could indeed extract unique features which are valid in all three different kinds of tasks. They give classification results that are about as good as the results reported by the corresponding literature for the specialized systems, or even better ones.
Another problem of the OR task is the recognition of objects, independently of any perception changes. We as humans or also animals can recognize objects in spite of many deformations (e.g. changes in illumination, rotation in any direction or angles, distortion and scaling up or down) in a fraction of a second. When observing an object which we never saw, we can imagine the rotated or scaled up objectin our mind. Here, also the question arises: How does the brain solve this problem? To do this, does the brain learn some mapping algorithm (transformation), independent of the objects or their features?
There are many approaches to model the mapping task. One of the most versatile ones is the idea of dynamically changing mappings, the dynamic link mapping (DLM). Although the dynamic link mapping systems show interesting results, the DLM system has the problem of a high computational complexity. In addition, because it uses the least mean squared error as risk function, the performance for classification is also not optimal. For random values where outliers are present, this system may not work well because outliers influence the mean squared error classification much more than probability-based systems. Therefore, we would like to complete the DLM system by a modified approach.
In our contribution, we will introduce a new system which employs the information criteria (i.e. probabilities) to overcome the outlier problem of the DLM systems and has a smaller computational complexity. The new information based selforganised system can solve the problem of invariant object recognition, especially in the task of rotation in depth, and does not have the disadvantage of current DLM systems and has a smaller computational complexity.
Il presente lavoro ha come oggetto d'esame lo scontro del filosofo neo-idealista Giovanni Gentile (1875-1944) col Modernismo cattolico. Obiettivo del lavoro è offrire per la prima volta un esame completo della controversa, durata sei anni, dal 1903 al 1909, attraverso una constestualizzazione storico ecclesiastica e storico filosofica di essa. Il tutto basandosi sulla pubblicazione di inediti fonti d'archivio.
Background aims: Immunomagnetic enrichment of CD34+ hematopoietic “stem” cells (HSCs) using paramagnetic nanobead coupled CD34 antibody and immunomagnetic extraction with the CliniMACS plus system is the standard approach to generating T-cell-depleted stem cell grafts. Their clinical beneficence in selected indications is established. Even though CD34+ selected grafts are typically given in the context of a severely immunosuppressive conditioning with anti-thymocyte globulin or similar, the degree of T-cell depletion appears to affect clinical outcomes and thus in addition to CD34 cell recovery, the degree of T-cell depletion critically describes process quality. An automatic immunomagnetic cell processing system, CliniMACS Prodigy, including a protocol for fully automatic CD34+ cell selection from apheresis products, was recently developed. We performed a formal process validation to support submission of the protocol for CE release, a prerequisite for clinical use of Prodigy CD34+ products.
Methods: Granulocyte-colony stimulating factor–mobilized healthy-donor apheresis products were subjected to CD34+ cell selection using Prodigy with clinical reagents and consumables and advanced beta versions of the CD34 selection software. Target and non-target cells were enumerated using sensitive flow cytometry platforms.
Results: Nine successful clinical-scale CD34+ cell selections were performed. Beyond setup, no operator intervention was required. Prodigy recovered 74 ± 13% of target cells with a viability of 99.9 ± 0.05%. Per 5 × 10E6 CD34+ cells, which we consider a per-kilogram dose of HSCs, products contained 17 ± 3 × 10E3 T cells and 78 ± 22 × 10E3 B cells.
Conclusions: The process for CD34 selection with Prodigy is robust and labor-saving but not time-saving. Compared with clinical CD34+ selected products concurrently generated with the predecessor technology, product properties, importantly including CD34+ cell recovery and T-cell contents, were not significantly different. The automatic system is suitable for routine clinical application.
Multi-scale entropy (MSE) has been recently established as a promising tool for the analysis of the moment-to-moment variability of neural signals. Appealingly, MSE provides a measure of the predictability of neural operations across the multiple time scales on which the brain operates. An important limitation in the application of the MSE to some classes of neural signals is MSE's apparent reliance on long time series. However, this sparse-data limitation in MSE computation could potentially be overcome via MSE estimation across shorter time series that are not necessarily acquired continuously (e.g., in fMRI block-designs). In the present study, using simulated, EEG, and fMRI data, we examined the dependence of the accuracy and precision of MSE estimates on the number of data points per segment and the total number of data segments. As hypothesized, MSE estimation across discontinuous segments was comparably accurate and precise, despite segment length. A key advance of our approach is that it allows the calculation of MSE scales not previously accessible from the native segment lengths. Consequently, our results may permit a far broader range of applications of MSE when gauging moment-to-moment dynamics in sparse and/or discontinuous neurophysiological data typical of many modern cognitive neuroscience study designs.
In diesem polemischen Aufsatz ist die Kunst des klassischen Stils als natürliches Produkt und Erziehungsmittel der freien Gesellschaft und in dieser Hinsicht als Gegensatz der sogenannten Avantgarde-Kunst betrachtet.
Background: One aspect of premating isolation between diverging, locally-adapted population pairs is female mate choice for resident over alien male phenotypes. Mating preferences often show considerable individual variation, and whether or not certain individuals are more likely to contribute to population interbreeding remains to be studied. In the Poecilia mexicana-species complex different ecotypes have adapted to hydrogen sulfide (H2S)-toxic springs, and females from adjacent non-sulfidic habitats prefer resident over sulfide-adapted males. We asked if consistent individual differences in behavioral tendencies (animal personality) predict the strength and direction of the mate choice component of premating isolation in this system.
Results: We characterized focal females for their personality and found behavioral measures of ‘novel object exploration’, ‘boldness’ and ‘activity in an unknown area’ to be highly repeatable. Furthermore, the interaction term between our measures of exploration and boldness affected focal females’ strength of preference (SOP) for the resident male phenotype in dichotomous association preference tests. High exploration tendencies were coupled with stronger SOPs for resident over alien mating partners in bold, but not shy, females. Shy and/or little explorative females had an increased likelihood of preferring the non-resident phenotype and thus, are more likely to contribute to rare population hybridization. When we offered large vs. small conspecific stimulus males instead, less explorative females showed stronger preferences for large male body size. However, this effect disappeared when the size difference between the stimulus males was small.
Conclusions: Our results suggest that personality affects female mate choice in a very nuanced fashion. Hence, population differences in the distribution of personality types could be facilitating or impeding reproductive isolation between diverging populations depending on the study system and the male trait(s) upon which females base their mating decisions, respectively.
This dissertation provides a comprehensive account of the grammar of relative clause extraposition in English. Based on a systematic review and evaluation of the empirical generalizations and theoretical approaches provided in the literature on generative grammar, it is shown that none of the previous theories is able to account for all the relevant facts. Among the most problematic data are the Principle C and scope effects of relative clause extraposition, cases with obligatory relative clauses, and relative clauses with elliptical NPs as antecedents.
I propose a new analysis of relative clause extraposition within the constraint-based, monostratal grammatical framework of Head-driven Phrase Structure Grammar (HPSG), enhanced with the semantic theory of Lexical Resource Semantics (LRS). Crucially, it is a general analysis of relative clause attachment, since both canonical and extraposed relative clauses are licensed by the same syntactic and semantic constraints. The basic assumption is that a relative clause can be adjoined to any phrase that contains a suitable antecedent of the relative pronoun. The semantic information that licenses the relative clause is introduced by the determiner of the antecedent NP. The techniques of underspecified semantics and the standard semantic representation language used by LRS make it possible to formulate constraints which yield the correct intersective interpretation of the relative clause (arbitrarily distant from its antecedent NP) and at the same time link the scope of the antecedent NP to the adjunction site of the relative clause.
In combination with the revised HPSG binding theory developed in this dissertation, the proposed analysis is able to capture the major properties of relative clause attachment within a unified and internally consistent monostratal constraint-based grammatical framework.
Previous studies suggest that the application of Controlled Language (CL) rules can significantly improve the readability, consistency, and machine-translatability of source text. One of the justifications for the application of CL rules is that they can have a similar impact on several target languages by reducing the post-editing effort required to bring Machine Translation (Ml’) output to acceptable quality. In certain situations, however, post-editing services may not always be a viable solution. Web-based information is often expected to be made available in real-time to ensure that its access is not restricted to certain users based on their locale. Uncertainties remain with regard to the actual usefulness of MT output for such users, as no empirical study has examined the impact of CL rules on the usefulness, comprehensibility, and acceptability of MT technical documents from a Web user's perspective. In this study, a two-phase approach is used to determine whether Controlled English rules can have a significant impact on these three variables. First, individual CL rules are evaluated within an experimental environment, which is loosely based on a test suite.Two documents are then published and subject to a randomised evaluation within the framework of an online experiment using a customer satisfaction questionnaire. The findings indicate that a limited number of CL rules have a similar impact on the comprehensibility of French and German output at the segment level. The results of the online experiment show that the application of certain CL rules has the potential to significantly improve the comprehensibility of German MT technical documentation. Our findings also show that the introduction of CL rules did not lead to any significant improvement of the comprehensibility, usefulness, and acceptability of French MT technical documentation.
The research reported in this thesis examines two main questions: firstly, which dictionary type, bilingual or monolingual, is most effective for intermediate learners of German for reading comprehension, and secondly, which features make monolingual dictionary definitions effective for these learners. These questions divide the thesis into two parts. The first part compares the effectiveness of the bilingual versus the monolingual dictionary, and the second part compares two different monolingual definition styles.
The research was originally motivated by the observation that Hong Kong Chinese intermediate learners of German prefer to use a German-English bilingual dictionary. Since the translations are presented in the learners' second language, the effectiveness of this bilingual dictionary is doubtful. On the other hand, the learners are reluctant to use the monolingual dictionary, recommended to them by their language teachers. Three investigations were conducted in order to gain more detailed knowledge about the learners' dictionary preference, and the effectiveness of the two dictionary types. The learners' dictionary preference was investigated by means of a survey of ninety-eight foreign language students. The effectiveness of the bilingual and monolingual dictionary for reading comprehension and incidental vocabulary learning was first measured experimentally. The think-aloud method was then used in order to discover factors which determine the effectiveness of the two dictionary types.
The results of the experiment revealed that the German-English bilingual dictionary was not significantly more effective for the learners than the monolingual dictionary. The only monolingual dictionary available for German at that time, however, is linguistically too difficult for this proficiency level. Because of these findings, the research turned to monolingual dictionary definitions with the aim of identifying features that make them accessible to intermediate learners. Based on findings from the first think-aloud study, and principles promoted as user-friendly in the lexicographic literature, new definitions were developed for the target words in the research. These new definitions were compared with those in the existing dictionary. A second think-aloud study was conducted in order to generate hypotheses about individual definition features. These hypotheses were then tested in the second experiment, which was conducted with eighty-six learners of German in Shanghai.
The investigations reveal several features that determine the effectiveness of monolingual definitions for intermediate learners. The findings have theoretical and pedagogical implications. In the theoretical field, some lexicographic principles were recommended that are, unlike previous principles, based on empirical insights into user needs. In the pedagogical field, the research findings provide an empirical basis for the evaluation and recommendation of suitable dictionaries to intermediate learners.
A model of dictionary effectiveness is proposed. This model could help to assess the effectiveness of different information categories in dictionaries for different proficiency levels and different activity contexts. It could also provide lexicographic principles for the design of dictionaries. This research contributes one component to the proposed model: criteria for the effectiveness of definition features for intermediate learners in the activity context of reading.
Towards a German grammar programme for post-leaving certificate students at Dublin City University
(1999)
With the introduction of the communicative method of language learning, overall standards of grammatical competence and performance among Irish second level students would appear to have been significantly reduced. As a consequence, learners who continue to study a given language at third level apparently no longer possess the knowledge which, under the grammar-translation methodology, further education institutions were able to build upon. This thesis examines the basis for the above perceptions, investigates the role of formal grammar instruction in the second language acquisition process and reports on a programme which was developed at Dublin City University (DCU) in order to ease, for Irish university students of German, the transition from a primarily memory-based approach to language acquisition to the analytical approach which is still being considered crucial to a university student's linguistic education. While the research was undertaken in response to locally existing difficulties, it may also be considered as a case study of more general interest, and as such serve as an exemplar to German departments in other universities as well as to other foreign language departments both within DCU or outside. The aim of the programme under investigation was to ease the transition on a socio-affective, cognitive and metacognitive level without lowering overall proficiency expectations and standards. Primary research was conducted among secondary school teachers, post-Leaving Certificate students on entry into DCU and among third level lecturers. The purpose of this research was to identify and define the programme’s content and progression. To this effect, the German junior and senior cycle syllabi at second level were also taken into consideration. The subsequent German grammar programme was implemented at DCU in the academic year 1996/7. While the programme would appear to have been judged favourably regarding some affective and cognitive-motivational aspects, results show mixed success rates for the other two factors under investigation, cognitive-analytical and metacognitive skills. Thus, some degree courses and some language combinations clearly benefited more from the programme than others. One of the conclusions drawn from this research suggests that unless certain changes are introduced prior to students’ entry into third level, university graduates are likely to remain well below the standards of accuracy and overall proficiency which were previously achieved.
Two decades after the predicted “end of ideology”, we are observing a re-emphasis on party ideology under Hu Jintao. The paper looks into the reasons for and the factors shaping the re-formulation of the Chinese Communist Party’s (CCP) ideology since 2002 and assesses the progress and limits of this process. Based on the analysis of recent elite debates, it is argued that the remaking of ideology has been the consequence of perceived challenges to the legitimacy of CCP rule. Contrary to many Western commentators, who see China’s successful economic performance as the most important if not the only source of regime legitimacy, Chinese party theorists and scholars have come to regard Deng Xiaoping’s formula of performance-based legitimacy as increasingly precarious. In order to tackle the perceived “performance dilemma” of party rule, the adaptation and innovation of party ideology is regarded as a crucial measure to relegitimize CCP rule.
For more than two decades, the National Planning Office for Philosophy and Social Sciences (NPOPSS) has been managing official funding of social science research in China under the orbit of the Communist Party of China’s (CPC) propaganda system. By focusing on “Major Projects”, the most prestigious and well-funded program initiated by the NPOPSS in 2004, this contribution outlines the political and institutional ramifications of this line of official funding and attempts to identify larger shifts during the past decade in the “ideologics” of official social science research funding – the changing ideological circumscriptions of research agendas in the more narrow sense of echoing party theory and rhetoric and – in the broader sense – of adapting to an increasingly dominant official discourse of cultural and national self-assertion. To conclude, this article offers reflections on the potential repercussions of these shifts for international academic collaboration.
Obesity is associated with an increased risk of heart failure. Little is known about the impact of dietary changes on the cardiac sequelae in obese patients. Twenty-one obese subjects underwent a 12-week low calorie fasting phase of a formula diet. Transthoracic two-dimensional speckle-tracking echocardiography was performed to obtain systolic left ventricular strain before and after weight loss. Body mass index decreased significantly from 38.6 ± 6.2 to 31.5 ± 5.3 kg/m(2), and the total percentage fat loss was 19%. Weight reduction was associated with a reduction in blood pressure and heart rate. Left ventricular longitudinal global peak systolic strain was in the lower normal range (-18.7 ± 3.2%) before weight loss and was unchanged (-18.8 ± 2.4%) after 12 weeks on diet with substantial weight loss. Also, no significant change in global radial strain after weight loss was noted (41.1 ± 22.0 versus 43.9 ± 23.3, p = 0.09). Left atrial and ventricular dimensions were in normal range before fasting and remained unchanged after weight loss. In our study obesity was associated with normal systolic left ventricular function. A 12-week low calorie diet with successful weight loss can reduce blood pressure and heart rate. Systolic left ventricular function and morphology were not affected by rapid weight reduction.
Most research on human fear conditioning and its generalization has focused on adults whereas only little is known about these processes in children. Direct comparisons between child and adult populations are needed to determine developmental risk markers of fear and anxiety. We compared 267 children and 285 adults in a differential fear conditioning paradigm and generalization test. Skin conductance responses (SCR) and ratings of valence and arousal were obtained to indicate fear learning. Both groups displayed robust and similar differential conditioning on subjective and physiological levels. However, children showed heightened fear generalization compared to adults as indexed by higher arousal ratings and SCR to the generalization stimuli. Results indicate overgeneralization of conditioned fear as a developmental correlate of fear learning. The developmental change from a shallow to a steeper generalization gradient is likely related to the maturation of brain structures that modulate efficient discrimination between danger and (ambiguous) safety cues.
This position paper is the second ESCMID Consensus Document on this subject and aims to provide intensivists, infectious disease specialists, and emergency physicians with a standardized approach to the management of serious travel-related infections in the intensive care unit (ICU) or the emergency department. This document is a cooperative effort between members of two European Society of Clinical Microbiology and Infectious Diseases (ESCMID) study groups and was coordinated by Hakan Leblebicioglu and Jordi Rello for ESGITM (ESCMID Study Group for Infections in Travellers and Migrants) and ESGCIP (ESCMID Study Group for Infections in Critically Ill Patients), respectively. A relevant expert on the subject of each section prepared the first draft which was then edited and approved by additional members from both ESCMID study groups. This article summarizes considerations regarding clinical syndromes requiring ICU admission in travellers, covering immunocompromised patients.