Refine
Year of publication
- 2009 (77) (remove)
Document Type
- Conference Proceeding (77) (remove)
Has Fulltext
- yes (77)
Is part of the Bibliography
- no (77)
Keywords
- Informationsstruktur (3)
- Adjunkt <Linguistik> (2)
- Dänisch (2)
- Ergativ (2)
- Kopula (2)
- Negation (2)
- Phraseologie (2)
- Türkisch (2)
- Zensur (2)
- Adverbiale (1)
Institute
- Medizin (12)
- Physik (7)
- Extern (6)
- Geowissenschaften (5)
- Rechtswissenschaft (3)
- Zentrum für Weiterbildung (3)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (2)
- Informatik (2)
- Wirtschaftswissenschaften (2)
- Biowissenschaften (1)
The analysis of the copula as a semantically vacuous word in mainstream HPSG is appropriate for some of its uses, such as the progressive and the passive, but not for its use in clauses with a predicative complement. In such clauses the copula denotes a relation of coreference between the indices of the subject and the predicative complement.
This paper explores the use of HPSG for modeling historical phonological change and grammaticalization, focusing on the evolution of the pronunciation of word-final consonants in Modern French. The diachronic evidence is presented in detail, and interpreted as two main transitions, first from Old French to Middle French, then from Middle French to the modern language. The data show how the loss of final consonants, originally a phonological development in Middle French, gave rise to the grammaticalized external sandhi phenomenon known as consonant liaison in modern French. The stages of development are analyzed formally as a succession of HPSG lexical schemas in which phonological representations are determined by reference to the immediately following phonological context.
The paper aims to present approach to HPSG phonology which would account for underlying forms of phonemes. It shows some of the issues arising in monostratal analyses of phonology, and proposes a solution based on a notion of underlying representations. The approach presented, partly inspired by Optimality Theory, resolves cases of neutralisation and opacity by formulating constraints which either restrict the surface representation or relate it to the underlying form.
In this paper we investigate German idioms which contain phraseologically fixed clauses (PCl). To provide a comprehensive HPSG theory of PCls we extend the idiom theory of Soehn 2006 in such a way that it can distinguish different degrees of regularity in idiomatic expressions. An in-depth analysis of two characteristic PCls shows how our two-dimensional theory of idiomatic expressions can be applied and illustrates the scope of the theory.
This paper discusses ergative case assignment in Hindi and its interaction with aspectual verb complexes or complex predicate constructions. It is shown that ergative case is assigned by the last head in the aspectual verb complex and that ergative case on the subject of intransitive verbs denoting bodily-functions is associated with a counter-to-expectation meaning. It is then shown that aspect complex predicates in Hindi involve two distinct syntactic structures, which have similar semantics. While one syntactic structure involves argument composition, the other involves a head-modifier structure. It is argued that the existence of two structures favor approaches to the interface between syntax and semantics which do not require a uniform isomorphism between the semantics and syntax of aspect.
Preposed negation in Danish
(2009)
In Danish the base position of the negation and negated quantifier phrases is between the subject and the finite verb in embedded clauses. However, in embedded clauses introduced by a non-veridical complementizer such as hvis ('if') or om ('whether') the negation and negated quantifier phrases can also appear between the complementizer and the subject. This phenomenon is referred to as preposed negation. The paper investigates the structure and semantics of this construction. It is argued that preposed negation is no adjunction structure, but a special construction where the negation element is a sister of the complementizer and the filler of a filler-gap-structure. It is further argued that preposed negation is associated with negated verum-focus of a clause lacking an (aboutness-) topic. The negation of a verum predicate explains why preposed negation fails to license strong negative polarity items and to rule out positive ones. The lack of a topic explains why preposed negation is preferred with non-referential subjects and with weak readings of indefinite subjects and why preposed negation is incompatible with topic-binding particles.The final section presents an HPSG-analysis of preposed negation using Minimal Recursion Semantics (MRS).
The present paper gives an account of Serial Verb Constructions (SVCs) in Mandarin Chinese. After a typological presentation of the phenomenon, we give an overview of the Chinese data with examples of the semantic variations of SVCs. The inventory of SVC types is classified according to causal and temporal relations between the components. We also discuss the pragmatic conditions on the use of SVCs as well as alternative, semantically equivalent constructions. A HPSG-analysis is proposed for marked SVCs, which uses the interaction between aspect marking and the set of possible subordinative relations to deduce the extra-lexical meaning of the construction. Particular attention is payed to the syntactically peculiar SVC with shared internal arguments, which is accounted for by a non-cancellation approach to valence requirements.
On predication
(2009)
This paper discusses copula constructions in English, German, and Danish and argues that a uniform analysis of all copula constructions is inappropriate. I provide evidence from German that there should be a raising variant of the copula in addition to an identificational copula. A unary schema is provided that maps referential NPs that can be used as arguments onto predicational NPs. Data from Danish shows that predicational NPs can be subjects in specificational structures. An account for such specificational structures is provided and the different behaviour of predicational and specificational structures with regard to question tags is explained. A similar contrast can be found in German left dislocation structures, which follows from the assumptions made in this paper.
A modified treatment of complex predicate formation allows for a reduction of selectional features (that is abolishing of xcomp or vcomp) and for a uniform treatment of predicational phrases in copula constructions and resultative secondary predicates. This yields an account for constituent order variants that remained unexplained by earlier analyses.
I reconsider the HPSG Raising Principle which is introduced in Pollard & Sag (1994) to constrain the way in which lexical entries describe the SUBCAT lists of the words they license. On the basis of whether a complement is assigned a semantic role in a lexical entry or not, this entry may not or must describe this complement as structure-shared with the unrealised subject of some other (non-subject) complement. The formal status of this principle is still unclear, as it is formulated as a 'meta principle' that does not talk about linguistic objects directly but rather about the lexical entries that license them. I show that, although its meaning cannot be expressed faithfully by the usual kind of constraints employed in HPSG, the Raising Principle can nevertheless be replaced by two such constraints which make largely the same predictions. Most importantly, these constraints interact with the output values of description-level lexical rules in the style of Meurers (2001) in a way that makes predictions available that Pollard & Sag (1994) intended the Raising Principle to make but that it cannot possibly make if description-level lexical rules are employed.
This paper analyzes the interrelation of two understudied phenomena of English: discontinuous modifier phenomenon (so willing to help out that they called early; more ready for what was coming than I was) and the complex pre-determination phenomenon (this delicious a lasagna; How hard a problem (was it)?). Despite their independence, they frequently occur intertwined, as in too heavy {a trunk} (for me) to lift and so lovely a melody that some people cried. This paper presents a declarative analysis of these and related facts that avoids syntactic movement in favor of monotonic constraint satisfaction. It demonstrates how an explicit, sign-based, constructional approach to grammatical structure captures linguistic generalizations, while at the same time accounting for idiosyncratic facts in this seemingly complex grammatical domain.
In this paper we develop an HPSG syntax-semantics of negative concord in Romanian. We show that n-words in Romanian can best be treated as negative quantifiers which may combine by resumption to form polyadic negative quantifiers. Optionality of resumption explains the existence of simple sentential negation readings alongside double negation readings. We solve the well-known problem of defining general semantic composition rules for translations of natural language expressions in a logical language with polyadic quantifiers by integrating our higher-order logic in Lexical Resource Semantics, whose constraint-based composition mechanisms directly support a systematic syntax-semantics for negative concord with polyadic quantification.
The paper discusses the so-called adverbial use of the wh-pronoun was ('what'), which establishes a non-standard interrogative construction type in German. It argues that the adverbial use of was ('what') is based on the lexical properties of a categorically deficient pronoun was ('what'), which bears a causal meaning. In addition, adverbial was ('what') differs from canonical argument was ('what') as it is analyzed as a functor which is generated in clause-initial position.
By means of empirical facts mainly provided by d'Avis (2001) it is shown that was ('what') behaves ambivalently regarding the wh-property: On the one hand, was ('what') can introduce an interrogative clause, but on the other hand it cannot license wh-phrases in situ. While formally analyzing the data against the background of existing accounts on wh-interrogatives couched in the framework of Head-driven Phrase Structure Grammar, an analysis is developed that separates two pieces of information to keep track of the wh-information percolating in an interrogative clause. Whereas the WH-value models wh-fronting and pied-piping phenomena, the QUE value links syntactic and semantic information and thus keeps track of wh-phrases in-situ.
We address three properties of Turkish morphology and VP coordination: the identification of tense and aspect values across conjuncts, the optional omission of affixes on non-final conjuncts coordinated with the word ve and the obligatory sharing of scopal modals across conjuncts in coordination structures with the affix -ip. For the modals in an -ip structure, we propose an analysis that uses syntactic features to trigger the application of a construction at the level of the coordinated VP introducing the scopal predications. Our analysis is implemented in a small HPSG grammar and tested against datasets confirming the functionality and consistency of the analysis.
Although the original framework of HPSG is mostly compatible with independent theoretical claims or analyses in lexical lexeme base morphology (Anderson 1992, Aronoff & Fudeman 2004, Beard 1995, Booij 2005, Carstairs-McCarthy 1992, Fradin 2003, Haspelmath 2002, Matthews 1991, Plag 2003, for example), so far, most research in morphology has been done on inflexional phenomena (Orgun & Inkelas 2002, Bonami & Boyé 2006), and few on derivational morphology (Koenig 1999, Riehemann 1998). Yet, we believe it is worth investigating how the formal and theoretical apparatus of HPSG deals with capturing multilevel constraints that apply in the lexeme formation of French Verb-Noun nominal compounds, such as as GRILLE-PAIN (lit. grill-bread, 'toaster'), PERCE-OREILLE (lit. pierce-ear, 'earwig'), TOURNEVIS (lit. turn-screw, 'screwdriver'), or LÈCHE-VITRINE (lit. lick-window, 'window-shopping'). Contrary to what has often been said, we argue VN lexemes formation comes under morphological constraints but not under syntactic mechanisms. Our analysis integrates VN lexemes into a multiple-dimension typed-hierarchy of lexemes and provides an account for semantic generalizations involved in different types of lexeme formation (compounding, derivation, and conversion).
In this paper, I discuss the case and agreement system of Nias, a language that has been described as a marked-absolutive system by various authors (Donohue and Brown, 1999; Corbett, 2006; Cysouw, 2005; Handschuh, 2008; Wichmann, 2005). I shall argue in particular that the ergativity of this language is highly superficial in nature, showing that hypothesised marked-absolutive arguments fail to display typical subject properties. Extending the linking theory of ergativity by Manning (1994) and Manning and Sag (1999), which assumes an inverse linking pattern for transitive, I shall suggest that Nias transitives are best analysed as a Nominative-Accusative system, attributing the ergative split in Nias to an inverse linking of intransitives instead. Under this perspective, case, agreement, and word order will receive a natural explanation.
Previous HPSG accounts of extraction blur the distinction between valents and adjuncts by allowing verbs to lexically control the modifiers that combine with their phrasal projections. However, assuming that adjuncts are valents runs into various difficulties. This paper argues that the distinction between complements and adjuncts can be maintained, and that certain semantic phenomena that challenge traceless theories of extraction can be seen as an instance of a more general process. Finally, this paper also discusses a uniform mechanism for case assignment to valents and adverbial nominals.
Modern Persian conjugation makes use of five periphrastic constructions. We contrast the properties of these five constructions and argue that they call for different analyses. We propose contrasting analyses relying on the combination of an HPSG approach to feature geometry and syntactic combination, and an approach to paradigm organization and morphological exponence based on Paradigm Function Morphology. This combination of analytic tools allows us to treat the whole array of periphrastic constructions as lexical in origin—no phrasal construction or multi-word lexical entry of any kind is required.
French and Romanian verbless relative adjuncts are incidental adjuncts which have been described as elliptical relative clauses. We show that this analysis is not empirically adequate and propose an alternative non-elliptical analysis. We analyze verbless relative adjuncts as sentential fragments whose head can be a cluster of phrases. They are marked by a functor phrase which displays selection properties with respect to the head phrase and makes an essential contribution to the semantics of the adjunct. The analysis relies on the interaction of grammatical constraints introduced by various linguistic objects, as well as on a constructional analysis of verbless relative adjuncts distinguishing several subtypes.
Recently, pertussis has become a problem also in the adult population, with incidences even higher than in children. Pediatric health care workers (HCWs) are an important source of transmission, exposing very young and immunocompromised patients to an increased risk of potentially severe pertussis infections. Encouraging HCWs to get vaccinated can play a vital role in stopping the transmission of pertussis, thereby reducing institutional outbreaks.
In Germany, HCWs come up with all sorts of reasons for not getting pertussis vaccination. This study was meant to provide information in order to better understand the backgrounds of these attitudes.
A survey was conducted at the children's university hospital in Frankfurt, using an anonymous questionnaire. Survey results were used to design an intervention to increase the immunization rate of staff. Disappointingly, our efforts to increase the acceptance of the immunization program by providing information in advance were not yet satisfying.
Misconception about pertussis vaccination was prevalent especially among nursing staff. The main reasons for non-compliance included: unawareness of an own risk of infection, the belief that pertussis is not a serious illness, fear of side effects, the belief that the pertussis vaccine might trigger the pertussis disease itself, and skepticism about the efficacy of the pertussis vaccination.
Welches Rechtsdenken verkörpert der Spätscholastiker Francisco de Vitoria, und was ist seine Bedeutung für das Völkerrecht? Der Moraltheologe Vitoria (um 1483–1546) wird als Vater des Völkerrechts bezeichnet, sein Verdienst in der Fortentwicklung des ius gentium zu einem ius inter gentes gesehen. Im Zuge des Rechtfertigungsdiskurses der Conquista begriff Vitoria die indigenen Völker Mittel- und Südamerikas nicht als inferior, sondern als Teil einer universellen Rechtsgemeinschaft. Mit "De Iure Belli Hispanorum in Barbaros" und "De Indis recenter inventis" 1538/39 spezifizierte er die Lehre des bellum iustum und wirkt mit seinen Ideen noch über Hugo Grotius hinaus bis in die heutige völkerrechtsgeschichtliche und friedensethische Forschung. Ein Diskussionsforum zu Werk und Person bot die Konferenz Francisco de Vitoria und die Normativität des Rechts des Frankfurter Exzellenzclusters "Die Herausbildung normativer Ordnungen" in Zusammenarbeit mit dem Hamburger Institut für Theologie und Frieden.* Die Veranstaltung des Cluster-Teilprojekts "Die Schule von Salamanca" (Matthias Lutz-Bachmann) knüpfte inhaltlich und personell an die Tagung Lex and Ius in the Political Theory of the Middle Ages (Dezember 2007) an. Neben Gästen wie Merio Scattola, Juan Cruz Cruz und Norbert Brieskorn referierten auch die Mitarbeitenden am Frankfurter Lehrstuhl für Philosophie Kirstin Bunge, Anselm Spindler und Andreas Wagner über ihre Forschungen. ...
"Passau sticht in See" ist ein Gedicht von Reiner Kunze aus dem Jahr 1979 überschrieben. "Der Dom ein / kreuzmastsegel, an dem, matrosen gleich, steinmetze klettern / Der schlot des Peschlbräus zeigt rauch, die kessel stehen unter dampf / In dreier flüsse wasser zielt der bug, ein schiff das seenot kennt". ...
Der Internationale Deutschlehrerverband (IDV) ist ein Dachverband für Deutschlehrerverbände aus 83 Ländern und vertritt ca. 250 000 Deutschlehrende aller Kontinente. Seit seiner Gründung im Jahre 1968 fördert der IDV das Fach Deutsch als Fremdsprache, unterstützt die Lehrenden in diesem Bereich, befasst sich mit sprachenpolitischen und sprachendidaktischen Fragen und versteht sich als Plattform für nationale und internationale Zusammenarbeit. Sein wichtigstes Forum ist die Internationale Deutschlehrertagung (IDT), die als globale Fort- und Weiterbildungsveranstaltung alle vier Jahre stattfindet und dem interkulturellen Austausch sowie der Begegnung mit den Kulturen deutschsprachiger Länder dient.
Am 28. Januar 2009 fand auf Einladung des Instituts für Weltliteratur der Slowakischen Akademie der Wissenschaften im Mozartsaal des Österreichischen Kulturforums in Bratislava die internationale Tagung "Chaosforschung in der Literaturwissenschaft: interdisziplinäres Paradebeispiel oder disziplinäres Missverständnis?" statt, an der Wissenschaftler aus der Slowakei, aus Österreich und aus Deutschland teilnahmen.
Ziel der von Dr. Karin S. Wozonig (Hamburg/Wien) und Dr. Roman Mikuláš (Bratislava) organisierten Konferenz war die Revision des Einflusses der Chaosforschung auf die Literaturwissenschaft. Die Erforschung nichtlinearer Systeme hatte Anfang der 80er Jahre erstmals Aufsehen erregt, als sie unter dem Stichwort "Chaos-Theorie" einige Grundpostulate der klassischen Naturwissenschaften in Frage stellte. Nichtlineare Systeme wie z.B. das Wetter zeichnen sich durch eine prinzipielle und strukturell vorgegebene Nichtvorhersagbarkeit aus, die auch über die Verfeinerung der technischen Mittel nicht ausgeräumt werden kann. Der Erfolg der Chaosforschung war nicht zuletzt einer rasanten populärwissenschaftlichen Verbreitung in den Medien zu verdanken, die rasch auch die Aufmerksamkeit von Wissenschaftlern anderer Disziplinen erregte. Dies führte dazu, dass die Idee des "deterministischen Chaos" (also der strukturell bedingten Nichtvorhersagbarkeit) bald auch außerhalb der Mathematik und Physik Anklang und neue Anwendungsbereiche fand, so in der Medizin, in den Wirtschafts- und Sozialwissenschaften, und schließlich auch in den Kulturwissenschaften. Obwohl die Prinzipien der nichtlinearen Dynamik heute als Teil der wissenschaftlichen Normalität aufgefasst werden können, sind die Ergebnisse dieses Methodologietransfers gerade in Bezug auf die Literaturwissenschaften immer noch umstritten. Die Tagung sollte daher dazu anregen, aktuelle Ideen zu sammeln und die Diskussion neu zu entfachen.
Für viele phraseologische Phänomene und Prozesse sind historische Sprach- und Kulturkontakte innerhalb Europas nach wie vor ein ergiebiges Forschungsfeld. Nach kurzen Bemerkungen zu dem gegenwärtigen Stand in der germanistischen,fennistischen und skandinavistischen Lehnphraseologieforschung werden in dem Beitrag einige wenige aufgrund der Burger'schen weiten Phraseokonzeption (besonders beachtet werden unterschiedlich strukturierte Idiome, Geflügelte Worte und Sprichwörter) und der lexikographisch bestimmbaren Äquivalenztypologie von Korhonen herangezogene Phraseologismen in Hinsicht auf ihre Struktur, Semantik und Textpragmatik en detail besprochen: Sprachlich-kulturelle Eigenarten der Entlehnung deutscher Phraseologismen ins Schwedische und ins Finnische (auch mit Blick auf das Dänische und auf das Estnische) werden in ihrer sowohl gegenwartbezogenen als auch historischen Dynamik exemplarisch umrissen, indem maßgebliche Wörterbücher und Textkorpora miteinander kritisch vergleichend für sprachphilologische Einzelbeobachtungen zu Rate gezogen werden mit dem Ziel, angesichts der reichen europäischen Phraseotraditionen auch zu allgemeineren, sprachempirisch eruierbaren Erkenntnissen über die Rolle der deutschen Sprache und Kultur in unserer globalen Welt gelangen zu können.
Tagungsbericht des Workshops "Völkerrecht und Weltwirtschaft im 19. Jahrhundert. Die Internationalisierung der Ökonomie aus völkerrechts- und wirtschafts(theorie-)geschichtlicher Perspektive", der vom 3. bis 4. September 2009 in Frankfurt am Main stattfand. Veranstalter: Exzellenzcluster "Die Herausbildung normativer Ordnungen"; in Kooperation mit der Goethe Universität Frankfurt am Main; dem Max-Planck-Institut für europäische Rechtsgeschichte
Wie kann eine E-Learning-Strategie in einer Hochschule durch einen geeigneten Maßnahmenkatalog in einem stufenweisen Organisationsentwicklungsprozess umgesetzt werden? Welche verschiedenen Entwicklungspfade für Fachbereichsstrategien sind dabei möglich? Wie gelingt es, eine Community aufzubauen, die sich dem Ziel verpflichtet, gemeinsam eine hohe Qualität im Bereich E-Learning zu erreichen? Diesen Fragen geht der vorliegende Beitrag nach, der die Umsetzung der E-Learning-Strategie der Goethe-Universität Frankfurt mit dem Projekt megadigitale vorstellt, das 2007 mit dem mediendidaktischen Hochschulpreis Medida-Prix prämiert wurde.
Die Goethe-Universität Frankfurt hat in den letzten Jahren mit dem Projekt megadigitale hochschulweit ihre eLearning-Strategie umgesetzt und alle Fachbereiche in das Vorhaben integriert, d.h. in allen 16 Fachbereichen den Einsatz neuer Medien in der Lehre befördert. Wichtiger Bestandteil dieses kombinierten TopDown-BottomUp-Konzeptes war seit 2005 die finanzielle Förderung von eLearning-Projekten von Lehrenden. Ab 2007 wurde mit Hilfe des MedidaPrix-Preisgeldes zudem die Förderung studentischer eLearning-Vorhaben umgesetzt. Ziel war, die Ideen und Visionen von Studierenden, welche Form von eLearning und des Medieneinsatzes sie an ihrer Hochschule präferieren, aufzugreifen. Dieser Beitrag stellt die einzelnen Förderansätze, ihre Ausrichtungen, Zielsetzungen und Wirksamkeit vor und beschreibt deren Zusammenspiel mit den anderen in megadigitale implementierten Maßnahmen zur hochschulweiten Umsetzung von eLearning.
Die Goethe-Universität hat im Rahmen ihres Projektes megadigitale, das die hochschulweite Umsetzung ihrer eLearning-Strategie verfolgte, ein Vorgehensmodell entwickelt, das entlang des kompletten Prozesses der Entwicklung und Umsetzung von eLearning-Ansätzen standardisierte Analyse-, Planungs-, Konzeptions-, Implementierungs- und Qualitätssicherungsinstrumente anwendet. Dabei spielen Verfahren zur Qualitätssicherung schon von dem ersten Schritt an, in der Analysephase eine Rolle, angepasst an die verschiedenen Ebenen der Umsetzung.
The 99th Annual Meeting of the Geologische Vereinigung (GV) and International Conference on Earth Control on Planetary Life and Environment, held in October 2009 at the Geosciences Centre of the Georg-August-Universität Göttingen, brings together researchers from all fields of Earth Sciences and beyond to shape an attractive interdisciplinary program on the geological history of Planet Earth and its control over and interaction with biological evolution, development of habitats, environmental and climate change as well as history and culture of Homo sapiens. This volume contains the abstracts of invited keynote lectures as well as all oral and poster presentations.
Perturbation theory for non-abelian gauge theories at finite temperature is plagued by infrared
divergences which are caused by magnetic soft modes ~ g2T, corresponding to gluon fields of
a 3d Yang-Mills theory. While the divergences can be regulated by a dynamically generated
magnetic mass on that scale, the gauge coupling drops out of the effective expansion parameter
requiring summation of all loop orders for the calculation of observables. Some gauge invariant
possibilities to implement such infrared-safe resummations are reviewed. We use a scheme based
on the non-linear sigma model to estimate some of the contributions ~ g6 of the soft magnetic
modes to the QCD pressure through two loops. The NLO contribution amounts to ~ 10% of the
LO, suggestive of a reasonable convergence of the series.
The so-called sign problem of lattice QCD prohibits Monte Carlo simulations at finite baryon
density by means of importance sampling. Over the last few years, methods have been developed
which are able to circumvent this problem as long as the quark chemical potential is m=T <~1.
After a brief review of these methods, their application to a first principles determination of the
QCD phase diagram for small baryon densities is summarised. The location and curvature of the
pseudo-critical line of the quark hardon transition is under control and extrapolations to physical
quark masses and the continuum are feasible in the near future. No definite conclusions can as
yet be drawn regarding the existence of a critical end point, which turns out to be extremely quark
mass and cut-off sensitive. Investigations with different methods on coarse lattices show the lightmass
chiral phase transition to weaken when a chemical potential is switched on. If persisting on
finer lattices, this would imply that there is no chiral critical point or phase transition for physical
QCD. Any critical structure would then be related to physics other than chiral symmetry breaking.
The chiral critical surface is a surface of second order phase transitions bounding the region of
first order chiral phase transitions for small quark masses in the fmu;d;ms;mg parameter space.
The potential critical endpoint of the QCD (T;m)-phase diagram is widely expected to be part of
this surface. Since for m = 0 with physical quark masses QCD is known to exhibit an analytic
crossover, this expectation requires the region of chiral transitions to expand with m for a chiral
critical endpoint to exist. Instead, on coarse Nt = 4 lattices, we find the area of chiral transitions
to shrink with m, which excludes a chiral critical point for QCD at moderate chemical potentials
mB < 500 MeV. First results on finer Nt = 6 lattices indicate a curvature of the critical surface
consistent with zero and unchanged conclusions. We also comment on the interplay of phase
diagrams between the Nf = 2 and Nf = 2+1 theories and its consequences for physical QCD.
We perform a two-flavor dynamical lattice computation of the Isgur-Wise functions t1/2 and t3/2
at zero recoil in the static limit. We find t1/2(1) = 0.297(26) and t3/2(1) = 0.528(23) fulfilling
Uraltsev’s sum rule by around 80%. We also comment on a persistent conflict between theory and
experiment regarding semileptonic decays of B mesons into orbitally excited P wave D mesons,
the so-called “1/2 versus 3/2 puzzle”, and we discuss the relevance of lattice results in this
context.
We present a lattice QCD calculation of the heavy-light decay constants fB and fBs performed with Nf = 2 maximally twisted Wilson fermions, at four values of the lattice spacing. The decay constants have been also computed in the static limit and the results are used to interpolate the observables between the charmand the infinite-mass sectors, thus obtaining the value of the decay constants at the physical b quark mass. Our preliminary results are fB = 191(14)MeV, fBs = 243(14)MeV, fBs/ fB = 1.27(5). They are in good agreement with those obtained with a novel approach, recently proposed by our Collaboration (ETMC), based on the use of suitable ratios having an exactly known static limit.
We present first results from runs performed with Nf = 2+1+1 flavours of dynamical twisted mass fermions at maximal twist: a degenerate light doublet and a mass split heavy doublet. An overview of the input parameters and tuning status of our ensembles is given, together with a comparison with results obtained with Nf = 2 flavours. The problem of extracting the mass of the K- and D-mesons is discussed, and the tuning of the strange and charm quark masses examined. Finally we compare two methods of extracting the lattice spacings to check the consistency of our data and we present some first results of cPT fits in the light meson sector.
Sprachtechnologie für übersetzungsgerechtes Schreiben am Beispiel Deutsch, Englisch, Japanisch
(2009)
Wir [...] haben uns zur Aufgabe gesetzt, Wege zu finden, wie linguistisch basierte Software den Prozess des Schreibens technischer Dokumentation unterstützen kann. Dabei haben wir einerseits die Schwierigkeiten im Blick, die japanische und deutsche Autoren (und andere Nicht-Muttersprachler des Englischen) beim Schreiben englischer Texte haben. Besonders japanische Autoren haben mit Schwierigkeiten zu kämpfen, weil sie hochkomplexe Ideen in einer Sprache ausdrücken müssen, die von Informationsstandpunkt her sehr unterschiedlich zu ihrer Muttersprache ist. Andererseits untersuchen wir technische Dokumentation, die von Autoren in ihrer Muttersprache geschrieben wird. Obwohl hier die fremdsprachliche Komponente entfällt, ist doch auch erhebliches Verbesserungspotential vorhanden. Das Ziel ist hier, Dokumente verständlich, konsistent und übersetzungsgerecht zu schreiben. Der fundamentale Ansatz in der Entwicklung linguistisch-basierter Software ist, dass gute linguistische Software auf Datenmaterial basiert und sich an den konkreten Zielen der besseren Dokumentation orientiert.
The Project European Privacy Open Space (PrivacyOS) aims at bringing together industry, SMEs, Government, Academia and Civil Society to foster development and deployment of privacy infrastructures for Europe. The general objectives of PrivacyOS are to create a longterm collaboration in the thematic network and establish collective interfaces with other EU projects. Participants exchange research and best practices, as well as develop strategies and joint projects following four core policy goals: Awareness-rising, enabling privacy on the Web, fostering privacy-friendly Identity Management, and stipulating research.
...
This report focuses on the 3rd PrivacyOS conference, which was held in Vienna, October 26th and 27th 2009, co-located with the Austrian Big Brother Awards. 50 participants attended the conference and devised the agenda with 21 presentations in two parallel tracks. The topics of the presentations discussed included, amongst others: data protection awareness, data protection in healthcare, data protection in the Web 2.0, privacy-related technologies such as EnCoRe, TOR or Microformats as well as regulatory, cultural and sociological implications of data protection. Also at the 3rd PrivacyOS conference the software product “KiwiSecurity” was awarded the EuroPriSe Seal (European Privacy Seal, www.european-privacy-seal.eu). EuroPriSe is an initiative of the data protection authority Unabhängiges Landeszentrum für Datenschutz Schleswig-Holstein (ULD), Germany. It has been started as a European Project under the eTEN programme.
The multiplicity fluctuations in A+A collisions at SPS and RHIC energies are studied within the HSD transport approach. We find a dominant role of the fluctuations in the nucleon participant number for the final fluctuations. In order to extract physical fluctuations one should decrease the fluctuations in the participants number. This can be done considering very central collisions. The system size dependence of the multiplicity fluctuations in central A+A collisions at the SPS energy range – obtained in the HSD and UrQMD transport models – is presented. The results can be used as a ‘background’ for experimental measurements of fluctuations as a signal of the critical point. Event-by-event fluctuations of the K/p , K/p and p/p ratios in A+A collisions are also studied. Event-by-event fluctuations of the kaon to pion number ratio in nucleus-nucleus collisions are studied for SPS and RHIC energies. We find that the HSD model can qualitatively reproduce the measured excitation function for the K/p ratio fluctuations in central Au+Au (or Pb+Pb) collisions from low SPS up to top RHIC energies. The forward-backward correlation coefficient measured by the STAR Collaboration in Au+Au collisions at RHIC is also studied. We discuss the effects of initial collision geometry and centrality bin definition on correlations in nucleus-nucleus collisions. We argue that a study of the dependence of correlations on the centrality bin definition as well as the bin size may distinguish between these ‘trivial’ correlations and correlations arising from ‘new physics’. 5th International Workshop on Critical Point and Onset of Deconfinement - CPOD 2009, June 08 - 12 2009 Brookhaven National Laboratory, Long Island, New York, USA
„Perspektiven für die Zukunft unserer Kultur im 21. Jahrhundert“ ist das Thema, das ich leichtfertig benannt habe. Leichtfertig, weil es natürlich anmaßend ist, anmaßend wie die Kunst selbst. Als ob man das wüsste. Als ob man dazu etwas sagen könnte. Als ob diese „Zukunft“ mal eben so - kurz vor dem Mittagessen - aufsteigen könnte, wie Perlen aus dem Prosecco. Ich glaube schon, dass man dazu etwas sagen kann. Bescheidener: ich will es wenigstens versuchen und ein paar Überlegungen äußern, die Ihnen ein Bild vermitteln, wie ich denke, wer ich bin, was mich umtreibt, wofür ich stehe. Als Mensch, aber auch als derjenige, der dem künftigen Thalia Theater die Richtung gibt.
Mit dem Motto »Das Spiel der Mächtigen« haben die Salzburger Festspieldialoge 2009 einen Titel aufgegriffen, den ursprünglich Giorgio Strehler für seine Inszenierung von William Shakespeares Königsdramen gewählt hatte, die 1973 bei den Salzburger Festspielen gezeigt wurde. Der Titel steht aber nicht nur für eine groß angelegte Shakespeare-Inszenierung, sondern geradezu programmatisch auch für eine Form des Regietheaters, die in Salzburg Furore machte. Denn Strehler nahm bei den Stücken Heinrich V. und Heinrich VI. nach eigenen dramaturgischen Erwägungen Kürzungen vor, komponierte sie um und kommentierte sie durch andere Dramen Shakespeares, indem er Textpassagen aus Macbeth, König Lear, König Johann und Richard II. in seine Inszenierung integrierte.
Die Frage, ob "Literatur als Kampfmittel" Theorie oder Realität in der DDR gewesen ist, lässt sich nicht eindeutig beantworten. Schließlich redet man über 40 Jahre DDR-Regime, in denen es kulturpolitische Zäsuren und Strategiewechsel gegeben hat. Generell gilt: Die Kulturpolitik der DDR war kunstfeindlich. Offiziell gab es keine Zensur, faktisch schon. Die Führung der DDR betrachtete ganz in der Tradition von Stalin und Chruschtschow KünstlerInnen als aktive Kämpfer für den Sozialismus. Der realistische Sozialismus war genreübergreifend die einzig legitime Form. Und man war gewillt, diese offen formulierten Anforderungen an Literaten auch mit Gewalt durchzusetzen. Trotzdem war die offizielle Literaturpolitik das eine, die literarische Praxis das andere. Die Literaturszene im Prenzlauer Berg etwa war erstaunlich autonom und im Aufbau-Verlag erschienen bemerkenswerte Titel. Die Ausbürgerung Biermanns 1976 führte zu einer historisch einmaligen Solidaritätsbewegung und einem Exodus der Ost-Literaten. Sicher ist: Die DDR ist Vergangenheit, aber in ihrer Literatur ist die Erinnerung an Staat und Gesellschaftssystem bewahrt.
Ambiguity and communication
(2009)
The ambiguity of a nondeterministic finite automaton (NFA) N for input size n is the maximal number of accepting computations of N for an input of size n. For all k, r 2 N we construct languages Lr,k which can be recognized by NFA's with size k poly(r) and ambiguity O(nk), but Lr,k has only NFA's with exponential size, if ambiguity o(nk) is required. In particular, a hierarchy for polynomial ambiguity is obtained, solving a long standing open problem (Ravikumar and Ibarra, 1989, Leung, 1998).
Unsere Vorlesung [...] möchte eine Reihe exemplarischer und zeitlich und geographisch möglichst breit gestreuter Beispiele präsentieren. Vor allem aber werden wir die unterschiedlichen Grundlagen, Voraussetzungen und Praktiken der Zensur im Lauf der Zeit und in verschiedenen Ländern vergleichend nebeneinander stellen. Vorweg sind einige Bemerkungen zu den verschiedenen theoretischen Begründungen der Zensur sowie zu Definition und Abgrenzung des Gegenstands nötig, denn der Begriff Zensur wird für eine Reihe verwandter, aber doch unterschiedlicher Phänomene verwendet.
The nervous system probably cannot display macroscopic quantum (i.e. classically impossible) behaviours such as quantum entanglement, superposition or tunnelling (Koch and Hepp, Nature 440:611, 2006). However, in contrast to this quantum "mysticism" there is an alternative way in which quantum events might influence the brain activity. The nervous system is a nonlinear system with many feedback loops at every level of its structural hierarchy. A conventional wisdom is that in macroscopic objects the quantum fluctuations are self-averaging and thus not important. Nevertheless this intuition might be misleading in the case of nonlinear complex systems. Because of a high sensitivity to initial conditions, in chaotic systems the microscopic fluctuations may be amplified upward and thereby affect the system’s output. In this way stochastic quantum dynamics might sometimes alter the outcome of neuronal computations, not by generating classically impossible solutions, but by influencing the selection of many possible solutions (Satinover, Quantum Brain, Wiley & Sons, 2001). I am going to discuss recent theoretical proposals and experimental findings in quantum mechanics, complexity theory and computational neuroscience suggesting that biological evolution is able to take advantage of quantum-computational speed-up. I predict that the future research on quantum complex systems will provide us with novel interesting insights that might be relevant also for neurobiology and neurophilosophy.
Literatur und Alltag sind auf auf Ebene der Sprache miteinander verbunden. Die Literatur hat, so Stefan Matuschek, einen nicht beliebigen, sondern für sie und ihre Möglichkeiten konstitutiven Bezug zur Alltagssprache. Dieser Bezug besteht nicht von jeher. Er ist ein literaturgeschichtlich neueres Phänomen, das wohl erst im letzten Jahrhundert von entscheidendem Gewicht geworden ist. Es hängt mit dem sprachlichen Phänomen zusammen, das unsere Wirklichkeit mehr und mehr prägt: mit der immer fortschreitenden Ausdifferenzierung der arbeitsteiligen Wissensgesellschaft und der je zugehörigen Expertenkulturen und Expertensprachen. Neben dieser Entwicklung erhält der Zusammenhang von Literatur und Alltagssprache eine besondere Funktion.
Is the digital future a blessing for philologists, especially those working the vast area of Germanic Languages & Literatures? Or does it rather come with problems that jeopardize philology, in the Germanic and the broader scope? This paper sets out to explore the status quo (1.) of digital source material in Germanic philology, ranging from medieval manuscripts to 21st century e-books and their, at times, highly restricted availability to the scientific community. Do we really face a quantum leap in terms of open access, or is this leap rather confined to those only who pay the exorbitant fees specialist libraries charge for the use of their rare manuscript and book collections? How about Google Books (2.)? Are we in danger of neglecting everything that is (still) missing there? And what is in it for the German scholar? Can we believe that in some years’ time we will be able to get our hands on every source text we desire within seconds since it is only a click away? This paper critically assesses the process and progress of the digitization of mankind’s written records (3.), focusing on problems to be overcome by e.g. medievalists wishing to consult certain source material. This is illustrated by means of the example of how it is not yet possible consult certain materials related to the Franciscan preacher Berthold von Regensburg († 1272). A short concluding summary (4.) highlights perspectives for further thinking and discussion.
Meeting Abstract : Deutscher Kongress für Orthopädie und Unfallchirurgie ; 73. Jahrestagung der Deutschen Gesellschaft für Unfallchirurgie ; 95. Tagung der Deutschen Gesellschaft für Orthopädie und Orthopädische Chirurgie ; 50. Tagung des Berufsverbandes der Fachärzte für Orthopädie und Unfallchirurgie ; 21. - 24.10.2009, Berlin Fragestellung: Ziel war die Evaluierung der funktionellen und radiologischen Ergebnisse nach osteosynthestischer Versorgung von Olecranonfrakturen mit einer zur Hakenplatte modifizierten Drittelrohrplatte. Methodik: In einem Zeitraum von 12 Monaten wurden 29 Patienten mit Olecranonfrakturen prospektiv erfasst und eine Osteosynthese mit einer zur Hakenplatte modifizierten Kleinfragment-Drittelrohrplatte durchgeführt. Eine additive Verschraubung von zusätzlichen Fragmenten erfolgte bei 6 Patienten (20%). Das mittlere Patientenalter zum Unfallzeitpunkt betrug 50 Jahre (Min 29/ Max 83). Unter Verwendung der Frakturklassifikation nach Schatzker stellte sich in 8 Fällen (28%) eine Querfraktur vom Typ A, in 6 Fällen (20%) eine Querfraktur mit Impaktion vom Typ B und in 15 Fällen (52%) eine Mehrfragmentfraktur vom Typ D dar. Bei 4 Patienten (14%) lag eine offene Fraktursituation vor. Nach im Mittel 7,2 Monaten (Min 6/ Max 8) wurde das funktionelle Outcome anhand des Mayo Elbow Performence Scores (MEPS), der visuellen Analogskala (VAS) und des Disabilities of the Arm, Shoulder and Hand Scores (DASH) bewertet sowie die radiologischen Befunde erhoben. Ergebnisse und Schlussfolgerungen: Das Ziel einer primär übungsstabilen Osteosynthese konnte bei allen Patienten erreicht werden. Unter Verwendung des MEPS wurden annähernd ausschließlich sehr gute (12 Fälle/41%) und gute (16 Fälle/55%) Ergebnisse erzielt. Lediglich bei einem Patienten ergab sich ein nur befriedigendes Ergebnis. Der mittlere Punktwert für den MEPS betrug 91,4 (Min 65/Max 100). In der VAS konnte ein Mittelwert von 8,2 Punkten (Min 7/Max 10) erzielt werden (0=keine Zufriedenheit, 10=volle Zufriedenheit). Der mittlere DASH-Wert betrug 16,2 Punkte (Min 0/Max 39). Der mittlere Bewegungsumfang betrug für Extension/Flexion bei einem durchschnittlichen Streckdefizit von 8° (Min 0°/Max 25°) und einer Beugung von 135° (Min 105°/Max 155°) 125° (Min 90°/Max 155°). Die Unterarmumwendbewegungen waren mit 175° (Min 165°/Max 180°) kaum eingeschränkt. Bei keinem Patienten gab es postoperative Komplikationen. Eine zur Hakenplatte modifizierte Drittelrohrplatte stellt im Gegensatz zu präformierten, winkelstabilen Implantaten eine kostengünstige Alternative zur Osteosynthese bei Olecranonfrakturen dar. Auch bei komplexen mehrfragmentären Frakturtypen und osteoporotischer Knochenqualität konnte so im nachuntersuchten Kollektiv eine sichere Frakturretention erzielt werden. Hinsichtlich des funktionellen Ergebnisses profitieren die Patienten von einer dadurch unmittelbar postoperativ möglichen, physiotherapeutischen Nachbehandlung. Das für die Hakenplatte benötigte Osteosynthesematerial (Kleinfragment-Drittelrohrplatte) ist nahezu überall verfügbar und lässt sich in kurzer Zeit der individuellen Anatomie und Frakturmorphologie anpassen. Eine Drahtmigration, wie bei der weit verbreiteten Zuggurtungsosteosynthese häufig beobachtet, ist ausgeschlossen.
Fragestellung: In einem ausgedehnten Knochendefekt kann das Einwachsen von knochenbildenden Zellen limitiert sein, da ohne Gefässe die Ernährung der regenerativen Zellen im Knochenkonstrukt insuffizient ist. Endotheliale Progenitorzellen (EPC) sind wichtig bei der Neovaskularisierung. Die frühe Vaskularisierung von grossen Knochendefekten kann für das Überleben und die Funktion von mesenchymalen Stammzellen (MSC) und knochenbildenden Zellen entscheidend sein. Kann die Implantation von EPC und MSC auf osteokonduktiven beta-Tricalciumphosphat (beta-TCP) in einem "critical-size" Knochendefekt des Femur von athymischen Ratten die frühe Vaskularisierung und die Knochenheilung in vivo verbessern?
Methodik: Humane EPC wurden aus Buffy-Coat und humane MSC aus Knochenmarkaspirat durch Dichtezentrifugation isoliert. 2.5 x 105 kultivierte und differenzierte EPC und MSC wurden in vitro auf beta-TCP geladen. In 145 athymischen, männlichen Ratten wurde das Femur osteotomiert, ein 5 mm Knochendefekt erzeugt und mit Fixateur externe stabilisiert. Die Knochendefekte wurden mit beta-TCP (Gruppe 1), beta-TCP und MSC (Gruppe 2), beta-TCP und EPC (Gruppe 3), beta-TCP und EPC und MSC (Gruppe 4) oder autologem Knochen (Gruppe 5) gefüllt. Nach 1 Woche (n=40), 4 Wochen (n=40), 8 Wochen (n=40) und 12 Wochen (n=25) wurden die Ratten getötet. Bei Pinlockerung wurde die Ratte ausgeschlossen. Die (immun)histologische Analyse (Färbung mit HE, VEGF-R2, vWF) der Vaskularisierung und Knochenneubildung erfolgte mit Image-Analysis-System. Nach 8 und 12 Wochen erfolgte ein µCT und ein 4-Punkte-Biegungstest. Für die statistische Analyse wurde der Kruskal-Wallis-Test verwendet.
Ergebnisse und Schlussfolgerungen: Nach 1 Woche zeigte sich bei der Implantation von EPC/MSC und EPC allein signifikant mehr primitive vaskuläre Plexus (p=0.01;p=0.048) als in Vergleichsgruppen. Im Vergleich zur TCP Gruppe war in allen anderen Versuchsgruppen signifikant mehr Knochenneubildung zu sehen (p<0.01). Ausserdem war in der EPC/MSC-Gruppe signifikant mehr Knochenbildung zu erkennen als in der MSC-Gruppe (p=0.03). Nach 12 Wochen zeigten alle Gruppen eine knöcherne Durchbauung des Defektes, jedoch zeigten bereits 8 Wochen nach Implantation von MSC/EPC 83% der Defekte eine stabile, knöcherne Durchbauung. Bei der Implantation von MSC kam es in 18% der Knochendefekte zum knöchernen Durchbau. Alle anderen experimentellen Gruppen zeigten nach 8 Wochen keine knöcherne Durchbauung. Diese Resultate konnten im µCT, biomechanischen Test und in der Histologie quantifiziert werden. EPC scheinen die frühe Vaskularisierung innerhalb eines Knochenkonstrukt in vivo zu stimulieren und das Einwachsverhalten von MSC zu verbessern, was zu einer beschleunigten Knochenheilung im Knochendefektmodell der Ratte führt.
Fragestellung: Die Identifizierung von biomolekularen Markern der Osteoarthritis ist das wesentlichste aktuelle Ziel der internationalen Osteoarthritisforschung. Tiermodelle sind geeignet zur genaueren Charakterisierung der Osteoarthritis, speziell auch um den Nutzen biomolekularer Marker zu testen. Sowohl im Modell der kompletten medialen Meniskektomie wie auch der vorderen Kreuzbanddurchtrennung untersuchten wir das Cartilage Oligomeric Matrix Protein (COMP). Zwar ist die Funktion dieses Moleküls weiterhin unzureichend bekannt, aber es ist aufgrund einer höheren Menge im Knorpel ein potentieller Marker für Serumuntersuchungen, die ein wichtiger Fortschritt in Diagnostik und Therapie der Osteoarthritis sind. Methodik: Als Modell dienten die einseitige komplette mediale Meniskektomie des Kaninchens mittels Arthrotomie bzw. die vordere Kreuzbanddurchtrennung. Jeweils zu den Zeitpunkten 2, 4, 8 und 12 Wochen nach der Operation wurden im jeweiligen Tiermodell je 8 Kaninchen untersucht. Der makroskopische Befund der operierten und nichtoperierten Seite wurde mittels modifizierter Outerbridge-Skala und mittels des Lokalisationsschemas der International Cartilage Repair Society (ICRS) erhoben. Mikroskopisch wurde jeweils der Gelenkknorpel in der Hämatoxylin-Eosin- und der Safranin O-Färbung untersucht. In der Synovialflüssigkeit der Kniegelenke der operierten und kontralateralen Seite wurde COMP mittels Enzymimmunoassay bestimmt. Zudem wurden Serumanalysen mittels Enzymimmunoassay vorgenommen. Die statistische Analyse erfolgte mittels Wilcoxon-Test (SPSS, Chicago, Ill). Die Tierversuche waren von der Ethikommission der Universität und vom Regierungspräsidium genehmigt. Ergebnisse und Schlussfolgerungen: Die operierten Kniegelenke hatten zu allen Zeitpunkten nach kompletter medialer Meniskektomie und nach vorderer Kreuzbanddurchtrennung erhöhte Scorewerte im Vergleich mit der nichtoperierten Seite. Auch histologisch waren erhöhte Scores in beiden Tiermodellen nachweisbar. Bei Vergleich der operierten mit der kontralateralen, nichtoperierten Seite wurde nach der kompletten medialen Meniskektomie 2 Wochen nach der Operation COMP im operierten Kniegelenk signifikant erhöht gemessen. Im vordere Kreuzbanddurchtrennungsmodell war COMP zu allen Zeitpunkten erhöht. Allerdings war COMP im Serum in keinem der beiden Modelle im Verlauf signifikant erhöht. Mit den Untersuchungen wurde gezeigt, dass Cartilage Cartilage Oligomeric Matrix Protein beim Kaninchen sowohl in der Synovialflüssigkeit wie im Serum nachweisbar ist. Diese beiden Tiermodelle sind gut geeignet, Aspekte des Krankheitsprozesses zu imitieren. Die Bestimmung von COMP zur Verlaufsbeurteilung während des osteoarthritischen Prozesses erscheint in mindestens einem der beiden Kaninchenmodelle geeignet. Die speziell auch beim Einsatz am Menschen vorzuziehende Form der Bestimmung im Serum gab allerdings keine Werte, die für die Verlaufsbeurteilung hilfreich sind. Die Ergebnisse haben eine klare Relevanz für die Erforschung beim Menschen.
"Goethe meint, dass es mein bestes Werk sei", schreibt Schiller an Körner am 13. Mai 1801. Bezeugt sind zudem die, vor allem von der studentischen Jugend, begeistert und bejubelt aufgenommenen ersten Aufführungen 1801 in Leipzig. Heute dürfte die Jungfrau eher zu den weniger oft aufgeführten Dramen Schillers gehören. Schließlich handelt es sich auf einen ersten unbefragten Blick um sein befremdlichstes, um ein bizarres und mysteriöses Stück. Warum beschäftigt sich der Aufklärer und Klassiker mit einer mythisch-mystischen Hexe und Heiligen (denn sie ist beides in der Geschichte) in einer romantischen Tragödie? Von den Romantikern sind wir allerhand Spuk- und Gespenstergeschichten gewöhnt und Zauberbäume und sprechende Heiligenbilder überraschen uns nicht. Aber Schiller? Schiller ist doch, so verstehe ich ihn jedenfalls, ein politischer Dichter. Und da liegt auch schon die Antwort: eben deshalb.
Word formation in Distributed Morphology (see Arad 2005, Marantz 2001, Embick 2008): 1. Language has atomic, non-decomposable, elements = roots. 2. Roots combine with the functional vocabulary and build larger elements. 3. Roots are category neutral. They are then categorized by combining with category defining functional heads.
This paper gives a brief overview of computation models for data stream processing, and it introduces a new model for multi-pass processing of multiple streams, the so-called mp2s-automata. Two algorithms for solving the set disjointness problem with these automata are presented. The main technical contribution of this paper is the proof of a lower bound on the size of memory and the number of heads that are required for solving the set disjointness problem with mp2s-automata.
Ich werde allerdings noch zur Diskussionskultur in den USA gegen Ende meines Vortrages zu sprechen kommen. Heute möchte ich über meine aktuelle Studie zum Münzhandel in Nordamerika referieren. Obwohl ich mein Hauptaugenmerk auf die Situation in den USA lenke, sind selbstverständlich viele Aspekte auf Europa übertragbar. Zuerst möchte ich den Handel mit Neufunden darlegen. Es ist wichtig darauf hinzuweisen, dass sich viele Händler und Sammler, besonders in den Vereinigten Staaten, darauf berufen, dass der Handel mit antiken Münzen in keinem Zusammenhang mit der Raubgräberei und dem Handel anderer antiker Objekte steht. Danach möchte ich den Umfang des Handels mit Neufunden besprechen und aufzeigen, wie Münzen aus Raubgrabungen über illegale Transaktionen und kriminelle Strukturen von der Ausgrabungsstätte über Schmuggler, Großhändler und spezialisierte Händler schließlich zu den Sammlern gelangen. Ich hoffe, wir stimmen alle dahingehend überein, dass die Probleme eines nicht-regulierten Handels sowohl für die Wissenschaft als auch für die Sammler verheerend sein können. Daher ist es im Interesse beider Seiten diesbezüglich zu kooperieren. Ich bin sehr zuversichtlich, dass das Verhältnis von Sammlern, Händlern und Archäologen in Deutschland ebenso wie im gesamten Europa größere Möglichkeiten für einen ehrlichen Dialoge und positive Änderungen zulassen als in den USA, worauf ich ebenfalls eingehen möchte. ...
This article discusses the divergent status of the two particles lé and lá in the grammar of Konkomba, a Gur language (Niger-Congo) of the Gurma subgroup. While previous studies claim that both particles are focus markers, this author argues that only the particle lá should be analyzed as a pure pragmatic device. Distributional studies suggest that the use of particle lé, on the other hand, is only required under specific focus conditions, and primarily represents a syntactic device.
Hintergrund: Die Notwendigkeit der Etablierung der Anwendung von Evidenzbasierter Medizin (EbM) in den klinischen Alltag sowie die Sicherung der europaweiten Qualifikation in EbM ist seit geraumer Zeit vielfältig diskutiert worden. Gefördert durch das "Leonardo da Vinci"- Berufsbildungsprogramm der Europäischen Union hat das euebm-Projekt zum Ziel, durch ein europaweit einheitliches integriertes Basiscurriculum für evidenzbasierte Medizin eine bessere Verzahnung zwischen dem Erlernen der EbM-Techniken und der eigenen Patientenversorgung zu erreichen. An der Universitätsklinik Frankfurt am Main wird ab dem 01.01.2009 das euebm-Projekt in den klinischen Alltag integriert werden. Die Zielgruppe dieses Projektes bilden alle Assistenzärzte jeglicher Fachrichtungen im 1. Weiterbildungsjahr. Durch einen online-basierten Kurs wird den Interessenten die Möglichkeit geboten, an den einzelnen Lehrmodulen teilzunehmen.
Methoden: Es werden alle Assistenzärzte im 1. Weiterbildungsjahr in einem individualisierten Schreiben zur Teilnahme an dem Projekt aufgefordert. Nach der elektronischen Anmeldung werden die Teilnehmer prätest-Evaluationsbogen mit inhaltlichen EbM-Fragen beantworten. Danach durchlaufen die Teilnehmer ein EbM-Lernprogramm, bestehend aus 5 Modulen. Jedes Modul wird durch eine Lernerfolgskontrolle abgeschlossen. Abschließend wird eine Gesamtlernkontrolle von jedem Teilnehmer abverlangt. Am Ende des online-Kurses werden die Teilnehmer ebenfalls einen mehrteiligen subjektiven Evaluationsbogen beantworten. Um einen längerfristigen Lerneffekt messen zu können, werden 6 Monate bzw. 1 Jahr nach dem erfolgreichen Abschluss die Teilnehmer erneut einen objektiven inhaltlichen Evaluationsbogen bearbeiten.
Ergebnisse: Im Rahmen der 10. Jahrestagung des DNEbM im März 2009 können voraussichtlich Zwischenergebnisse der objektiven (präinterventionell vs. postinterventionell) und subjektiven Evaluationen veröffentlicht werden. Zudem wird derzeit die Erstellung einer statistischen Auswertung der Zugriffszahlen auf die verschiedenen medizinischen Online-Datenbanken und Suchmaschinen (prä- und postinterventionell) aufgebaut.
Schlussfolgerung/Implikation: Mit Hilfe der curricular vermittelten Lehrinhalte und Techniken sollen Ärzte in die Lage versetzt werden, EbM praxisnah für und mit ihren Patienten umzusetzen. In der konkreten Anwendung von EbM an ihren individuellen Patienten können Ärzte möglicherweise erfahren, dass die Integration von EbM in den klinischen Alltag ihr Spektrum an Beratungs- und Behandlungsmöglichkeiten erweitert.
ASSR hat sich in der Diagnostik von Hörstörungen und der Hörgeräteanpassung von Kleinkindern etabliert. Wir möchten einen Vergleich in der Auswertung von ASSRs und frequenzspezifischen ABRs im Rahmen der Hörgeräteanpassung von Kleinkindern vorstellen. Wir untersuchten jeweils die ASSRs und die ABRs mit der GSI Audera und der GN Otometrics Chartr. Untersucht wurden insgesamt bisher 130 Kinder. Zunächst wurden die Mittelwerte der einzelnen vier Frequenzen (0,5; 1; 2; 4 kHz) sowie die jeweiligen Korrelationen zum Click-Stimulus der ABR, welche weiterhin als Goldstandard gilt, korreliert. Die Messungen wurden geräteintern durchgeführt. Die Messungen der ASSRs zeigen besonders im Bereich der leichten und mittelschweren Hörstörungen deutliche, nicht abschätzbare, Abweichungen, so dass wir die ASSR als alleinige Basis für die Hörgeräteanpassung bei Kleinkindern nicht empfehlen können.
Geistig behinderte Personen haben ein erhöhtes Risiko für eine Hörbehinderung. Häufig nicht erkannt und therapiert führt das zu einer reduzierten Lebensqualität. Aus diesem Grunde wurde Healthy Hearing in das Healthy Athletes Programm der Special Olympics mit aufgenommen. Seit der Einführung des Healthy Athletes Programms in die deutschen Special Olympics im Jahre 2004 betreut die Phoniatrie/Pädaudiologie des Universitätsklinikums Frankfurt M. das Projekt "Healthy Hearing". Während der deutschen Special Olympics Sommerspiele 2004, 2006 und 2008 erhielten 1944 Athleten ein Hörscreening nach den internationalen Richtlinien. Das Ergebnis: viele Athleten sind medizinisch unterversorgt. Aus diesem Grunde wurde eine hessische Healthy Athletes Gruppe gebildet, die zur Verifizierung der Prävalenz von geistig behinderten Schülern in einem Pilotprojekt 198 geistig behinderte Schüler (76 Mädchen, 122 Jungen; Altersmedian 12 Jahre, Spanne 6–20 Jahre) einer Frankfurter Schuleinrichtung mit dem Hörscreening des Healthy Athletes Programms untersuchte. Dieses Hörscreening beinhaltet die Otoskopie, die Messung otoakustischer Emissionen und im Falle eines Fails die Tympanometrie bzw. Tonschwellenaudiometrie bei 0,5 kHz, 1 kHz, 2 kHz und 4 kHz. 152 der Schüler konnten so komplett erfasst werden. Davon zeigten 119 ein Pass, 33 ein Fail. 98 erhielten die Empfehlung zu weiteren Kontrollen. Diese Ergebnisse unterstreichen die Wichtigkeit der Einführung eines regelmäßigen Hörscreenings in Schuleinrichtungen für geistig Behinderte.
Das Neugeborenen-Hörscreening in Hessen stützt sich neben den medizinischen Einrichtungen, in denen das Screening selbst durchgeführt wird, vor allem auf das Hessische Kinderversorgungszentrum am Universitätsklinikum Frankfurt/Main, Standort Gießen. Von dort aus werden alle Screeningergebnisse zentral verwaltet und Eltern auf noch fällige Follow-up-Untersuchungen aufmerksam gemacht. Anhand von 5 Fallbeispielen werden Sonderfälle und die Schwierigkeiten des flächendeckenden Neugeborenen-Hörscreenings in Hessen dargelegt und gezeigt, dass eine zentrale Datensicherung und ein Tracking zur Organisation des Neugeborenen-Hörscreenings unerlässlich ist und wie die optimale Zusammenarbeit zwischen den Geburtskliniken und den Follow-up-Einrichtungen eine mögliche Problemlösung bieten kann.
Schluckstörungen sind häufig Folge von Kopf-Hals-Tumorerkrankungen, deren Prävalenz bis zu 88% aufgeführt wird. Je früher eine Dysphagie diagnostiziert wird, desto geringer ist das Risiko für Sekundärkomplikationen, was die Anzahl "teurer" Fälle senkt und den Patienten die Möglichkeit auf eine zügige Restitution von Lebensqualität bietet! Diese Fakten unterstreichen die Notwendigkeit eines klinischen Behandlungspfades, nach dem die Diagnose auf der Grundlage eines standardisierten und überprüfbaren Workflows erstellt wird. Da die zügige, optimale Behandlung von Dysphagien einen multidisziplinären Zugang erfordert, wurde im Klinikum der Goethe-Universität Frankfurt/Main ein interdisziplinärer Arbeitskreis für Schluckstörungen (IAS) gegründet, der sich aus Phoniatrie, Klinik für HNO und MKG sowie Radiologie zusammensetzt. Im Rahmen eines zweimal wöchentlich durchgeführten Onkoboards, werden zusammen mit der Strahlentherapie und Onkologie, Risikopatienten herauskristallisiert und onkologische Therapieoptionen u.a. im Hinblick auf funktionelles Outcome diskutiert. Bereits präoperativ werden entsprechende Patienten phoniatrisch aufgeklärt und ihre Schluckfunktion via endoskopischer Evaluation nach Langmore-Standard (FEES) untersucht. Ein systematisches Follow-up erfolgt via FEES wenige Tage und 4–6 Wochen postoperativ sowie nach adjuvanter Therapie. Pro Woche wurden so im vergangenen Jahr ca. 3–5 Patienten wöchentlich neu erfasst und über 80 Patienten im Verlauf untersucht und einer adäquaten Therapie zugeführt.
Meeting Abstract Es wurde eine zellbasierte Wundauflage mit Keratinozyten und Fibroblasten auf Basis einer kommerziellen Wundauflage (Matriderm, Collagen/Elastin-Matrix) generiert, um damit großflächige Verbrennungswunden behandeln zu können. Zunächst wurde die Expansion der Keratinozyten optimiert und die Zeit für die Anzüchtung minimiert. Ausgangsmaterial waren 1–2 cm2 Spalthaut vom Patienten. Epidermis und Dermis wurden nach einer enzymatischen Behandlung mit Thermolysin voneinander getrennt. Aus den beiden Hautkompartimenten wurden durch Trypsin- und Kollagenase I-Behandlung Keratinozyten und Fibroblasten isoliert, welche in Kollagen I-beschichteten Zellkulturflaschen expandiert wurden. Nach 10 Tagen wurden die Fibroblasten auf 100 cm2 Matriderm aufgebracht. Nach einwöchiger submerser Kultivierung wurden die Keratinozyten ausgesät. Eine Woche später wurde die Matrix an die Luft-Flüssigkeitsgrenze angehoben, um die epidermale Differenzierung einzuleiten. Nach 16 Tagen wurde das Hautäquivalent fixiert und immunhistologisch sowie elektronen-mikroskopisch begutachtet. Die Histologie zeigte eine regelgerechte Stratifizierung des epidermalen Anteils. Immunhistologisch ließ sich eine Basalmembran mit Collagen IV und Laminin 5 nachweisen. Proliferative Zellen, nachgewiesen mit KI-67 befanden sich lediglich in der basalen Region der Epidermis. Desmoglein, sowie die Differenzierungsmarker Involucrin und CK 10 wurden suprabasal nachgewiesen. Elektronenmikroskopisch waren die Basalmembran sowie die Zell-Zell-Verbindungen in Form von Desmosmen zu erkennen. Späte Differenzierungsmerkmale, wie granuläre Strukturen und verdickte Zellmembranen, fanden sich im Str. granulosum und Str. corneum. Die Studie zeigt, dass man aus Matriderm eine zellbasierte Wundauflage herstellen kann, die verglichen mit dem Ausgangsmaterial um den Faktor 50–100 vergrößert ist und deren Aufbau normaler Haut weitgehend entspricht.
Experimental data shows that adult learners of an artificial language with a phonotactic restriction learned this restriction better when being trained on word types (e.g. when they were presented with 80 different words twice each) than when being trained on word tokens (e.g. when presented with 40 different words four times each) (Hamann & Ernestus submitted). These findings support Pierrehumbert’s (2003) observation that phonotactic co-occurrence restrictions are formed across lexical entries, since only lexical levels of representation can be sensitive to type frequencies.
The objective of this paper is to test the hypothesis that in particular financially constrained firms lease a higher share of their assets to mitigate problems of asymmetric information. The assumptions are tested under a GMM framework which simultaneously controls for endogeneity problems and firms' fixed effects. We find that the share of total annual lease expenses attributable to either finance or operating leases is considerably higher for smaller firms with higher average interest rates and high-growth firms - those likely to face higher agency-cost premiums on marginal financing. Furthermore, our results confirm the substitution of leasing and debt financing for lessee firms. However, we find no evidence that firms use leasing as an instrument to reduce their tax burdens. Keywords: Leasing, financial constraints, asymmetric information, GMM JEL Classifications: D23, D92, C23