Refine
Year of publication
- 2010 (50) (remove)
Document Type
- Conference Proceeding (50) (remove)
Has Fulltext
- yes (50)
Is part of the Bibliography
- no (50)
Keywords
- Deklination (2)
- Healthcare worker (2)
- Morphosyntax (2)
- Pronomen (2)
- Vaccine uptake rate (2)
- Ableitung <Linguistik> (1)
- Adjektiv (1)
- Aikido (1)
- Akupressur (1)
- Akupunktur (1)
Institute
- Physik (13)
- Medizin (6)
- Extern (3)
- Zentrum für Weiterbildung (2)
- Erziehungswissenschaften (1)
- Frankfurt Institute for Advanced Studies (FIAS) (1)
- Geschichtswissenschaften (1)
- Informatik (1)
- Internationales Studienzentrum (1)
- Sportwissenschaften (1)
AKUE is developed by the e-learning centre of the University of Frankfurt, studiumdigitale, and is a procedure to assure high quality levels of e-learning course design and digital media production. The name AKUE stands for the German words for analysis, concept, implementation and evaluation and describes the four phases of the process. Background of AKUE is the fact, that costs and benefits of e-learning courses are difficult to be quantified. Therefore so called procedure (or process) models are applied in order to improve the quality and effectiveness of e-learning courses. This paper presents the process and steps of AKUE and gives examples for its application.
In: conference proceedings, edulearn 2010, Barcelona 5.-7.7.2010.
In order to design and tutor online and blended learning courses, trainers and teachers need to obtain appropriate qualification. In this paper different competency models for online teaching which developed in Germany 2005 – 2008 will be addressed as well as different settings to qualify teachers and trainers appropriately. Finally the results of an evaluation of two different training settings will be presented in order to compare an in house versus a transorganisational training program.
We describe an empirical method to explore and contrast the roles of default and principal part information in the differentiation of inflectional classes. We use an unsupervised machine learning method to classify Russian nouns into inflectional classes, first with full paradigm information, and then with particular types of information removed. When we remove default information, shared across classes, we expect there to be little effect on the classification. In contrast when we remove principal part information we expect there to be a more detrimental effect on classification performance. Our data set consists of paradigm listings of the 80 most frequent Russian nouns, generated from a formal theory which allows us to distinguish default and principal part information. Our results show that removal of forms classified as principal parts has a more detrimental effect on the classification than removal of default information. However, we also find that there are differences within the defaults and principal parts, and we suggest that these may in part be attributable to stress patterns.
Direct photon emission in heavy-ion collisions is calculated within a relativistic micro+macro
hybrid model and compared to the microscopic transport model UrQMD. In the hybrid approach,
the high-density part of the collision is calculated by an ideal 3+1-dimensional hydrodynamic
calculation, while the early (pre-equilibrium-) and late (rescattering-) phase are calculated with
the transport model. Different scenarios of the transition from the macroscopic description to
the transport model description and their effects are studied. The calculations are compared to
measurements by the WA98-collaboration and predictions for the future CBM-experiment are
made.
Hintergrund: Die Unterschidung von Augen mit frühem Keratokonus (KC) von normalen Augen bereitet nach wie vor Schwierigkeiten. Die vorliegende Untersuchung vergleicht konventionelle keratometrie-basierte mit wellenfront-basierten Maßzahlen hinsichtlich ihrer Eignung, normale Augen von Augen mit sehr frühem Keratokonus zu unterscheiden.
Methoden: Es wurden 17 Augen von 17 Patienten mit frühem KC eingeschlossen. Bei diesen 17 Augen handelt es sich um klinisch unauffällige Partneraugen des stärker betroffenen Auges. 123 Normalaugen von 69 Patienten dienten als Negativkontrolle. Von den axialen Kurvaturdaten wurden folgende Maßzahlen berechnet: zentrale Keratometrie (cK), Astigmatismus (AST), inferior-superiore Brechwertdifferenz (I-S), Verkippung der radialen Achsen (SRAX), KISA% index (eine Maßzahl, die auf cK, AST, I-S und SRAX basiert) und corneale Zernike-Koeffizienten (1.–7. Ordnung, Pupillendurchmesser: 6 mm). Aus Zernike-Koeffizienten wurden Diskriminanzfunktionen konstruiert. Receiver-Operatiing-Charakteristik (ROC)-Kurven wurden erstellt, um die diagnostische Trennschärfe dieser Werte zur Unterscheidung von klinisch unauffälligen Partneraugen von Augen mit frühem Keratokonus und normalen Kontrollen zu evaluieren.
Ergebnisse: Der I-S-Wert (Korrektheit 92,1%, kritischer Wert 0,59 D) und die vertikale Coma (C3-1; 96,7%, –0,2 µm) waren die beiden Einzelwerte mit höchster Trennschärfe. Mit den ursprünglich publizierten kritischen Werten lag der Rabinowitz-McDonnell test (cK und I-S) bei 83,3% (Sensitivität 0%, Spezifität 100%) und der KISA% bei 70,8% (81,3%, 60,3%). In Verbindung mit Diskriminanzanalyse errichten Zernike-Koeffizienten eine Korrektheit von 96,7% (100%, 93,4%).
Schlussfolgerungen: Auf cornealen Zernike-Koeffizienten basierende Maßzahlen erreichte die höchste Trennschärfe bei der Unterscheidung von Augen mit subklinischem KC von Normalaugen. Dennoch konnten konventionelle KC-indices eine ähnlich hohe Trenschärfe wie die Zernike-Methode erreichen, wenn die kritischen Werte entsprechend angepasst werden.
Hintergrund: Im Rahmen der Erforschung von Mechanismen der Presbyopie-Entstehung hat das Interesse an Methoden zur Linsendensitometrie wieder zugenommen. Für spezielle Fragestellungen sind flexible Untersuchungsmethoden notwendig.
Methoden: Basierend auf Aufnahmen mit der Scheimpflug-Kamera Pentacam HR (Oculus, Wetzlar) wurde ein MATLAB-Programm (V7.0, The MathWorks) erstellt, um größere Datenmengen automatisiert auszuwerten. Die Erkennung der Pupillenmitte als Referenzpunkt erfolgt mittels eines Randerkennungsalgorithmus. Als Kennzahlen dienen klassische Parameter der beschreibenden Statistik (Mittel, Minimum, Maximum, Standardabweichung und Variationskoeffizient) für einen definierten rechteckigen Bereich und für die zentrale vertikale Achse.
Ergebnisse: In einer Präliminarserie von 18 Augen war eine automatisierte Messung mit korrekter Pupillenerkennung in 80% der Fälle möglich. Verglichen mit der hersteller-eigenen Software (Pentacam 6.03r11) besitzt das eigene Programm eine erweiterte Spannweite der Messwerte. Die Messwerte können automatisch nach Excel (Microsoft) exportiert werden. Ein modularer Aufbau ermöglicht eine flexible Erweiterung für weitere Fragestellungen (z.B. Quantifizierung von Kern- und Rindentrübungen).
Schlussfolgerungen: Mittels eines selbst programmierten MATLAB-basierten Programmes kann eine automatisierte Messung und Analyse von linsndensitometrischen Parametern durchgeführt werden.
This work focuses on the syntax and semantics of the expression vice versa, and shows that its syntactic distribution is much more flexible than semantically related expressions. Although vice versa usually appears in clausal coordinate environments, it can in principle occur in any other type of construction. Second, it can occur as an embedded verb phrase or even as a noun phrase, rather than as an adjunct. This suggests that vice versa is a propositional anaphor that corresponds to a converse of a propositional antecedent. Finally, although the predicates singled out to be interchanged are usually nominal, they can in fact be of virtually any part of speech. I argue that a possible account of the interpretation of vice versa lies at the interface between logical form (with rich decompositional lexical semantics along the lines of Pustejovsky (1995)), and pragmatics (drawing from independent work by Hobbs (1990) and Kehler (2002)).
Coherence generally refers to a kind of predicate formation where a verb forms a complex predicate with the head of its infinitival complement. Adjectives taking infinitival complements have also been shown to allow coherence, but the exact conditions for coherence with adjectives appear not to have been addressed in the literature. Based on a corpus-study (supplemented with grammaticality judgements by native speakers) we show that adjectives fall into three semantically and syntactically defined classes correlating with their ability to construct coherently. Non-factive and non-gradable adjectives allow coherence, factive and gradable adjectives do not allow coherence and non-factive and gradable adjectives are tolerated with coherence. On the basis of previous work on coherence in German we argue that coherence allows the infinitival complement of a verb or an adjective to be "split-up", so that the head and a dependent of this head are associated with different information structural functions. In this respect coherence patterns with extraction structures where the extracted constituent has an information structural function different from the constituent from which it is extracted. Following literature on the information structural basis of extraction islands, we show how the lack of coherence with factive adjectives follows from their complements' being information structurally backgrounded, while the infinitival complements of non-factive adjectives tend to a higher fusion with the matrix clause. We also show that coherence is observed with attributive adjectives as well, arguing that coherence is not a distinct verbal property. Finally we provide an analysis of coherence with adjectives within HPSG.