Linguistik
Filtern
Erscheinungsjahr
- 2004 (30) (entfernen)
Dokumenttyp
- Preprint (11)
- Teil eines Buches (Kapitel) (6)
- Konferenzveröffentlichung (6)
- Wissenschaftlicher Artikel (5)
- Arbeitspapier (2)
Sprache
- Englisch (16)
- Deutsch (11)
- Türkisch (2)
- Italienisch (1)
Volltext vorhanden
- ja (30)
Gehört zur Bibliographie
- nein (30)
Schlagworte
- Namenkunde (5)
- Computerlinguistik (4)
- Deutsch (4)
- Semantik (4)
- Syntax (4)
- Morphologie (3)
- Optimalitätstheorie (3)
- Phonologie (3)
- Frage (2)
- Japanisch (2)
Institut
- Extern (30) (entfernen)
Die Ressource "Wissen" rückte in den letzten Jahrzehnten als Quelle wissenschaftlicher Innovation immer stärker ins Zentrum des Interesses. Diese Fokussierung mündete in eine Selbstreflexion der Wissenschaft und der wissenschaftlichen Disziplinen: Thematisiert werden vor allem die Art und Weise, wie Wissen gewonnen wird, sowie die damit zusammenhängende Frage nach der Konstruktion von Wissenschaftlichkeit, womit das Bewusstsein gleichzeitig auf die mehr und mehr sich auflösende Abgrenzung zwischen den Disziplinen beziehungsweise zwischen den drei hauptsächlichen Wissenschaftskulturen, von Natur-, Geistes- und Kultur- sowie Sozialwissenschaften gelenkt wird. Innerhalb und außerhalb der Universitäten bildeten und bilden sich nicht immer klar verortbare "trading zones" (Gallison 1997), in denen neue Formen und Techniken der Wissensproduktion und Wissensvermittlung geprüft, geübt und teilweise auch institutionalisiert werden. ...
Seit der zweiten Hälfte des zwanzigsten Jahrhunderts sind im theoretischen Bereich der Übersetzungswissenschaft wichtige Veränderungen zu beobachten. Von Cicero bis zur zweiten Hälfte des letzten Jahrhunderts verlagerte sich die ausgangssprachenorientierte Übersetzungsauffassung auf die zielsprachenorientierten. Somit haben sich immer mehr die zielsprachenorientierte Forschungen im Bereich der Übersetzungstheorie als ein übersetzungsrelevantes Phänomen durchgesetzt. Insbesondere haben die nach den 70’er Jahren entworfenen Übersetzungstheorien, in denen der Übersetzer immer mehr in das Zentrum des Forschungsinteresse rückt und entsprechende übersetzungsprozessualorientierte Ansätze sich aufdrängen, an Wichtigkeit eingebüßt. Nach diesen Ansätzen rücken normative Belange in Bezug auf erfolgreiche Übersetzung in Form von Prinzipien und Regeln in den Vordergrund. Heutzutage ist das Interesse an theoretische Forschungen besonders auf deskriptive Beschreibungen des Übersetzungsphänomens gerichtet. Damit die Theorie mit der Praxis übereinstimmt, sollte man vor allem die allgemeinen Grundsätze der Übersetzungstheorien, die Grundlage zur Praxis bilden, explizit verarbeiten. Wenn man auch nicht erwartet, dass die Übersetzungstheorien alle in der Praxis der Übersetzung entstandenen Probleme bewältigen können, ist aber trotzdem davon auszugehen, dass der Übersetzer, welcher über die allgemeine theoretische Grundlage verfügt, in seiner Übersetzungstätigkeit mehr Erfolg haben wird, weshalb die Praxis und Theorie voneinander recht gering abweichen werden. Die Auseinandersetzung mit diesem Tatbestand, also mit der Theorie, kann die Lösung der probablen Fehler erleichtern. Außerdem besteht somit die Möglichkeit, die Effizienz der Theorie auf die Anwendung herauszufinden und demzufolge kann die durch praktische Ausführung ermittelten Ergebnisse eine ganzheitliche Präzisierung der theoretischen Beschreibungen nach sich ziehen.
Çeviribilimde Yöntem Sorunu
(2004)
Dieser Beitrag bearbeitet und behandelt die Funktion der Methodologie beim Erwerb wissenschaftlicher Erkenntnisse in Bezug auf das Verstehen des Übersetzungsvorgangs. Wie bekannt ist das Problem der Methodologie eines der meist diskutierten Themen in der Übersetzungswissenschaft. Obwohl inzwischen eine Reihe von wissenschaftlichen Ansätzen zu diesem Thema existiert, hat die Übersetzungswissenschaft noch keinen theoretischen Rahmen entwickelt, in dem der betreffende Forschungsgegenstand definiert wird. Aus diesem Grund unterscheiden sich die Arten der Angehensweise von übersetzungswissenschaftlichen Problemen. Außerdem scheinen die Definitionsbemühungen hinsichtlich des Forschungsgegenstandes der Übersetzungswissenschaft und der Methodenprobleme der übersetzungswissenschaftlichen Ansätze nicht unbedingt zufrieden stellende Antworten auf die Fragen in diesem Bereich zu liefern. Das Definitionsproblem der genauen theoretischen und methodologischen Orientierung der Übersetzungswissenschaft in der allgemeinen Wissenschaftswelt hängt neben ihrem strittigen Standort als einer neuen Disziplin auch von zwei weiteren Grundfaktoren ab: 1. Probleme, mit denen man bei der Festlegung einer vereinenden Übersetzungstheorie konfrontiert ist, da die Übersetzung einen vielseitigen und komplexen Objektbereich umfaßt; 2. ungenügende Forschungen in Bezug auf methodologische Ansätze in der Übersetzungswissenschaft. Wie bekannt profitiert man bei der Entwicklung einer Übersetzungstheorie auch von der Methodologie anderer Disziplinen. Diese Methoden sind wie vielseitige Mittel, die bei der Lösung von Problemen in Bereichen wie übersetzungswissenschaftliche Forschungen, Didaktik des Übersetzens und Übersetzungsprozess angewandt werden können. Diese Methoden werden außerdem einen Beitrag dazu leisten, definierende Übersetzungsmethoden hinsichtlich über-setzungswissenschaftlicher Ansätze für das Verstehen des Übersetzungsvor-ganges zu entwickeln.
The aim of this paper is the exploration of an optimality theoretic architecture for syntax that is guided by the concept of "correspondence": syntax is understood as the mechanism of "translating" underlying representations into a surface form. In minimalism, this surface form is called "Phonological Form" (PF). Both semantic and abstract syntactic information are reflected by the surface form. The empirical domain where this architecture is tested are minimal link effects, especially in the case of "wh"-movement. The OT constraints require the surface form to reflect the underlying semantic and syntactic representations as maximally as possible. The means by which underlying relations and properties are encoded are precedence, adjacency, surface morphology and prosodic structure. Information that is not encoded in one of these ways remains unexpressed, and gets lost unless it is recoverable via the context. Different kinds of information are often expressed by the same means. The resulting conflicts are resolved by the relative ranking of the relevant correspondence constraints.
The argument that I tried to elaborate on in this paper is that the conceptual problem behind the traditional competence/performance distinction does not go away, even if we abandon its original Chomskyan formulation. It returns as the question about the relation between the model of the grammar and the results of empirical investigations – the question of empirical verification The theoretical concept of markedness is argued to be an ideal correlate of gradience. Optimality Theory, being based on markedness, is a promising framework for the task of bridging the gap between model and empirical world. However, this task not only requires a model of grammar, but also a theory of the methods that are chosen in empirical investigations and how their results are interpreted, and a theory of how to derive predictions for these particular empirical investigations from the model. Stochastic Optimality Theory is one possible formulation of a proposal that derives empirical predictions from an OT model. However, I hope to have shown that it is not enough to take frequency distributions and relative acceptabilities at face value, and simply construe some Stochastic OT model that fits the facts. These facts first of all need to be interpreted, and those factors that the grammar has to account for must be sorted out from those about which grammar should have nothing to say. This task, to my mind, is more complicated than the picture that a simplistic application of (not only) Stochastic OT might draw.
Japanese is often taken to be strictly head-final in its syntax. In our work on a broad-coverage, precision implemented HPSG for Japanese, we have found that while this is generally true, there are nonetheless a few minor exceptions to the broad trend. In this paper, we describe the grammar engineering project, present the exceptions we have found, and conclude that this kind of phenomenon motivates on the one hand the HPSG type hierarchical approach which allows for the statement of both broad generalizations and exceptions to those generalizations and on the other hand the usefulness of grammar engineering as a means of testing linguistic hypotheses.
While the sortal constraints associated with Japanese numeral classifiers are wellstudied, less attention has been paid to the details of their syntax. We describe an analysis implemented within a broadcoverage HPSG that handles an intricate set of numeral classifier construction types and compositionally relates each to an appropriate semantic representation, using Minimal Recursion Semantics.
Hybrid robust deep and shallow semantic processing for creativity support in document production
(2004)
The research performed in the DeepThought project (http://www.project-deepthought.net) aims at demonstrating the potential of deep linguistic processing if added to existing shallow methods that ensure robustness. Classical information retrieval is extended by high precision concept indexing and relation detection. We use this approach to demonstrate the feasibility of three ambitious applications, one of which is a tool for creativity support in document production and collective brainstorming. This application is described in detail in this paper. Common to all three applications, and the basis for their development is a platform for integrated linguistic processing. This platform is based on a generic software architecture that combines multiple NLP components and on robust minimal recursive semantics (RMRS) as a uniform representation language.
The research performed in the DeepThought project aims at demonstrating the potential of deep linguistic processing if combined with shallow methods for robustness. Classical information retrieval is extended by high precision concept indexing and relation detection. On the basis of this approach, the feasibility of three ambitious applications will be demonstrated, namely: precise information extraction for business intelligence; email response management for customer relationship management; creativity support for document production and collective brainstorming. Common to these applications, and the basis for their development is the XML-based, RMRS-enabled core architecture framework that will be described in detail in this paper. The framework is not limited to the applications envisaged in the DeepThought project, but can also be employed e.g. to generate and make use of XML standoff annotation of documents and linguistic corpora, and in general for a wide range of NLP-based applications and research purposes.