410 Linguistik
Refine
Year of publication
Document Type
- Conference Proceeding (33) (remove)
Has Fulltext
- yes (33)
Is part of the Bibliography
- no (33)
Keywords
- Computerlinguistik (17)
- Japanisch (9)
- Maschinelle Übersetzung (6)
- Deutsch (5)
- Linguistik (3)
- Standardisierung (3)
- Symposium (3)
- Technische Unterlage (3)
- Türkisch (3)
- Englisch (2)
Institute
This paper discusses the nature of habits in the use of languages. It is well-known that the habits of one's first language can influence the acquisition of a second language. This paper discusses the less well-known phenomenon of how an acquired second language can influence one's first language, and explains this influence by reference to the nature of communicative behavior.
Çeviribilimde Yöntem Sorunu
(2004)
Dieser Beitrag bearbeitet und behandelt die Funktion der Methodologie beim Erwerb wissenschaftlicher Erkenntnisse in Bezug auf das Verstehen des Übersetzungsvorgangs. Wie bekannt ist das Problem der Methodologie eines der meist diskutierten Themen in der Übersetzungswissenschaft. Obwohl inzwischen eine Reihe von wissenschaftlichen Ansätzen zu diesem Thema existiert, hat die Übersetzungswissenschaft noch keinen theoretischen Rahmen entwickelt, in dem der betreffende Forschungsgegenstand definiert wird. Aus diesem Grund unterscheiden sich die Arten der Angehensweise von übersetzungswissenschaftlichen Problemen. Außerdem scheinen die Definitionsbemühungen hinsichtlich des Forschungsgegenstandes der Übersetzungswissenschaft und der Methodenprobleme der übersetzungswissenschaftlichen Ansätze nicht unbedingt zufrieden stellende Antworten auf die Fragen in diesem Bereich zu liefern. Das Definitionsproblem der genauen theoretischen und methodologischen Orientierung der Übersetzungswissenschaft in der allgemeinen Wissenschaftswelt hängt neben ihrem strittigen Standort als einer neuen Disziplin auch von zwei weiteren Grundfaktoren ab: 1. Probleme, mit denen man bei der Festlegung einer vereinenden Übersetzungstheorie konfrontiert ist, da die Übersetzung einen vielseitigen und komplexen Objektbereich umfaßt; 2. ungenügende Forschungen in Bezug auf methodologische Ansätze in der Übersetzungswissenschaft. Wie bekannt profitiert man bei der Entwicklung einer Übersetzungstheorie auch von der Methodologie anderer Disziplinen. Diese Methoden sind wie vielseitige Mittel, die bei der Lösung von Problemen in Bereichen wie übersetzungswissenschaftliche Forschungen, Didaktik des Übersetzens und Übersetzungsprozess angewandt werden können. Diese Methoden werden außerdem einen Beitrag dazu leisten, definierende Übersetzungsmethoden hinsichtlich über-setzungswissenschaftlicher Ansätze für das Verstehen des Übersetzungsvor-ganges zu entwickeln.
Seit der zweiten Hälfte des zwanzigsten Jahrhunderts sind im theoretischen Bereich der Übersetzungswissenschaft wichtige Veränderungen zu beobachten. Von Cicero bis zur zweiten Hälfte des letzten Jahrhunderts verlagerte sich die ausgangssprachenorientierte Übersetzungsauffassung auf die zielsprachenorientierten. Somit haben sich immer mehr die zielsprachenorientierte Forschungen im Bereich der Übersetzungstheorie als ein übersetzungsrelevantes Phänomen durchgesetzt. Insbesondere haben die nach den 70’er Jahren entworfenen Übersetzungstheorien, in denen der Übersetzer immer mehr in das Zentrum des Forschungsinteresse rückt und entsprechende übersetzungsprozessualorientierte Ansätze sich aufdrängen, an Wichtigkeit eingebüßt. Nach diesen Ansätzen rücken normative Belange in Bezug auf erfolgreiche Übersetzung in Form von Prinzipien und Regeln in den Vordergrund. Heutzutage ist das Interesse an theoretische Forschungen besonders auf deskriptive Beschreibungen des Übersetzungsphänomens gerichtet. Damit die Theorie mit der Praxis übereinstimmt, sollte man vor allem die allgemeinen Grundsätze der Übersetzungstheorien, die Grundlage zur Praxis bilden, explizit verarbeiten. Wenn man auch nicht erwartet, dass die Übersetzungstheorien alle in der Praxis der Übersetzung entstandenen Probleme bewältigen können, ist aber trotzdem davon auszugehen, dass der Übersetzer, welcher über die allgemeine theoretische Grundlage verfügt, in seiner Übersetzungstätigkeit mehr Erfolg haben wird, weshalb die Praxis und Theorie voneinander recht gering abweichen werden. Die Auseinandersetzung mit diesem Tatbestand, also mit der Theorie, kann die Lösung der probablen Fehler erleichtern. Außerdem besteht somit die Möglichkeit, die Effizienz der Theorie auf die Anwendung herauszufinden und demzufolge kann die durch praktische Ausführung ermittelten Ergebnisse eine ganzheitliche Präzisierung der theoretischen Beschreibungen nach sich ziehen.
Zentrum und Peripherie wurde zum leitenden Thema der gleichnamigen Konferenz, die vom 25. bis 27. Mai 2016 an der Schlesischen Universität Opava stattfand. Die Tagung, an der beinahe 90 Fachleute aus 9 Ländern teilnahmen, wurde vom Germanistenverband der Tschechischen Republik und der Germanistischen Abteilung des Instituts für Fremdsprachen der Schlesischen Universität Opava organisiert. Die didaktische Sicht auf Zentrum und Peripherie stellt ins Zentrum der Überlegungen unter anderem das Thema 'Fehler', das eine fächerübergreifende Problematik, mit der sich neben Linguisten, Pädagogen, Didaktikern auch Soziologen und Psychologen beschäftigen, darstellt. Moderne Untersuchungen suchen z.B. Antworten auf die Fragen, was die Ursachen von Fehlern sind, und wie man sie klassifizieren kann. Man stellt sich auch die Frage, ob Fehler immer negativ zu betrachten sind, oder ob sie beim Lernen und Lehren auch von Nutzen sein können. Diskutiert werden auch Fragen nach dem Verhältnis von System, Norm, Kanon und Praxis.
Verpackt in Feedbackschleifen : Einblicke in Digitale Lehrformate des digitalen Sommersemesters
(2021)
Mit der pandemiebedingten Notwendigkeit im Sommersemester ausschließlich digital zu unterrichten ging eine große Frage einher: "Wie komme ich in Kontakt mit unseren Studierenden?" und mehr noch "Wie halte ich diesen Kontakt?" Studierende sind untereinander im Idealfall durch Messenger-Gruppen verbunden, für uns Dozierende bleibt häufig nur ein Kanal: die traditionelle E-Mail. Viele Studierende fragen ihre universitätseigene E-Mail nicht ab oder leiten sie nicht auf eine private E-Mail-Adresse um, was für uns im Grunde bedeutete, dass nur unsere Homepage als sicherer aber eben auch einseitiger Informationskanal zur Verfügung stand. "Wegweiser" zu den neuen digitalen Räumen konnten hier zwar aufgestellt werden, was in diesen Räumen aber angeboten wurde, sollte m.E. interaktiv an die Bedarfe unserer Studierenden angepasst werden. Es brauchte also eigentlich sogar mehr Interaktion als in analogen Lehrveranstaltungen. Daher war für mich bei der Transformation der für das Sommersemester geplanten Lehrveranstaltungen die Integration von Interaktionsmöglichkeiten ein zentraler Aspekt, ein Prozess der selbst aber eben auch ein Trial and Error-Verfahren war, der ohne Feedback ins Leere gelaufen wäre. Nachfolgend möchte ich ein Seminar und drei Formate vorstellen, die Feedback und Interaktion auf unterschiedliche Weise integrieren.
Çağımızda bilim, teknik, sanat, kültür, ekonomi ve tıp alanındaki hızlı gelişmelerle birlikte çok sayıda yeni bilim dalları ve uzmanlık alanları ortaya çıkmıştır. Buna koşut olarak çeşitli bilim alanlarındaki çalışmalar ve araştırmalar da hızla artmış ve her bilim dalının kendine özgü bir uzmanlık dili oluşmuştur. Bu çalışmada, bir uzmanlık dili olan "Dilbilim Dili"nin özellikleri ve öğretimine ilişkin sorunlar irdelenecek ve çözüm önerileri geliştirilmeye çalışılacaktır. Bu konuyu ele alırken kısaca "Uzmanlık Dili" kavramı, tanımı ve özellikleri konusuna değinmek istiyorum.
Particles fullfill several distinct central roles in the Japanese language. They can mark arguments as well as adjuncts, can be functional or have semantic functions. There is, however, no straightforward matching from particles to functions, as, e.g., 'ga' can mark the subject, the object or the adjunct of a sentence. Particles can cooccur. Verbal arguments that could be identified by particles can be eliminated in the Japanese sentence. And finally, in spoken language particles are often omitted. A proper treatment of particles is thus necessary to make an analysis of Japanese sentences possible. Our treatment is based on an empirical investigation of 800 dialogues. We set up a type hierarchy of particles motivated by their subcategorizational and modificational behaviour. This type hierarchy is part of the Japanese syntax in VERBMOBIL.
The research performed in the DeepThought project aims at demonstrating the potential of deep linguistic processing if combined with shallow methods for robustness. Classical information retrieval is extended by high precision concept indexing and relation detection. On the basis of this approach, the feasibility of three ambitious applications will be demonstrated, namely: precise information extraction for business intelligence; email response management for customer relationship management; creativity support for document production and collective brainstorming. Common to these applications, and the basis for their development is the XML-based, RMRS-enabled core architecture framework that will be described in detail in this paper. The framework is not limited to the applications envisaged in the DeepThought project, but can also be employed e.g. to generate and make use of XML standoff annotation of documents and linguistic corpora, and in general for a wide range of NLP-based applications and research purposes.
Sprachtechnologie für übersetzungsgerechtes Schreiben am Beispiel Deutsch, Englisch, Japanisch
(2009)
Wir [...] haben uns zur Aufgabe gesetzt, Wege zu finden, wie linguistisch basierte Software den Prozess des Schreibens technischer Dokumentation unterstützen kann. Dabei haben wir einerseits die Schwierigkeiten im Blick, die japanische und deutsche Autoren (und andere Nicht-Muttersprachler des Englischen) beim Schreiben englischer Texte haben. Besonders japanische Autoren haben mit Schwierigkeiten zu kämpfen, weil sie hochkomplexe Ideen in einer Sprache ausdrücken müssen, die von Informationsstandpunkt her sehr unterschiedlich zu ihrer Muttersprache ist. Andererseits untersuchen wir technische Dokumentation, die von Autoren in ihrer Muttersprache geschrieben wird. Obwohl hier die fremdsprachliche Komponente entfällt, ist doch auch erhebliches Verbesserungspotential vorhanden. Das Ziel ist hier, Dokumente verständlich, konsistent und übersetzungsgerecht zu schreiben. Der fundamentale Ansatz in der Entwicklung linguistisch-basierter Software ist, dass gute linguistische Software auf Datenmaterial basiert und sich an den konkreten Zielen der besseren Dokumentation orientiert.
Standardisierung ist der bedeutendste Ansatz zu Qualitätssteigerung und Kostensenkung in der Technischen Dokumentation. Es gibt eine Reihe von Standardisierungsansätzen: Modularisierung, Informationsstrukturen, Terminologie, Sprachstrukturen. Dennoch werden diese Ebenen meist getrennt voneinander beschrieben. Wir untersuchen, wie Standardisierungen im Informationsmodell, in der Terminologie und in den sprachlichen Strukturen verknüpft werden und miteinander interagieren.
Preferences and defaults for definiteness and number in japanese to german machine translation
(1996)
A significant problem when translating Japanese dialogues into German is the missing information on number and definiteness in the Japanese analysis output. The integration of the search for such information into the transfer process provides an efficient solution. General transfer includes conditions to make it possible to consider external knowledge. Thereby, grammatical and lexical knowledge of the source language, knowledge of lexical restrictions on the target language, domain knowledge and discourse knowledge are accessible.
Die Entwicklung eines individuellen Standards „vom grünen Tisch“ führt selten zu zufriedenstellenden Ergebnissen. Bei der automatischen Prüfung stellt man schnell fest, dass die „ausgedachten“ Regeln einer systematischen Anwendung nicht standhalten. Bei der Implementierung solcher Richtlinien stellt man fest, dass sie oft zu wenig konkret formuliert sind, wie z.B. „formulieren Sie Handlungsanweisungen knapp und präzise“. Wie jedoch kann ein Standard entwickelt werden, der zu einem Unternehmen, seiner Branche und Zielgruppen passt und für die automatische Prüfung implementiert werden kann? Sprachtechnologie hilft effizient bei der Entwicklung individueller Richtlinien. Durch Datenanalyse, Satzcluster und Parametrisierung entsteht ein textspezifischer individueller Standard. Ist damit aber der Gegensatz von Kreativität und Standardisierung aufgehoben?
Based on a detailed case study of parallel grammar development distributed across two sites, we review some of the requirements for regression testing in grammar engineering, summarize our approach to systematic competence and performance profiling, and discuss our experience with grammar development for a commercial application. If possible, the workshop presentation will be organized around a software demonstration.
In this paper we describe SOBA, a sub-component of the SmartWeb multi-modal dialog system. SOBA is a component for ontologybased information extraction from soccer web pages for automatic population of a knowledge base that can be used for domainspecific question answering. SOBA realizes a tight connection between the ontology, knowledge base and the information extraction component. The originality of SOBA is in the fact that it extracts information from heterogeneous sources such as tabular structures, text and image captions in a semantically integrated way. In particular, it stores extracted information in a knowledge base, and in turn uses the knowledge base to interpret and link newly extracted information with respect to already existing entities.
We present a solution for the representation of Japanese honorifical information in the HPSG framework. Basically, there are three dimensions of honorification. We show that a treatment is necessary that involves both the syntactic and the contextual level of information. The japanese grammar is part of a machine translation system.
While the sortal constraints associated with Japanese numeral classifiers are wellstudied, less attention has been paid to the details of their syntax. We describe an analysis implemented within a broadcoverage HPSG that handles an intricate set of numeral classifier construction types and compositionally relates each to an appropriate semantic representation, using Minimal Recursion Semantics.
Hybrid robust deep and shallow semantic processing for creativity support in document production
(2004)
The research performed in the DeepThought project (http://www.project-deepthought.net) aims at demonstrating the potential of deep linguistic processing if added to existing shallow methods that ensure robustness. Classical information retrieval is extended by high precision concept indexing and relation detection. We use this approach to demonstrate the feasibility of three ambitious applications, one of which is a tool for creativity support in document production and collective brainstorming. This application is described in detail in this paper. Common to all three applications, and the basis for their development is a platform for integrated linguistic processing. This platform is based on a generic software architecture that combines multiple NLP components and on robust minimal recursive semantics (RMRS) as a uniform representation language.
Japanese is often taken to be strictly head-final in its syntax. In our work on a broad-coverage, precision implemented HPSG for Japanese, we have found that while this is generally true, there are nonetheless a few minor exceptions to the broad trend. In this paper, we describe the grammar engineering project, present the exceptions we have found, and conclude that this kind of phenomenon motivates on the one hand the HPSG type hierarchical approach which allows for the statement of both broad generalizations and exceptions to those generalizations and on the other hand the usefulness of grammar engineering as a means of testing linguistic hypotheses.
We present a broad coverage Japanese grammar written in the HPSG formalism with MRS semantics. The grammar is created for use in real world applications, such that robustness and performance issues play an important role. It is connected to a POS tagging and word segmentation tool. This grammar is being developed in a multilingual context, requiring MRS structures that are easily comparable across languages.
Der Elfenbeinturm hat Fenster. Browserfenster : Wissenschaftskommunikation in sozialen Medien
(2021)
We present an effort for the development of multilingual named entity grammars in a unification-based finite-state formalism (SProUT). Following an extended version of the MUC7 standard, we have developed Named Entity Recognition grammars for German, Chinese, Japanese, French, Spanish, English, and Czech. The grammars recognize person names, organizations, geographical locations, currency, time and date expressions. Subgrammars and gazetteers are shared as much as possible for the grammars of the different languages. Multilingual corpora from the business domain are used for grammar development and evaluation. The annotation format (named entity and other linguistic information) is described. We present an evaluation tool which provides detailed statistics and diagnostics, allows for partial matching of annotations, and supports user-defined mappings between different annotation and grammar output formats.
Twenty years ago (1983), I severely criticized Halle and Kiparsky’s review (1981) of Garde’s history of Slavic accentuation (1976). I concluded that Halle and Ki-parsky’s theoretical framework “rests upon an unwarranted limitation of the available evidence, obscures the chronological perspective, and yields results which are partly not new and partly incorrect. It is harmful because it does not give the facts their proper due and thereby blocks the road to empirical study, giving a free hand to unrestrained speculation” (1983: 40). As Halle has recently returned to the subject (2001), it may be interesting to see if there has been some progress in his thinking over the last two decades. In the following I shall try to avoid repeating what I have said in my earlier discussion.
Der Übersetzungsprozess der Technischen Dokumentation wird zunehmend mit Maschineller Übersetzung (MÜ) unterstützt. Wir blicken zunächst auf die Ausgangstexte und erstellen automatisch prüfbare Regeln, mit denen diese Texte so editiert werden können, dass sie optimale Ergebnisse in der MÜ liefern. Diese Regeln basieren auf Forschungsergebnissen zur Übersetzbarkeit, auf Forschungsergebnissen zu Translation Mismatches in der MÜ und auf Experimenten.
This paper proposes an annotating scheme that encodes honorifics (respectful words). Honorifics are used extensively in Japanese, reflecting the social relationship (e.g. social ranks and age) of the referents. This referential information is vital for resolving zero
pronouns and improving machine translation outputs. Annotating honorifics is a complex task that involves identifying a predicate with honorifics, assigning ranks to referents of the
predicate, calibrating the ranks, and connecting referents with their predicates.
We present an architecture for the integration of shallow and deep NLP components which is aimed at flexible combination of different language technologies for a range of practical current and future applications. In particular, we describe the integration of a high-level HPSG parsing system with different high-performance shallow components, ranging from named entity recognition to chunk parsing and shallow clause recognition. The NLP components enrich a representation of natural language text with layers of new XML meta-information using a single shared data structure, called the text chart. We describe details of the integration methods, and show how information extraction and language checking applications for realworld German text benefit from a deep grammatical analysis.
A contrast to a trace
(2001)
For movement, such as quantifier raising, the three different structures illustrated in (1) are discussed in the recent literature.
(1) A girl danced with every boy
a. [every boy]x a girl danced with x (copy + replace)
b. [every boy]x a girl danced with [every boy] (copy)
c. [every boy]x a girl danced with [thex boy] (copy + modify)
In this paper, I'll call the proposal illustrated by (1a) the copy+replace theory since the movement is analyzed as first copying the moving phrase followed by replacing the moving phrase with a trace in the base position of movement. Chomsky (1993) and Fox (1999) argue against the copy+replace theory (1a) on the basis of Condition C data that show that moved material can behave as if it occupied the base position of movement. This behavior would, for example, be expected on the copy theory of movement illustrated by (1b), which also seems conceptually simpler than the copy+replace theory since it involves only copying without replacement. This conceptual advantage, however, is probably only apparent since a theory of the interpretation of structures like (1b) would probably be more complicated than for (1a). Standard assumptions about interpretation, at least, don't predict the right meaning when applied to (1b). For this reason, Chomsky and Fox propose what I'll call the copy+modify-theory illustrated in (1c). This proposes that copying is followed by a trace modification operation that replaces the determiner of the moved DP with something else. I assume that this is an indexed definite determiner, the interpretation of which is to be clarified below.