Refine
Year of publication
- 2007 (1985) (remove)
Document Type
- Article (786)
- Doctoral Thesis (313)
- Part of Periodical (245)
- Part of a Book (119)
- Book (111)
- Review (102)
- Working Paper (99)
- Conference Proceeding (82)
- Report (43)
- Diploma Thesis (16)
Language
- German (1232)
- English (611)
- Croatian (42)
- Portuguese (38)
- French (18)
- mis (9)
- Italian (7)
- Multiple languages (5)
- Yiddish (5)
- dut (3)
Keywords
- Deutsch (38)
- Kroatisch (37)
- Film (21)
- Literatur (19)
- Brasilien (18)
- Rezensionen (17)
- Deutschland (15)
- Bibliographie (14)
- Johann Wolfgang von Goethe (14)
- Literaturwissenschaft (11)
Institute
- Medizin (196)
- Extern (120)
- Biowissenschaften (78)
- Biochemie und Chemie (76)
- Physik (62)
- Rechtswissenschaft (45)
- Gesellschaftswissenschaften (41)
- Präsidium (41)
- Wirtschaftswissenschaften (40)
- Geschichtswissenschaften (35)
Der folgende unterrichtspraktische Beitrag ist die Fortsetzung eines bereits erschienenen Aufsatzes zur Phraseologismenvermittlung im DaF-Unterricht (vgl. Bergerová 2005). Während es dort im Wesentlichen um grundlegende theoretische Fragestellungen der Phraseodidaktik ging, behandelt der vorliegende Beitrag die Umsetzung der neuesten Erkenntnisse der phraseodidaktischen Forschung am Beispiel eines Didaktisierungsvorschlages anhand der Textsorte Filmankündigung. Vorangestellt wird dafür zunächst eine instruktive Einleitung zu ausgewählten Fragen der Phraseologie im Allgemeinen und der Phraseodidaktik im Besonderen, um auf dieser Grundlage den Didaktisierungsvorschlag entwerfen und erklären zu können.
Die Entwicklung der schwachen Verben ist eine Entwicklung zur Bildung durchschaubarer Tempus- und Modusformen; die Durchschaubarkeit war und ist durch das Verfahren der Agglutination gewährleistet. Im Deutschen geht also der Weg von der Flexion zur Agglutination, wobei lautliche Wandelvorgänge immer wieder zu Mischformen und Synkretismen führen.
Überlange Filme : eine Liste
(2007)
Die vorliegende Arbeit entspringt der Tätigkeit des Verfassers im Rahmen des am Arbeitsbereich Alte Geschichte der Universität Hamburg beheimateten Projekts “Epigraphische Datenbank zum antiken Kleinasien”1. Zielsetzung dieses Projekts ist die Sammlung von bereits edierten griechischen und lateinischen Inschriften aus verschiedenen Regionen Kleinasiens (Ephesos, Lydien, Galatien). Seit 2002 werden die epigraphischen Zeugnisse der römischen Provinz Galatien aufgenommen und in einer Kombination der Texte mit dazugehörigen Kurzkommentaren (Lemmata) über das Greek Epigraphy Project des Packard Humanities Institute (PHI)2 publiziert. Das Kernstück der im Süden der Provinz Galatien gelegenen Großregion Phrygia Proseilemmene mit einer Vielzahl griechischer und lateinischer Inschriften bilden dabei die Stadtterritorien von Laodiceia Combusta und Iconium (Konya). Die Inschriften dieser beiden Städte mitsamt ihrem Territorium wurden im Bearbeitungszeitraum 2004 bis 2007 erfasst und für die Bereitstellung über die Datenbank des PHI vorbereitet. Die im Jahre 2002 in der Reihe Regional epigraphic catalogues of Asia Minor von Bradley McLean herausgegebene Edition der griechischen und lateinischen Inschriften des archäologischen Museums von Konya bildete dabei die Grundlage für die umfassende Sammlung der Inschriften aus dieser Stadt und ihrem Territorium. In diesem Corpus finden sich 241 vornehmlich griechische Inschriften, welche die epigraphische Sammlung des Museums von Konya ausmachen, sowie knappe bibliographische Angaben zu 191 weiteren Inschriften, die aus dem Stadt-Territorium stammen, aber aufgrund der Zielsetzung der Edition nicht aufgenommen wurden. Im Rahmen der Sammlung und Aufbereitung der Inschriften für die Datenbank wurden die Texte und Kommentare der einzelnen Inschriften zur inhaltlichen Arbeit, die Indices v.a. zur Kontrolle des bearbeiteten Materials herangezogen. Die Arbeiten mit dem Corpus sowie die nachträglichen Kontrollen fielen derart umfassend aus, dass letztlich alle Einträge in den Indices der Personen-, Orts- und Götternamen überprüft wurden. Dabei wurde festgestellt, dass einige Einträge fehlerhaft und Namen teilweise nicht im relevanten Index aufgenommen waren. Aus diesem Grund erschien es ratsam, diese drei o.g. Indices zu überarbeiten und in einer revidierten Fassung vorzulegen. ...
Im Bereich der deutsch-ungarischen literarischen Wechselbeziehungen offenbaren sich kontinuierlich neue Forschungslücken, die Fragestellungen aufwerfen, welche bislang weder von der Germanistik, noch von der hungarologischen Forschung hinreichend beantwortet wurden. Die Wirkungsgeschichte Hölderlins in Ungarn stellt zweifels ohne eine derartige Forschungslücke dar: selbst in den groß angelegten Forschungsprojekten zur Geschichte der Aufnahme der deutschsprachigen Literaturen in Ungarn wurde auf die Rezeption des Hölderlinschen Werkes entweder nur am Rande oder gar nicht eingegangen. Dies überrascht umso mehr, als die Rezeptionshandlungen bereits seit Jahrzehnten über die Grenze des Textmediums hinaus wiesen. In der Folge soll Andor Sas’ 1909 veröffentlichter Hölderlinaufsatz – der den Beginn der ungarischen Hölderlinforschung darstellt – einer kritischen Analyse unterzogen werden.
Im Gegensatz zur Minimierung von DFAs ist die exakte Minimierung von NFAs oder regulären Ausdrücken nachweislich schwierig, im allgemeinen Fall PSpace-schwer. Wir zeigen, dass selbst schwache Approximationen zur Minimierung von NFAs und regulären Ausdrücken wahrscheinlich nicht effizient möglich sind. Falls als Eingabe ein NFA oder regulärer Ausdruck der Größe n gegeben ist, löst ein Approximationsalgorithmus für das Minimierungsproblem mit Approximationsfaktor o(n) bereits ein PSpace-vollständiges Problem. Wenn wir uns auf NFAs oder reguläre Ausdrücke über einem unären - also einelementigen - Alphabet beschränken, so ist das Problem der exakten Minimierung NP-vollständig. Wir weisen nach, dass effiziente Approximationen für das unäre Minimierungsproblem mit Approximationsfaktor n^(1-delta) für jedes delta>0 nicht möglich sind, sofern P != NP gilt. Liegt die Eingabe als DFA mit n Zuständen vor, kann sie exponentiell größer sein als ein äquivalenter NFA oder regulärer Ausdruck. Dennoch bleibt das Minimierungsproblem PSpace-schwer, wenn die Anzahl der Übergänge oder Zustände in einem äquivalenten NFA oder die Länge eines äquivalenten regulären Ausdrucks zu bestimmen ist. Wir zeigen, dass auch hierfür keine guten Approximationen zu erwarten sind. Unter der Annahme der Existenz von Pseudozufallsfunktionen, die wiederum auf der Annahme basiert, dass Faktorisierung schwierig ist, zeigen wir, dass kein effizienter Algorithmus einen Approximationsfaktor n/(poly(log n)) für die Zahl der Übergänge im NFA oder die Länge des regulären Ausdrucks garantieren kann. Für die Zahl der Zustände im NFA weisen wir nach, dass effiziente Approximationen mit Approximationsfaktor (n^(1/2))/(poly(log n)) ausgeschlossen sind. Wir betrachten dann Lernprobleme für reguläre Sprachen als Konzeptklasse. Mit den entwickelten Methoden, die auf der Annahme der Existenz von Pseudozufallsfunktionen beruhen, zeigen wir auch, dass es für das Problem des minimalen konsistenten DFAs keine effizienten Approximationen mit Approximationsfaktor n/(poly(log n)) gibt. Für den unären Fall hingegen weisen wir nach, dass es einen effizienten Algorithmus gibt, der einen minimalen konsistenten DFA konstruiert und erhalten somit auch einen effizienten PAC-Algorithmus für unäre reguläre Sprachen, die von DFAs mit n Zuständen akzeptiert werden. Für unäre Beispielmengen weisen wir außerdem nach, dass es keine effizienten Algorithmen gibt, die minimale konsistente NFAs konstruieren, falls NP-vollständige Probleme nicht in Zeit (n^(O(log n)) gelöst werden können. Andererseits geben wir einen effizienten Algorithmus an, der zu unären Beispielmengen einen konsistenten NFA mit höchstens O(opt^2) Zuständen konstruiert, wenn ein minimaler konsistenter NFA opt Zustände hat. Abschließend betrachten wir das Lernen von DFAs durch Äquivalenzfragen. Für den nicht-unären Fall ist bekannt, dass exponentiell viele Fragen für DFAs mit n Zuständen benötigt werden. Für unäre zyklische DFAs mit primer Zykluslänge und höchstens n Zuständen zeigen wir, dass Theta((n^2)/(ln n)) Äquivalenzfragen hinreichend und notwendig sind. Erlauben wir größere zyklische DFAs als Hypothesen, kommen wir mit weniger Fragen aus: Um zyklische DFAs mit höchstens n Zuständen durch Äquivalenzfragen mit zyklischen DFAs mit höchstens n^d Zuständen für d <= n als Hypothesen zu lernen, sind O((n^2)/d) Fragen hinreichend und Omega((n^2 ln d)/(d (ln n)^2)) Fragen nötig.
Der Artikel soll am Beispiel der Autorin Marlene Streeruwitz untersuchen, ob ihre Werke als spezifisch österreichische Literatur nach linguistischen Kriterien zu identifizieren sind. Dabei soll aufgezeigt werden, dass alle sprachlichen Ebenen österreichische Varianten der nationalen Varietäten des Deutschen aufweisen.
Àgbéyèwò Bíbelì Ìròyìn Ayò
(2007)
History of the bible in Yoruba