Refine
Year of publication
Document Type
- Conference Proceeding (511) (remove)
Language
- German (511) (remove)
Has Fulltext
- yes (511) (remove)
Keywords
- Germanistik (52)
- Bologna-Prozess (32)
- Exzellenzinitiative (32)
- Theorie (32)
- Zukunft (32)
- Virtuelle Hochschule (23)
- Kongress (20)
- Literaturwissenschaft (17)
- Deutsch (15)
- Literatur (11)
Institute
- Medizin (106)
- Extern (33)
- Geschichtswissenschaften (30)
- Gesellschaftswissenschaften (25)
- Universitätsbibliothek (25)
- Erziehungswissenschaften (24)
- Rechtswissenschaft (18)
- Zentrum für Weiterbildung (14)
- Kulturwissenschaften (9)
- Mathematik (9)
Dieser Text wurde verlesen als Statement auf dem Internationalen Colloquium "Perspektiven der Germanistik im 21. Jahrhundert", das vom 4. bis 6. April 2013 im Schloss Herrenhausen in Hannover stattfand. Er bildete die Grundlage für eine Podiumsdiskussion zum Thema "Deutschstunden – zur Lehrerbildung" in der Sektion "Jenseits von Bologna – Studium und Beruf".
Ausgangsfragen: Was sind die Kernziele der Lehrerausbildung im Fach Deutsch? In welchem Verhältnis zueinander stehen didaktische und fachspezifische Elemente sowohl in der Lehrerausbildung wie später in der schulischen Praxis? Reagieren die germanistischen Fachwissenschaften (NDL, Mediävistik, Linguistik) angemessen darauf, dass in der Regel die meisten Studierenden das Lehramt anstreben? Gilt es in der Lehrerausbildung die Fachwissenschaft zu stärken oder nicht vielmehr die allgemein pädagogischen Ausbildungsteile? Welche wesentlichen Inhalte und Kernkompetenzen sollen wiederum im Schulfach Deutsch vermittelt werden? Welchen Stellenwert hat hier die Literatur (im engeren Sinne)? Befindet sich das Fach auf dem Weg zur allgemeinen 'Medienkunde'? Wie könnte – aus germanistischer Sicht – eine 'ideale' Deutschstunde aussehen?
Forum A.2: Philologie, Textwissenschaft, Medienkunde? Zum Gegenstand der Germanistik : Statement
(2013)
Dieser Text wurde verlesen als Statement auf dem Internationalen Colloquium "Perspektiven der Germanistik im 21. Jahrhundert", das vom 4. bis 6. April 2013 im Schloss Herrenhausen in Hannover stattfand. Er bildete die Grundlage für eine Podiumsdiskussion zum Thema "Philologie, Textwissenschaft, Medienkunde? Zum Gegenstand der Germanistik" in der Sektion "Nach der Theorie – Methoden und Modelle".
Ausgangsfragen: Was sind die Gegenstände der Germanistik? Worin bestehen die Kernkompetenzen des Faches bzw. worin sollten sie zukünftig bestehen? Was besagen Bezeichnungen wie 'Germanistik', 'Literaturwissenschaft', 'Philologie', 'Medienkunde' etc. im Hinblick auf das Selbstverständnis des Faches? In welcher Form muss und soll das Fach den neuesten medientechnischen Veränderungen Rechnung tragen? Welche Herausforderungen und Möglichkeiten eröffnet die Digitalisierung? Oder wäre nicht im Gegenteil eine (Rück-)Besinnung auf die Editionsphilologie als eine Grundlage des Faches sinnvoll? Welches Wissen will die Germanistik vermitteln? Wie positioniert sich das Wissen der Literatur / Germanistik allgemein in der Wissensgesellschaft? Gibt es bzw. sollte es eine 'Renaissance des Kanons' in Lehre oder Forschung geben? Wie steht es um kritisch-aufklärerische Funktionen des Faches?
Dieser Text wurde verlesen als Statement auf dem Internationalen Colloquium "Perspektiven der Germanistik im 21. Jahrhundert", das vom 4. bis 6. April 2013 im Schloss Herrenhausen in Hannover stattfand. Er bildete die Grundlage für eine Podiumsdiskussion zum Thema "Nach der Theorie – ist vor der Theorie?" in der Sektion "Nach der Theorie – Methoden und Modelle".
Ausgangsfragen: Was sind die grundlegenden methodisch-theoretischen Veränderungen des Faches in den vergangenen dreißig bis vierzig Jahren? Welchen Stellenwert haben Methoden und Theorien heute im Fach? In welchem Verhältnis steht die germanistische zur allgemeinen Methoden- und Theoriereflexion in den Geisteswissenschaften? Befinden wir uns am Ende des 'theoretischen Zeitalters'? Hat die Konzentration auf Methodik und Theorie das Fach der gebildeten Öffentlichkeit noch mehr als ohnehin entfremdet? Worin bestünden bzw. existieren überhaupt Alternativen zur Theorie? Etwa in Form einer Renaissance von Biographie oder Hermeneutik? Braucht das Fach überhaupt eine breite Debatte über seine theoretischen Horizonte und methodischen Standards? Oder sind andere Fragen vordringlicher, etwa eine stärkere Reflexion der gesellschaftlichen Aufgaben der Germanistik?
Vom 4. bis 6. April 2013 fand im Schloss Herrenhausen (Hannover) das Colloquium "Nach der Theorie, jenseits von Bologna, am Ende der Exzellenz? Perspektiven der Germanistik im 21. Jahrhundert" statt. Fünfundfünfzig geladene Teilnehmerinnen und Teilnehmer sowie rund sechzig Gäste diskutierten auf Podiumsdiskussionen und abseits davon streitbar und produktiv über die Entwicklungen und Perspektiven der Germanistik.
Vom 4. bis 6. April 2013 fand im Schloss Herrenhausen (Hannover) das Colloquium "Nach der Theorie, jenseits von Bologna, am Ende der Exzellenz? Perspektiven der Germanistik im 21. Jahrhundert" statt. Fünfundfünfzig geladene Teilnehmerinnen und Teilnehmer sowie rund sechzig Gäste diskutierten auf Podiumsdiskussionen und abseits davon streitbar und produktiv über die Entwicklungen und Perspektiven der Germanistik. Mit rund 80.000 Studierenden ist sie noch immer das größte geisteswissenschaftliche Fach an deutschen Universitäten. [...]
Auf dem Programm des Colloquiums standen sowohl Themen, die eine mehr innerdisziplinäre Bedeutung besitzen, wie auch Themen, die für die gegenwärtige Lage der Geisteswissenschaften insgesamt relevant sind. Die Sektion A "Nach der Theorie – Methoden und Modelle" nahm die theoretischen Debatten und Kontroversen der letzten Jahre zum Ausgangspunkt, um nach zukünftigen theoretischen und methodischen Ausrichtungen des Faches zu fragen. Sektion B "Jenseits von Bologna – Studium und Beruf" setzte bei der Bologna-Reform und der Kompetenzorientierung in Schule und Studium an. Sie thematisierte die gesellschaftlichen Aufgaben der Germanistik (insbesondere des Studiums), erstens die Lehrerausbildung, zweitens die Perspektiven von Germanistikstudierenden in Ausbildung und Beruf. In einer zusätzlichen, dritten Diskussionsrunde unter dem Titel "Germanistik und Karriere?" kamen individuelle Karrierewege außerhalb der Universität zur Sprache. Hier debattierten einige ehemalige Absolventinnen und Absolventen der Germanistik, die mittlerweile in leitenden Funktionen außerhalb der Universität tätig sind, über ihre Erfahrungen mit dem Fach Germanistik. Gegenstand von Sektion C "Am Ende der Exzellenz – Wissenschaftsbetrieb" schließlich waren die forschungsstrukturellen und wissenschaftspolitischen Veränderungen der Universitäten insgesamt im Zuge einer verstärkten wettbewerbsorientierten Finanzierung von Forschung.
Vom 4. bis 6. April 2013 fand im Schloss Herrenhausen (Hannover) das Colloquium "Nach der Theorie, jenseits von Bologna, am Ende der Exzellenz? Perspektiven der Germanistik im 21. Jahrhundert" statt. Fünfundfünfzig geladene Teilnehmerinnen und Teilnehmer sowie rund sechzig Gäste diskutierten auf Podiumsdiskussionen und abseits davon streitbar und produktiv über die Entwicklungen und Perspektiven der Germanistik. Mit rund 80.000 Studierenden ist sie noch immer das größte geisteswissenschaftliche Fach an deutschen Universitäten.
Diese Website dokumentiert und evaluiert die Diskussionen, um sie einem größeren interessierten Publikum zugänglich zu machen.
- Die Debatten und Vorträge der Konferenz sind als Audiomitschnitte abrufbar.
- Alle Statements, die den Diskussionen zugrunde lagen, stehen zusätzlich als Textdateien zur Verfügung.
- Nach der Konferenz erstellte Berichte stellen die debattierten Probleme zusammen und kommentieren sie.
Wie kann eine E-Learning-Strategie in einer Hochschule durch einen geeigneten Maßnahmenkatalog in einem stufenweisen Organisationsentwicklungsprozess umgesetzt werden? Welche verschiedenen Entwicklungspfade für Fachbereichsstrategien sind dabei möglich? Wie gelingt es, eine Community aufzubauen, die sich dem Ziel verpflichtet, gemeinsam eine hohe Qualität im Bereich E-Learning zu erreichen? Diesen Fragen geht der vorliegende Beitrag nach, der die Umsetzung der E-Learning-Strategie der Goethe-Universität Frankfurt mit dem Projekt megadigitale vorstellt, das 2007 mit dem mediendidaktischen Hochschulpreis Medida-Prix prämiert wurde.
Die Goethe-Universität Frankfurt hat in den letzten Jahren mit dem Projekt megadigitale hochschulweit ihre eLearning-Strategie umgesetzt und alle Fachbereiche in das Vorhaben integriert, d.h. in allen 16 Fachbereichen den Einsatz neuer Medien in der Lehre befördert. Wichtiger Bestandteil dieses kombinierten TopDown-BottomUp-Konzeptes war seit 2005 die finanzielle Förderung von eLearning-Projekten von Lehrenden. Ab 2007 wurde mit Hilfe des MedidaPrix-Preisgeldes zudem die Förderung studentischer eLearning-Vorhaben umgesetzt. Ziel war, die Ideen und Visionen von Studierenden, welche Form von eLearning und des Medieneinsatzes sie an ihrer Hochschule präferieren, aufzugreifen. Dieser Beitrag stellt die einzelnen Förderansätze, ihre Ausrichtungen, Zielsetzungen und Wirksamkeit vor und beschreibt deren Zusammenspiel mit den anderen in megadigitale implementierten Maßnahmen zur hochschulweiten Umsetzung von eLearning.
Um mit den wachsenden Anforderungen der Informations- und Kommunikationstechnologien in unserer Gesellschaft umzugehen, bedarf es der umfassenden Qualifizierung von Kindern und Jugendlichen im Umgang mit den neuen Medien. Das bedeutet, sie müssen befähigt werden, Medien bewusst und kritisch nutzen und kompetent bedienen zu können. Dies erfordert eine gezielte Vermittlung von Medienkompetenz, die neben der Nutzung der Medien auch deren kritische Beurteilung und die aktive Beteiligung an der Gestaltung und Verbreitung dieser Medien umfasst. Gesellschaftliches Ziel muss daher sein, Kinder und Jugendliche schon in der Schule mit den neuen Medien vertraut zu machen und ihnen dort einen pädagogisch geleiteten Umgang mit diesen zu ermöglichen. Dies kann nicht ohne die entsprechende Qualifizierung der Lehrerinnen und Lehrer erfolgen. Neben der Nutzung neuer Medien durch das Lehrpersonal selbst muss diese Zielgruppe auch befähigt werden, Medien zielgerichtet im Unterricht einzusetzen, entsprechende Unterrichtsszenarien zu entwickeln und zu betreuen.
Untersuchungen wie beispielsweise eine Studie unter Lehrkräften in Frankfurter Schulen haben jedoch gezeigt, dass die Ausstattung der Schulen mit modernen Medien zwar sehr zufriedenstellend ist, es den Lehrkräften jedoch an methodischen Qualifikationen mangelt, diese einzusetzen und „ein hoher Bedarf an weiterführenden Schulungen zum fachdidaktischen Einsatz“ artikuliert wurde (Wiedwald 2007, S. 4).
Während Lehrerfortbildungen an dieser Stelle ein Mittel zur Abhilfe darstellen, lösen sie das Problem jedoch nur punktuell. Die Universität Frankfurt hat sich daher mit der Einführung eines Medienkompetenzzertifikates für Lehramtsstudierende sowie der Umsetzung des Projektes Lehr@mt zum Ziel gesetzt, in allen drei Phasen der Lehrerbildung aktiv zu werden und schon ihre Lehramtsstudierenden entsprechend zu qualifizieren sowie auch Angebote für Lehrerinnen und Lehrer bereitzustellen, die einen pädagogisch sinnvollen Einsatz von neuen Medien in Schulen befördern.
Die Goethe-Universität hat im Rahmen ihres Projektes megadigitale, das die hochschulweite Umsetzung ihrer eLearning-Strategie verfolgte, ein Vorgehensmodell entwickelt, das entlang des kompletten Prozesses der Entwicklung und Umsetzung von eLearning-Ansätzen standardisierte Analyse-, Planungs-, Konzeptions-, Implementierungs- und Qualitätssicherungsinstrumente anwendet. Dabei spielen Verfahren zur Qualitätssicherung schon von dem ersten Schritt an, in der Analysephase eine Rolle, angepasst an die verschiedenen Ebenen der Umsetzung.
Wiki-Systeme gewinnen für das kollaborative Erstellen von Wissen zunehmend an Bedeutung, belegt durch den Erfolg großer Projekte wie Wikipedia. Dabei beschränkt sich der Einsatz dieser Systeme nicht auf Anwendungsbereiche wie Wörterbücher oder Glossare; auch Universitäten und Unternehmen nutzen Wikis inzwischen zunehmend zur Unterstützung der Lehre im eLearning, für Dokumentationszwecke, Projektmanagement-Aufgaben, usw.. In diesem Kontext ist die Frage nach dem didaktisch motivierten Einsatz von Wikis im eLearning bedeutsam: welche Erfahrungen haben Akteure dem Einsatz von Wikis in eLearning-Veranstaltung oder auch begleitend zu räsenzveranstaltungen gemacht? Lassen sich Empfehlungen für die Gestaltung der Interaktion und Kooperation in Wikis aus diesen Erfahrungen ableiten?
Um die Nutzung von offenen Ressourcen und Web 2.0 Technologien einer breiten Masse von NutzerInnen zu ermöglichen, ist es auch wichtig, dass LehrerInnen und Lehrer die entsprechenden Kompetenzen erwerben, um diese medialen Angebote und einen sinnvollen Umgang damit ihren Schülerinnen und Schülern vermitteln zu und selbst Medienangebote im Unterricht einsetzen zu können. Die Universität Frankfurt stellt sich dieser Aufgabe und hat sich daher zum Ziel gesetzt, ihre Lehramtsstudierenden entsprechend zu qualifizieren und auch Angebote für Lehrerinnen und Lehrer bereitzustellen, um einen pädagogisch sinnvollen Einsatz von Open Ressources, Web 2.0 Technologien und anderen Medienangeboten zu befördern.
Neben einem Medienkompetenzzertifikat für Lehramtsstudierenden stellt die Hochschule entsprechende Fortbildungsangebote für Lehrerinnen und Lehrer bereit und erzeugt in dem vertikalen Integrationskonzept des Projektes Lehr@mt Medienprodukte mit Studierenden, die LehrerInnen und SchülerInnen über den hessischen Bildungsserver und andere Portale wiederum bereitstehen.
Open Online Courses als Kursformat? Konzept und Ergebnisse des Kurses "Zukunft des Lernens" 2011
(2012)
2011 starteten studiumdigitale, die zentrale eLearning-Einrichtung der Universität Frankfurt/M, und der Weiterbildungsblogger Jochen Robes den ersten deutschsprachigen Open Online Course unter dem Titel „Die Zukunft des Lernens“1. In 14 Wochen wurden in wöchentlichem Rhythmus 14 Themen behandelt, die sich rund um den Einsatz verschiedener Technologien in Bildungsprozessen und auch das Kursformat selbst drehten. Dieser Beitrag stellt die Bezüge des Open Online Courses zu seiner Herkunft und den ersten Kursen dieser Art in Kanada und USA her, bezieht sich auf die theoretischen und konzeptionellen Fundierungen dieses Ansatzes und stellt die Ergebnisse aus dem Kursverlauf und der abschließenden Befragung der Teilnehmenden vor.
Open Online Course als Kursformat? : Konzept und Ergebnisse des Kurses "Zukunft des Lernens" 2011
(2012)
Basierend auf dem Konzept des Connectivismus entwickelte sich in den letzten fünf bis sechs Jahren ein neues offenes Kursformat: die Open Online Courses, die als so genannte MOOCs (Massive Open Online Courses) teilweise bis über 100.000 Teilnehmende anzogen. In dem Beitrag wird mit Bezug auf die konzeptionellen Ursprünge im Connectivismus das Format der Open Online Courses erläutert und Erfahrungen aus dem ersten deutschsprachigen Kurs dieser Art beschrieben, dem Kurs „Zukunft des Lernens“, den im Sommer 2011 studiumdigitale, die zentrale E-Learning-Einrichtung der Universität Frankfurt, der Weiterbildungsblogger Jochen Robes in Kooperation mit der GMW und dem Zentrum für Lehrerbildung der Universität durchführten. Der Kurs zog ca. 900 Interessierte an, die sich in verschiedenen online Medien beteiligten. Der Beitrag beschreibt den Kursverlauf, gibt einen Überblick über technische Umsetzung und Betreuungsformen und stellt neben Betrachtungen zum Transfer die Ergebnisse aus der Teilnehmerbefragung vor.
Wissenschaft ist das Suchen nach (neuen) Erkenntnissen. Die Erkenntnisse bzw. deren Resultate werden vom denkenden und erkennenden Menschen in Begriffe, in kognitive Einheiten, gefasst; damit diese Begriffe kommunizierbar werden, müssen sie mit Wörtern, sprachlichen Einheiten, benannt werden. Auf diese Weise kommt es (auch) zu fachlichen Terminologien.
Ein Blick in die Geschichte der deutschen Sprache kann diese kognitiven und sprachlichen Prozesse illustrieren: Die deutsche Mystik des Mittelalters stellt die Sprecher/innen vor die Notwendigkeit, neue Erfahrungen, die der "Unio mystica", zu versprachlichen. Da eine deutsche Wissenschaftssprache sich erst im 18. Jahrhundert zu etablieren beginnt, ist die 'Fachsprache' der deutschen Mystik eine wichtige Vorstufe, die die Möglichkeiten, zu neuen Termini zu kommen, systematisiert. Wenn heute die deutschen Fachsprachen, wie es oft gefordert wird, vom Englischen abgelöst werden, gehen wichtige Erkenntnisquellen verloren.
Der Aufsatz präsentiert einen der historiographischen Texte aus den böhmischen Ländern, der am Ende des 16. Jahrhunderts vom Humanisten Matthaeus Meisner (1543–nach 1600) verfasst wurde. Das Manuskript über die Geschichte der Stadt Brüx (Most) in Nordwestböhmen ist zurzeit im Archiv der Prager Burg als Bestandteil der Bibliothek des Metropolitankapitels von St. Veit deponiert. Der Aufsatz behandelt die textologische Charakteristik des Manuskripts und die Aspekte, die für die Wahl der im Manuskript vorkommenden, also der lateinischen, deutschen und tschechischen, Sprachen relevant waren.
Im späten Mittelalter setzt sich die deutsche Sprache immer stärker als Sprache der Medizin durch. Auch wenn deutschsprachige heilkundliche Werke jener Zeit vorrangig für Praktiker ohne akademische Ausbildung bestimmt waren und als Anweisungstexte gebraucht wurden, kann man darin schon Register und Inhaltsverzeichnisse finden, also solche Orientierungsmittel, die in der modernen Zeit zum festen Bestandteil von Fachtexten wurden. Diese Mittel der Textoptimierung unterscheiden sich zwar von den heutigen noch stark, nichtsdestoweniger zeugen sie davon, dass die Autoren deutscher medizinischer Werke ihre Adressaten vor Augen hatten und bemüht waren, ihnen die Rezeption des Fachwissens zu erleichtern.
Partizipien und Adjektive gehören zu Sprachmitteln, die bei der Personendarstellung zur Beschreibung des Äußeren, der Interessen und der geistigen Welt in spezifischen Textsorten (hier: in Kontaktanzeigen lesbischer Frauen im Alter über 50 Jahre) verwendet werden. Im Vergleich zum Adjektiv kann das Partizip die zeitliche Dimension einer Eigenschaft oder der Lebenserfahrung ausdrücken; auf diese Weise können Sprechende den Wert der jeweiligen Eigenschaft oder Lebenserfahrung hervorheben. Das Partizip wird in bestimmten Kontexten bevorzugt, denn es kann die persuasive und appellative Funktion des Textes intensivieren. Die Autorin dieses Beitrags analysiert Motive und Strategien des Partizip-Usus' aus pragmalinguistischer Perspektive in 100 Kontaktanzeigen in der deutschen Frauenzeitschrift 'EMMA'.
Der Beitrag setzt sich zum Ziel, die Traditionen, aktuelle Tendenzen und Aufgaben der Erforschung der historischen deutschen Stadtkanzleisprachen auf dem Territorium Böhmens, Mährens und Schlesiens vorzustellen. Der erste Teil ist dem Phänomen des tschechisch-deutschen Bilingualismus in den böhmischen Ländern gewidmet, im zweiten Teil werden Geschichte und aktuelle Aufgaben der Untersuchung der historischen Kanzleisprachen in unserem Land präsentiert und der dritte Teil zeigt Möglichkeiten einer historiolinguistischen Untersuchung an Beispielen frühneuhochdeutscher Texte der Olmützer Stadtkanzlei.
Der Beitrag beschäftigt sich mit den paradigmatischen Bedeutungsrelationen im Rahmen der Phraseologie, dazu gehören: phraseologische Reihen, Synonymie, Antonymie, Konversion I, Konversion II, Polysemie und Homonymie. Einzelne Relationen werden mit Beispielen der somatischen Phraseologie illustriert. Am Anfang werden die Platzierung der paradigmatischen Relationen im Rahmen der Lexikologie und eine kurze terminologische Erklärung angeführt. Weiter werden unterschiedliche Felder mit der phraseologischen Komponente HAND vorgestellt: a) Geben, Nehmen/Klauen und Behalten; b) Macht und Gewalt; c) Mord und Selbstmord; d) Freiheit; e) Machen, Vollenden, Schaffen. Zum Schluss wird die Bedeutung der paradigmatischen Beziehungen erläutert.
Der Beitrag behandelt zunächst die Frage, welche Vorteile elektronische Wörterbücher gegenüber traditionell gedruckten Wörterbüchern besitzen. Danach werden drei Online-Programme zur automatischen Übersetzung (Babelfish, Google Übersetzer, Bing Translator) vorgestellt. Beispieltexte werden mit diesen Programmen übersetzt, danach wird die jeweilige Qualität der Übersetzungen beurteilt. Schließlich diskutiert der Beitrag noch die Folgen, die durch die Möglichkeiten automatischen Übersetzens für die Auslandsgermanistik zu erwarten sind. Dabei zeigt sich, dass Programme für das automatische Übersetzen künftig durchaus ernstzunehmende Auswirkungen auf die philologischen Wissenschaften haben können.
Dieser Beitrag setzt sich zum Ziel, die Kurzwörter zu klassifizieren und statistisch auszuwerten. Die Belege, die beim Lesen der deutschen Alltagspresse gewonnen wurden, verglich die Autorin mit anderen Belegen aus der deutschen Fachpresse und der tschechischen Presse. Statistisch gesehen, bilden die partiellen Kurzwörter, die auch als gebundene Kurzwörter bezeichnet werden, die meist benutzte Kategorie der Kurzwörter in der deutschen Presse. Das deutsche und das tschechische Sprachsystem unterscheiden sich voneinander in der Flexion, was die Variabilität in der Position der gekürzten Form im deutschen Sprachsystem ermöglicht.
Im Beitrag wird an einem Leitartikel des 'Mährischen Tagblatts' vom Juli 1880 gezeigt, wie Phraseme die meinungsbildende Funktion dieser Textsorte unterstützen können. Einer kurzen Charakteristik der Zeitung, der national-politischen Situation in der Donaumonarchie im Jahre 1880, auf die sich der Leitartikel bezieht, und der Textsorte Leitartikel folgt die Übersicht der im Text verwendeten Phraseme mit einem Kommentar zu ihren Typen und zur Art ihrer Verwendung (normal oder modifiziert). Danach wird der Inhalt des untersuchten Leitartikels wiedergegeben und gleichzeitig wird die Argumentationsstruktur des Textes beschrieben. Die für die Argumentation wichtigen Sprachhandlungsfunktionen der Phraseme, die dabei deutlich werden, werden abschließend zusammengefasst.
Konventionalisierte Routineformeln sind standardisierte Ausdrücke, die in verschiedenen Situationen der täglichen Kommunikation verwendet werden. Für das Fremdsprachenlernen ist es sehr wichtig, solche Routineformeln und Ausdrücke zu lernen, die in einer bestimmten Situation adäquat sind und erwartet werden. Die Routineformeln werden im Hinblick auf ihre Semantik, Syntax und ihre kommunikative Funktion beschrieben. Abschließend werden konventionalisierte Routineformeln im Tschechischen und im Deutschen im Hinblick auf ihre grammatische Struktur und ihre lexikalischen Komponenten verglichen.
Das Prager Deutsch wurde schon oft erwähnt, aber wenig beschrieben. In diesem Aufsatz wird die letzte Form dieses Deutschen dargestellt, wie sie in den 30er und 40er Jahren des 20. Jahrhunderts gesprochen wurde, als deutsche Standardsprache der Länder der böhmischen Krone. Die Unterschiede zum neutralen Standarddeutschen sind sehr gering. Es gibt wenige tschechische Einflüsse, kaum Übereinstimmungen mit dem süddeutschen und österreichischen Substandard, aber Parallelen zum nördlichen Standarddeutschen. Heute ist das Prager Deutsch fast ausgestorben, da es nach 1945 nicht mehr weitergegeben wurde.
Alle zwei Jahre halten die Mitglieder des Germanistenverbandes der Tschechischen Republik eine Konferenz ab. Auf der Tagung, die vom 17. bis 18. Mai 2012 an der Philosophischen Fakultät der Palacký-Universität in Olomouc – im Kunstzentrum im Alten Konvikt – stattfand, wurden Vorträge unter dem Motto "Deutsch als Sprache der (Geistes)Wissenschaften" präsentiert, die zeigen, dass die deutsche Sprache als Sprache der Geisteswissenschaften in Mitteleuropa immer noch sehr wichtig ist. Der vorliegende Tagungsband, der zwölf Vorträge beinhaltet, die in der linguistischen Sektion der Tagung des Germanistenverbandes präsentiert wurden, möchte diese Schlussfolgerung unterstützen.
Das Medizinstudium und die spätere Berufstätigkeit werden als stressig angesehen; dennoch liegen nur wenige Daten zur Stressbelastung von Medizinstudenten und Ärzten vor. Als Teil einer umfangreichen Erhebung zur Stressbelastung haben wir die Stressbelastung und Resilienz von Frankfurter Medizinstudenten in den ersten Wochen des 1. vorklinischen Semesters erhoben (Trierer Inventar zum chronischen Stress TICS, Resilienz-Skala RS11); an der Studie nahmen 348 von 383 Studienanfängern (90,8%) teil. Übereinstimmend mit Ergebnissen aus dem 5. Semester zeigen die Studenten des 1. Semesters hohe Werte insbesondere in den Teilskalen Überlastung und Überforderung; auffallend sind ebenfalls hohe Werte in den Skalen Soziale Isolation und Summenscore. Ein T-Score (altersnormierter Normalwert = 50) über der 2fachen Vertrauensgrenze findet sich im Summenscore (17,2%), chronische Besorgnis (17,8%), Überforderung (11,2%) und Überlastung (22,7%), während in anderen Skalen entsprechende Werte nur bei 1–5% der Teilnehmer erreicht wurden. Die Skalen Überlastung, Erfolgsdruck, chronische Besorgnis sowie der Summenscore sind weitgehend normalverteilt (Schiefe <0,2), dieser Wert beträgt für die anderen Skalen 0,45–0,65. Zwischen den Unterskalen finden sich Korrelationskoeffizienten >0,5 für Überlastung und Überforderung sowie chronischer Besorgnis, zwischen Überforderung und mangelnder sozialer Anerkennung, sozialer Isolierung und chronischer Besorgnis sowie zwischen sozialen Spannungen, sozialer Isolierung und chronischer Besorgnis. Parallel wurde die Resilienz mit Hilfe des Fragebogens RS11 erhoben (kein Optimum, hohe Werte weisen auf Resilienz hin). Bei einer Maximalpunktzahl von 77 erreichten die Studenten 62,2 +/– 8,8 Punkte, bei einer ausgeprägten rechtsschiefen Verteilung. Zwischen der Stressbelastung und der Resilienz fand sich keine relevante Korrelation, mit einem Maximalwert von –0,267 zwischen dem RS11-Score und der Subskala Überforderung. Die Daten belegen ein bereits zu Studienbeginn vorliegendes hohes Maß an Überlastung und Überforderung; dieser Stress korreliert nicht mit der Fähigkeit, mit Stress adäquat umzugehen (Resilienz).
Vor einem vollbesetzten Auditorium fand am 9. und 10. Mai die deutschsprachige literaturwissenschaftliche Tagung „Tartu und Riga in der Literatur“ in der Abteilung für Germanistik der Universität Tartu statt – in enger Zusammenarbeit mit der Universität Göttingen im Rahmen der seit 2008 bestehenden Germanistischen Institutspartnerschaft und mit der Universität Lettlands in Riga. Die Konferenz knüpfte an die […] aktuellen Entwicklungen an, indem sie mit Tartu und Riga die urbane Zweipoligkeit innerhalb Livlands betonte und nach deren Repräsentation im Reflexionsmedium der Literatur fragte. Die Literatur eignet sich als Beschreibungsmedium in besonderem Maße, da sie sich nicht an wirkliche Welten halten muss und in ihr Orte als gleichermaßen reale wie fiktive Räume in den Blick kommen. Unsere Leitfragen waren demzufolge: Wie spiegeln sich Tartu und Riga im Medium der Literatur? Wie wirken sich die literarischen Imaginationen auf Tartu und Riga als Erinnerungsorte aus? Welche Rolle spielen dabei Mehrsprachigkeit und kulturelle Interferenz? Werden die städtischen Räume im Medium der Literatur als Interferenzräume oder aber als Räume sozialer und kultureller Segregation dargestellt? Wie sah das literarische und kulturelle Leben in den beiden Städten aus?
Meeting Abstract : 82. Jahresversammlung der Deutschen Gesellschaft für Hals-Nasen-Ohren-Heilkunde, Kopf- und Hals-Chirurgie. Freiburg i. Br., 01.-05.06.2011.
Ca. 3 Millionen Erwachsene in der Bundesrepublik Deutschland leiden unter Tinnitus, wobei eine bei jedem dieser Patienten zur Heilung führende Therapie bisher noch nicht existiert. Ansatzpunkt einer neuartigen Therapie ist die Wiederherstellung des normalen elektrischen Entladungsmusters im Hörnerv mittels elektrischer Stimulation. Hiermit berichten wir über unsere ersten Erfahrungen mit dem Tinnelec, einem Implantat mit einer einzelnen Stimulations-Elektrode die in der Rundfensternische platziert wird.
Zurzeit haben wir 4 einseitig ertaubten Patienten mit Tinnitus auf dem betroffenen Ohr jeweils ein Tinnelec-System implantiert. Die Dauer des Tinnitus betrug mindestens ein Jahr und gängige Tinnitus-Therapien wie z.B. Infusionstherapie waren erfolglos geblieben. Ein psychogener Tinnitus wurde ausgeschlossen. Der durch den Tinnitus verursachte Leidensdruck wurde anhand einer VAS Scala (Visuelle Analog Scala) und eines Tinnitus-Handicap-Inventory (THI) Fragebogens beurteilt. Die Reizapplikation betrug mind. 4 Stunden täglich. Als Stimulationsparameter wurde eine Reizmusterannäherung an den Tinnitus angestrebt.
Bei drei Patienten wurde unter der Stimulation der Tinnitus erträglicher, eine zeitweise komplette Unterdrückung des Tinnitus schon innerhalb der ersten Therapie-Wochen wurde jedoch nur in einem der Fälle berichtet. Diese Ergebnisse wurden auch durch das THI und VAS unterstützt.
Die Tinnelec-Implantation erscheint für Tinnitus Erfolg versprechend zu sein. Weitere Studien bei Tinnitus-Patienten ohne zusätzliche Hörbeeinträchtigung sind jedoch notwendig bis endgültige Schlussfolgerungen betreffend dieses Implantats gezogen werden können. In jedem Fall bleibt die Option einer Cochlea-Implantation im selben Ohr, nach Explantation des Tinnelec, bestehen.
Einleitung: Für die meisten Patienten mit HCC ist die LTX die einzige kurative Behandlungsoption. Bei diesen Patienten scheint eine Kontrolle der Erkrankung durch lokale Verfahren im Intervall bis zur LTX zu erreichen zu sein. Als das beste Verfahren gilt die transarterielle Chemoembolisation (TACE). Die Effektivität ist jedoch umstritten. Möglicherweise kann sie aber Patienten startifizieren, die ein hohes Rezidivrisiko haben.
Material und Methoden: Im Zeitraum zwischen 1995 und 2005 wurden n=27 Patienten mit HCC im Alter zwischen 22 und 69 Jahren transplantiert. Hiervon erhielten n=15 Patienten eine Vorbehandlung in Form einer alleinigen TACE oder kombiniert mit PEI [n=1] bzw. LITT [n=1]. Retrospektiv wurde das Gesamtüberleben sowie das „Event-free-survival“ (Rezidiv, Reinfektion und Tod) analysiert.
Ergebnisse: Die mittlere Wartezeit betrug bei Patienten in der TACE-Gruppe 214 Tage, bei Patienten ohne Vorbehandlung 133 Tage. Bei einem mittleren Nachbeobachtungszeitraum von 1097 ± 1193 Tagen für TACE-Patienten und 1674 ± 966 Tagen für non-TACE-Patienten betrug das Überleben für Patienten, die mit TACE vorbehandelt wurden 83,3%, für Patienten, die keine TACE erhielten 86.7% (p=0,5693). Gleiches fand sich für das Event-free-survival (p=0,8823). Das Gesamtüberleben der Patienten, die auf der Warteliste einen Tumorprogress hatten lag bei 77%, während Patienten mit stabiler Tumorgröße oder Regredienz der Tumore ein Überleben von 93% aufwiesen (p=0,0153). Unter TACE-Behandlung zeigten 5/15 Patienten eine zunehmende Anzahl an Herden im histologischen Präparat verglichen mit der Ausgangsbildgebung. Nur bei einem Patienten zeigte sich der Progress der Erkrankung bereits in der präoperativen Bildgebung. Patienten mit einem Progress der Erkrankung hatten ein Gesamtüberleben von 60%, während Patienten mit „stable disease“ oder Rückgang der Herde ein Gesamtüberleben von 100% hatten (p=0,0180).
Schlussfolgerung: Unseren Ergebnisse zufolge ist der Effekt der TACE als Bridgingverfahren auf das Überleben der Patienten fraglich. Allerdings scheint die TACE zur Riskostratifizierung geeignet zu sein. In unserem Patientenkollektiv hatten Patienten, die eine Progredienz der Erkrankung auf der Warteliste zeigten ein signifikant schlechteres Gesamtüberleben. Dies gilt auch bei ausschließlicher Betrachtung der Patienten mit TACE.
Meeting Abstract : 10. Deutscher Kongress für Versorgungsforschung, 18. GAA-Jahrestagung. Deutsches Netzwerk Versorgungsforschung e. V. ; Gesellschaft für Arzneimittelanwendungsforschung und Arzneimittelepidemiologie e. V. 20.-22.10.2011, Köln
Hintergrund: Multimedikation als Folge von Multimorbidität ist ein zentrales Problem der Hausarztpraxis und erhöht das Risiko für unangemessene Arzneimittel-Verordnungen (VO). Um die Medikation bei älteren, multimorbiden Patienten zu optimieren und zu priorisieren, wurde eine computergestützte, durch Medizinische Fachangestellte (MFA) assistierte, komplexe Intervention (checklistengestütztes Vorbereitungsgespräch sowie Überprüfung eingenommener Medikamente durch MFA, Einsatz des web-basierten ArzneimittelinformationsDienstes AiD, spezifisches Arzt-Patienten-Gespräch) entwickelt und in einer 12-monatigen Pilotstudie auf Machbarkeit getestet. Ein auf 9 Items reduzierter MAI [1] wurde eingesetzt, um dessen Eignung als potentielles primäres Outcome der Hauptstudie zu prüfen.
Material und Methoden: In die Pilotstudie in 20 Hausarztpraxen mit Cluster-Randomisation auf Praxisebene in Kontrollgruppe (Regelversorgung b. empfohlenem Standard) vs. Interventionsgruppe (komplexe Intervention b. empfohlenem Standard) wurden 5 Pat./Praxis eingeschlossen (≥65 Jahre, ≥3 chron. Erkrankungen, ≥5 Dauermedikamente, MMSE ≥26, Lebenserwartung ≥6 Monate). Zur Bewertung des MAI wurden an Baseline (T0), 6 Wo. (T1) & 3 Mon. (T2) nach Intervention erhoben: VO, Diagnosen, Natrium, Kalium & Kreatinin i.S., Größe, Gewicht, Geschlecht, Cumulative Illness Rating Scale (CIRS) [2] durch die Hausarztpraxis; Symptome für unerwünschte Arzneimittelwirkungen im Patienten-Telefoninterview.
Für den MAI wurde die Angemessenheit jeder VO in den 9 Kategorien Indikation, Effektivität, Dosierung, korrekter & praktikabler Applikationsweg, Arzneimittelwechselwirkung, Drug-disease-Interaktion, Doppelverordnung, Anwendungsdauer 3-stufig bewertet (1 = korrekt - 3 = unkorrekt) und für die Auswertung auf Patientenebene summiert. Die Bewertung erfolgte ohne Kenntnis der Gruppenzugehörigkeit. Deskriptive Statistiken und Reliabilitätsanalysen, ungewichtete Auswertung und Gewichtung n. Bregnhoj [3].
Ergebnisse: Es wurden N=100 Patienten in die Studie eingeschlossen, im Mittel 76 Jahre (Standardabweichung, SD 6; Range, R: 64-93) , 52% Frauen, durchschnittlich 9 VO/Pat. (SD 2; R 4-16), mittlerer CIRS-Score 10 (SD 4; R 0-23). Basierend auf N=851 VO (100 Pat.) zu T0 betrug der Reliabilitätskoeffizient (RK, Cronbachs Alpha) der ungewichteten 9 Items 0,70. Items 1-5 wiesen akzeptable Trennschärfen auf (0,52-0,64), die der Items 6, 7 & 9 fielen mit 0,21-0,29 niedriger aus, die des Item 8 betrug 0,06. Auf der Basis der 9 gewichteten Items fiel die interne Konsistenz des MAI erwartet höher aus (0,75). Die Reliabilitätsanalysen auf VO-Ebene zeigten einen RK von 0,67 (ungewichtet) vs. 0,75 (gewichtet), die Trennschärfen waren vergleichbar. Zur Zwischenauswertung betrug der MAI (T1-T0) in der Interventionsgruppe (5 Praxen, 24 Pat.) -0,9 (SD 5,6), in der Kontrollgruppe (7 Praxen, 35 Pat.) -0,5 (SD 4,9); die Differenz zwischen beiden Gruppen Mi–Mk -0,4 [95% Konfidenzintervall: -3,4;2,6].
Schlussfolgerung: Der MAI ist als potentielles primäres Outcome in der Hauptstudie geeignet: wenige fehlende Werte, Darstellung von Unterschieden prä-post und zwischen den Gruppen, akzeptable interne Konsistenz. Der niedrige Trennschärfekoeffizient des Items 8 weist darauf hin, dass dieses Item nicht mit dem Gesamt-Skalenwert korreliert, auch die Items 6, 7 und 9 korrelieren wesentlich schwächer mit dem Gesamt-Skalenwert als die Items 1 bis 5. Eine Wichtung z.B. der Items 2, 5, 6 und 9 könnte erwogen werden, um den Fokus der Intervention in der Hauptzielgröße angemessen abzubilden.
Meeting abstract : Deutscher Kongress für Orthopädie und Unfallchirurgie (DKOU 2012), 23.10.-26.10.2012, Berlin.
Fragestellung: Die Behandlung langstreckiger Knochendefekte ist eine große Herausforderung. Die Masquelet-Technik zur Behandlung solcher Defekte ist eine zweizeitige Operationstechnik. Zuerst erfolgt die Insertion eines PMMA (Polymethylmethacrylat)-Zementspacers in den Knochendefekt, der die Bildung einer Membran induziert. Diese Membran enthält Wachstumsfaktoren und regenerative Zellen, die möglicherweise die Knochenheilung unterstützen. Nach einigen Wochen wird der Zementspacer entfernt und der induzierte Membranschlauch mit Beckenkammspongiosa aufgefüllt. Im weiteren Verlauf kommt es zu einer kompletten Knochenheilung. Ziele dieser Untersuchung waren die Etablierung der Masquelettechnik am Rattenmodell und die Definition eines Zeitpunkts, an welchem die Membran eine ausreichende Festigkeit sowie einen signifikanten Gehalt von Vorläuferzellen aufweist.
Methodik: Nach Genehmigung der Experimente wurden die Femura von 24 männlichen SD-Ratten osteotomiert. Die Lücke (10 mm) wurde mit PMMA-Zement aufgefüllt und mittels Miniplatte stabilisiert. Parallel wurden den Versuchstieren gleich große PMMA-Spacer subcutan unter die Rückenhaut implantiert. Nach 2, 4, bzw. 6 Wochen (W) erfolgte die Entnahme der Membranen. Ein Teil der Membran wurde für (immun)histologische Untersuchungen aufbereitet (CD34, vWF, van Giesson), ein Teil für die in vitro Kultur. Auswachsende Vorläuferzellen in vitro wurden über CD34 und STRO-1-Färbung nachgewiesen. Statistik: Mediane, Kruskal-Wallis-Test, p<0,05 ist signifikant.
Ergebnisse und Schlussfolgerungen: Im zeitlichen Verlauf nahmen die Vaskularisierung (vWF-positive Fläche [%]: 2 W: 1,8; 4 W:1.6 vs 6 W: 6,4), die Dicke der Membran ([µm]: 2 W: 350 vs 4W: 517, 6 W: 592) und der Bindegewebsanteil ([µm]: 2W: 201 vs 4W: 324, 6W: 404) signifikant zu. Der Hauptanteil elastischer Fasern war auf der dem Zement zugewandten Seite, Vaskularisierung war eher auf der Weichteil zugewandten Seite zu finden. Der Anteil CD34 positiver Zellen nahm signifikant ab (2W: 5%, 4 W: 4% vs 6 W: 1%). Auswachsende STRO-1 positive Zellen konnten nur in zweiwöchigen Membranen nachgewiesen werden. Ältere Membranen wiesen einen zunehmenden Anteil seneszenter Zellen auf. Subcutan induzierte Membranen waren vergleichbar, wiesen jedoch tendentiell eine geringere Dicke und keine STRO-1 positiven Zellen auf.
Mit dieser Studie wurde erstmalig die Induktion einer Membran nach Masquelet im Rattenmodell etabliert. Es konnte nachgewiesen werden, dass der strukturelle Aufbau sowie die zellulären Komponenten zeitlichen Änderungen unterliegen und der Ort der Induktion Einfluss auf die zellulären Komponenten der Membran hat. Junge Membranen (2W) enthielten CD34 und STRO-1 positive Zellen. 4W-Membranen enthielten nur CD34 positive Zellen wiesen aber einen signifikanten Bindegewebsanteil auf, der für eine erhöhte mechanische Stabilität spricht. Ob 2 bzw. 4 Wochen alte Membranen den Knochenheilungsprozess fördern, muss in weiterführenden Studien untersucht werden.
Hintergrund: Die Unterschidung von Augen mit frühem Keratokonus (KC) von normalen Augen bereitet nach wie vor Schwierigkeiten. Die vorliegende Untersuchung vergleicht konventionelle keratometrie-basierte mit wellenfront-basierten Maßzahlen hinsichtlich ihrer Eignung, normale Augen von Augen mit sehr frühem Keratokonus zu unterscheiden.
Methoden: Es wurden 17 Augen von 17 Patienten mit frühem KC eingeschlossen. Bei diesen 17 Augen handelt es sich um klinisch unauffällige Partneraugen des stärker betroffenen Auges. 123 Normalaugen von 69 Patienten dienten als Negativkontrolle. Von den axialen Kurvaturdaten wurden folgende Maßzahlen berechnet: zentrale Keratometrie (cK), Astigmatismus (AST), inferior-superiore Brechwertdifferenz (I-S), Verkippung der radialen Achsen (SRAX), KISA% index (eine Maßzahl, die auf cK, AST, I-S und SRAX basiert) und corneale Zernike-Koeffizienten (1.–7. Ordnung, Pupillendurchmesser: 6 mm). Aus Zernike-Koeffizienten wurden Diskriminanzfunktionen konstruiert. Receiver-Operatiing-Charakteristik (ROC)-Kurven wurden erstellt, um die diagnostische Trennschärfe dieser Werte zur Unterscheidung von klinisch unauffälligen Partneraugen von Augen mit frühem Keratokonus und normalen Kontrollen zu evaluieren.
Ergebnisse: Der I-S-Wert (Korrektheit 92,1%, kritischer Wert 0,59 D) und die vertikale Coma (C3-1; 96,7%, –0,2 µm) waren die beiden Einzelwerte mit höchster Trennschärfe. Mit den ursprünglich publizierten kritischen Werten lag der Rabinowitz-McDonnell test (cK und I-S) bei 83,3% (Sensitivität 0%, Spezifität 100%) und der KISA% bei 70,8% (81,3%, 60,3%). In Verbindung mit Diskriminanzanalyse errichten Zernike-Koeffizienten eine Korrektheit von 96,7% (100%, 93,4%).
Schlussfolgerungen: Auf cornealen Zernike-Koeffizienten basierende Maßzahlen erreichte die höchste Trennschärfe bei der Unterscheidung von Augen mit subklinischem KC von Normalaugen. Dennoch konnten konventionelle KC-indices eine ähnlich hohe Trenschärfe wie die Zernike-Methode erreichen, wenn die kritischen Werte entsprechend angepasst werden.
Fragestellung: Beurteilung der Korrektur des Astigmatismus mit der multifokalen torischen Intraokularlinsen (IOL) ReSTOR Toric (Alcon, Ft. Worth, USA) bei Kataraktoperation.
Methodik: Die Multicenterstudie umfasste Kataraktepatienten mit präoperativem Astigmatismus von ≥0,75 bis ≤2,5 dpt. die Patienten wurden einer bilateralen Implantation einer torischen multifokalen IOL zur Korrektur der Hornhautverkrümmung unterzogen. Die OP erfolgte ohne relaxierende limbale Inzisionen durch eine clear-cornea Inzision <3,0 mm. Prä- und postoperativ wurden für diese Subanalyse Autokeratometrie sowie subjektiver Astigmatismus von 39 Augen von 40 Patienten im Alter von 59,8±7,0 Jahren analysiert.
Ergebnisse: Präoperativ betrug der mittlere keratometrische Astigmatismus 1,43±0,57 dpt. Die mittlere Inzisionsgröße betrug 2,59±0,41 mm. 1 Monat postoperativ betrug der mittlere keratometrische Astigmatismus 1,51±0,95 dpt (25 Augen). Der Unterschied im keratometrischen Astigmatismus zwischen präoperativ und 1-Monat-postop betrug 0,57±0,96 dpt. Der präoperative subjektive Astigmatismus wurde signifikant von 0,32±0,33 dpt (25 Augen) auf 0,99±0,70 dpt reduziert. (39 Augen, p <0,0001).
Schlussfolgerung: Die Implantation der multifokale torischen IOL zeigt vorhersehbare postoperative Ergebnisse bei der Korrektur des Astigmatismus nach kataraktoperation.
Hintergrund: Im Rahmen der Erforschung von Mechanismen der Presbyopie-Entstehung hat das Interesse an Methoden zur Linsendensitometrie wieder zugenommen. Für spezielle Fragestellungen sind flexible Untersuchungsmethoden notwendig.
Methoden: Basierend auf Aufnahmen mit der Scheimpflug-Kamera Pentacam HR (Oculus, Wetzlar) wurde ein MATLAB-Programm (V7.0, The MathWorks) erstellt, um größere Datenmengen automatisiert auszuwerten. Die Erkennung der Pupillenmitte als Referenzpunkt erfolgt mittels eines Randerkennungsalgorithmus. Als Kennzahlen dienen klassische Parameter der beschreibenden Statistik (Mittel, Minimum, Maximum, Standardabweichung und Variationskoeffizient) für einen definierten rechteckigen Bereich und für die zentrale vertikale Achse.
Ergebnisse: In einer Präliminarserie von 18 Augen war eine automatisierte Messung mit korrekter Pupillenerkennung in 80% der Fälle möglich. Verglichen mit der hersteller-eigenen Software (Pentacam 6.03r11) besitzt das eigene Programm eine erweiterte Spannweite der Messwerte. Die Messwerte können automatisch nach Excel (Microsoft) exportiert werden. Ein modularer Aufbau ermöglicht eine flexible Erweiterung für weitere Fragestellungen (z.B. Quantifizierung von Kern- und Rindentrübungen).
Schlussfolgerungen: Mittels eines selbst programmierten MATLAB-basierten Programmes kann eine automatisierte Messung und Analyse von linsndensitometrischen Parametern durchgeführt werden.
Im Rahmen des Vortrags wird zunächst ein Überblick über die aktuell angewandten Linsensysteme in der (refraktiven) Kataraktchirurgie sowie im Rahmen des RLA gesprochen. Hierzu zählen die monofokalen sphärischen Standardlinsen, aber auch asphärische, torische und multifokale Implantate.
Speziell wird auf die Ergebnisse einer Studie zu einem neuen multifokalen-torischen Implantat eingegangen. Der Schwerpunkt des Vortrages liegt dann weiterhin auf den trifokalen Korrektionsmöglichkeiten. Zum einen wird die sog. binokulare Trifokalität, bei der zwei multifokale Intraokularlinsen unterschiedlicher Addition implantiert werden, besprochen. Durch die Anpassung jeweils eines Auges an den Intermediär- bzw. Nahbereich soll so bei verringerten optischen Phänomenen ein deutliches Sehen in drei Hauptdistanzen ermöglicht werden. Weiterhin befasst sich der Vortrag aber auch mit den neuen echten trifokalen Optiksystemen, welche ebenfalls deutliches Sehen in verschiedenen Entfernungen gewährleisten können.
Im dritten Teil des Vortrages werden aktuelle Langzeitergebnisse aus einer FDA Studie zur Evaluation einer kammerwinkelgestützten phaken Intraokularlinse, mit speziellem Augenmerk auf den cornealen Endothelzellverlust, sowie eine neuartige sulcusgestütze phake Intraokularlinse mit zentralem Loch zur Glaukomvermeidung vorgestellt.
Die exakte Positionierung von Intraokularlinsen in den Kapselsack ist von entscheidender Bedeutung für das postoperative visuelle Ergebnis nach Kataraktoperation oder refraktivem Linsenaustausch. Schon leichte Dezentrierungen können optische Aberrationen hervorrufen welche das Sehen der Patienten negativ beeinflussen. Besonders kommt dieses Phänomen bei sog. Premium Intraokularlinsen mit speziellen Optiken (asphärisch, torisch oder multifokal, sowie Kombinationen dieser) zum Tragen. Diese Optiken können Ihre gewünschte Wirkung nur bei exakter Positionierung entfalten. Eine postoperative Feinpositionierung ist nicht möglich, was die Ansprüche an den Operateur bei Implantation der Linsen erhöht. Minimalinvasive microinzisionelle Operationstechniken bieten heute gute Möglichkeiten, die Implantate exakt zu positionieren. Neben den Dezentrierungen können Intraokularlinsen auch dislozieren, beispielweise durch intra- oder postoperative Kapselrupturen, Linsenverziehungen oder auch Rotation der Implantate. Hier ist ein weiterer chirurgischer Eingriff von Nöten. Der Vortrag stellt dementsprechend verschiedene Videos und praktische Hinweise zur Handhabung postoperativer Linsendislokationen vor.
Bibliotheken sind im Erwerbungsalltag mit einer Vielzahl unterschiedlichster Lizenzverträge für die Beschaffung von elektronischen Medien konfrontiert. Dabei nimmt die Komplexität durch das Anwachsen der Zahl der Marktteilnehmer aus Buchhandel und Agenturen, Verlagen und auch der verschiedenen Konsortien sowohl auf nationaler als auch auf internationaler Ebene wie durch die immer größer werdende Vielzahl der Produkte und Lizenzmodelle ständig zu. Die Transaktionskosten bei der Lizenzierung neuer Produkte, aber auch die Aktivitäten zur Verlängerung bestehender Lizenzverträge, steigen proportional mit der Zunahme der Bedeutung und Gewichtung, die elektronische Medienangebote einnehmen. Geschäftsgangmodelle, die ein Verfahren ohne Reibungsverluste garantieren, sind nicht vorhanden - wenn denn ein entsprechendes Problembewusstsein für die Bedeutung und den Wirkungsgrad bestimmter Lizenzvertragsklauseln existiert. Aufgrund der prinzipiell vorhandenen Vertragsfreiheit steht es den Partnern im Grunde frei, einen Vertrag entsprechend den Wünschen und Vorstellungen auszuhandeln. Dies wird in bestimmten Fällen von Vorteil sein, wenn es sich z.B. um Verträge von Konsortien mit Produkteanbietern handelt. Wie aber verhält es sich mit individuell abzuschließenden Lizenzverträgen einzelner Institutionen, z.B. beim Nachkauf von E-Books oder Ergänzungen von weiteren Datenbankprodukten des gleichen Anbieters. In vielen Fällen ist jedesmal ein Lizenzvertrag neu abzuschließen, wobei die minutiöse Lektüre aller Klauseln dringend angeraten sei. Hier würde sich anbieten, den Geschäftsverkehr der Vertragspartner zu vereinfachen, wenn nur schon die Vertragstexte soweit standardisiert wären, dass einheitliche Definitionen und Formulierungen für die einzelnen Regelungspunkte Verwendung fänden und lediglich Sonderabsprachen oder -vereinbarungen als Addenda beizufügen wären.
Zürich, 22. März 1937 - im ersten Stock des renommierten Herrenausstatters "London House" probiert Thomas Mann gerade einen neuen Anzug an, als ihn ein Verkäufer informiert, dass im Erdgeschoss Gerhart Hauptmann eingetroffen sei. "Möchten Sie ihn sehen?" Nach kurzem Zögern lehnt Thomas Mann ab - mit den Worten: "Ach, da wollen wir vielleicht doch andere Zeiten abwarten." Replik des Verkäufers: "Genau das hat Herr Hauptmann auch gesagt." Die Zürcher Nicht-Begegnung der beiden Nobelpreisträger ist in verschiedener Hinsicht bemerkenswert. Schließlich handelte es sich nicht nur um die international bekanntesten deutschen Schriftsteller, sondern auch um alte Bekannte. Und jeder von beiden hatte dem anderen manches zu verdanken. Warum also wollten die beiden einander nicht begegnen?
Um die literaturgeschichtliche Bedeutung der Situation im Zürcher Herrengeschäft einschätzen zu können, muss man die gesamte Beziehung zwischen beiden in den Blick fassen. Sie könnte wechselvoller kaum sein. Nach dreißig Jahren kollegialer, phasenweise nahezu freundschaftlicher Verbundenheit brach der Kontakt abrupt ab und wurde bis zu Hauptmanns Tod 1946 nicht mehr aufgenommen. Nach dem Ableben des älteren Kollegen ändert sich Thomas Manns Sicht auf Gerhart Hauptmann jedoch wieder. Und – soviel vorweg – dabei spielten Jubiläumsgeburtstage stets eine wichtige Rolle. Ich gehe zunächst auf die Phase der engen Bekanntschaft ein; im zweiten Teil dann auf die Umstände des Abbruchs der Beziehungen. Dabei soll vor allem der letzte Kontaktversuch genauer analysiert werden. Ein resümierender Blick auf die dritte Phase steht am Ende dieser Überlegungen. ...
Zeichnet Herbot aus didaktischen Impuls „das abschreckende Bild einer lasterhaft sündigen Welt“ (…), will er uns durch die Ausbreitung kriegerischer Leidenschaften über ihre Torheit belehren und zugleich die höfische Kultur implizit relativieren? (…) Dieser Frage nach der Aussage des Herbortschen Trojaliedes im Rahmen der literarischen und historischen Situation soll (…) [Volker Mertens’] Vortrag nachgehen. Dabei (…) [stellt er] zuerst de[n] Text selbst und seine literarischen Prätexte vor(…).
Einleitung: Lokoregionäre Rezidivtumore der Kopf-Hals-Region können häufig nicht mehr kurativ operativ oder radiotherapeutisch behandelt werden, so dass neue Therapiekonzepte erforderlich sind. Es konnte gezeigt werden, dass statische Magnetfelder (SMF) Tumorwachstum und -angiogenese signifikant beeinflussen und zu einem intratumoralen Ödem führen. Das Ziel der vorliegenden Studie war die Evaluation des Effektes von SMF auf die Permeabilität von Tumorblutgefäßen und die therapeutische Nutzbarkeit in Kombination mit einer konventionellen Chemotherapie.
Methoden: Zellen eines syngenen amelanotischen Melanoms wurden in transparente Rückenhautkammern bei Goldhamstern implantiert. Unter SMF-Exposition von 587 mT wurde fluoreszenzmikroskopisch die Extravasation von rhodaminmarkiertem Albumin zur Errechnung der Gefäßpermeabilität gemessen und intratumorale Leukozyten-Endothelzell-Interaktionen quantifiziert. Für die anschließende Therapiestudie wurden die antitumoralen Effekte einer Kombinationstherapie von Paclitaxel und SMF-Exposition verglichen mit drei Kontrollgruppen (Glucose, Paclitaxel allein, SMF allein; je n=6).
Ergebnisse: SMF führen zu einer signifikanten Erhöhung der Tumorblutgefäßpermeabilität bei unveränderten Leukozyten-Endothelzell-Interaktionen. Die Kombinationstherapie von SMF und Paclitaxel ist – bezogen auf Tumorwachstum und Angiogenese – Monotherapien überlegen.
Schlussfolgerung: Eine SMF-induzierte Steigerung der Gefäßpermeabilität kann die Blut-Tumor-Schranke beeinflussen und somit die Effektivität einer Chemotherapie mit kleinmolekularen Substanzen wie Paclitaxel deutlich steigern. Bei Verwendung von Kopfspulen erscheint eine derartige adjuvante Kombinationstherapie für lokoregionäre Karzinomrezidive der Kopf-Hals-Region besonders geeignet.
Bericht der Organisatoren: Die Tagung wollte ein Zeichen setzen: ein Zeichen, dass es geboten sei, sich erneut der Cotton Genesis und ihrem ausdrücklichsten mittelalterlichen Nachfahren, den Schöpfungsmosaiken der Vorhalle von San Marco in Venedig, zuzuwenden. Die Diskussion dieser Verbindung von frühchristlichen Illuminationen, die nur noch in wenigen verkohlten Fragmenten überliefert sind, mit den mittelalterlichen Mosaiken ist seit der Entdeckung durch Johan Jakob Tikkanen 1889 geführt worden. Sie kam 1986 mit der Edition der Cotton Genesis durch Kurt Weitzmann und Herbert Kessler zu einem vorläufigen Abschluss. Die Mosaiken erschienen als weitgehend getreue Kopie der Buchmalereien der Handschrift, die dabei allein redaktionelle, aber keine konzeptionelle Veränderungen durch die Mosaizisten erfahren hätten...
Welche gesellschaftlichen Zwänge wirken auf die Medizin und ihre Anwender ein? Wie ist das Verhältnis von Ökonomie und medizinisch Gebotenem? Wie steht es mit der Finanzierung der nicht evidenzbasierten Behandlung? Stellen Rationierung und Rationalisierung die möglichen Prinzipien der Priorisierung dar? Führt die Priorisierung zur Qualitätsminderung oder gar Sorgfaltsverletzung? Diese Fragen behandelte der 4. Ärztetag am Dom in Frankfurt am Main. ...
Vor Kurzem hat das koreanische Höchstgericht den lebensverkürzenden Behandlungsabbruch durch die Entnahme des Beatmungsgeräts als zulässig befunden. Dafür sollen zwei Voraussetzungen erfüllt sein; 1) der Eintritt des irreversiblen Todesprozesses, 2) der ernstliche mutmaßliche Wille des Patienten. Dabei sind auch die folgenden abweichenden Meinungen vertreten. Sie gehen davon aus, dass im betreffenden Fall der nahe Todesvorgang noch nicht eingetreten ist. Darüber hinaus darf die Selbstbestimmung des Patienten nur in der negativen Weise vollzogen und keinesfalls in positiver Weise, denn dies würde den Selbstmord bedeuten. Außerdem ist der mutmaßliche Wille der Patientin von ihrem hypothetischen zu unterscheiden. Allerdings könnte der Behandlungsabbruch unabhängig vom Willen des Patienten ohne Rekurs auf die Selbstbestimmung des Patienten genehmigt werden, wenn auf die immanenten Schranken des ärztlichen Auftrags abgestellt werden. In der Sterbehilfe steht die Unverfügbarkeit des Lebens im Gegensatz zu der Selbstbestimmung des Patienten. Dabei zeigt sich aber, dass der Schutz des Lebens angesichts der Tötung im Krieg oder in der Notwehrlage nur ein relativer ist. Genauso lässt sich das Recht des Patienten nicht als das auf das eigene Leben, sondern lediglich als das auf den natürlichen Tod verstehen. Im vorliegenden Fall kommt es in rechtlicher Hinsicht auf sog. Passive Sterbehilfe an. Wenn hier der in Kürze bevorstehende Todeseintritt und die mutmaßliche Einwilligung der Patienten nicht abzulehnen ist, soll der Behandlungsabbruch rechtfertigt werden. Allerdings darf der einseitige Behandlungsabbruch nicht bewilligt werden und zwar vor allem deshalb, weil das Selbstbestimmungsrecht des Patienten vernachlässigt werden kann.
Der religiöse Pluralismus innerhalb der multikulturellen Gesellschaft erfordert vom Staat das Bemühen, die wechselseitige Achtung nicht nur zwischen Personen mit unterschiedlichen religiösen Glaubensüberzeugungen, sondern auch zwischen Glaubenden und Nicht-Glaubenden sicherzustellen. In diesem Kontext wird es für die vom Staat übernommene Funktion entscheidend sein, rechtzeitig zu beurteilen, ob er eine aktive und positive Rolle als eine Institution spielt, welche dafür sorgt, dass die Religionsfreiheit der Einzelnen und der Gruppen geachtet wird. Im Vorliegenden werden einige Gefahren und Bedrohungen für die Religionsfreiheit in der heutigen Gesellschaft analysiert und eine kritische Betrachtung als Antwort auf diese Krisensituation vorgelegt. Konkret werden die folgenden Punkte erörtert: 1. Der Glaube, daß die Religion nicht mit den Werten einer modernen, liberalen Gesellschaft zu vereinbaren ist. 2. Die Konfessionalisierung des Staates. 3. Der Missbrauch der staatlichen Macht, um die Präferenzen der Bürger durch absichtliche Änderungen im sozialen Kontext zu beeinflussen. 4. Die unnötigen Behinderungen und Beschränkung des Rechts auf Verweigerung aus Gewissengründen, die von einem falschen Verständnisses desselben herrühren. 5. Die Verherrlichung eines falsch verstandenen, radikalen Individualismus. 6. Ein Verständnis des Grundsatzes der Nichtdiskriminierung als ,,Gleichgültigkeit gegenüber den Unterschieden“.
Es ist die Aufgabe der Wissenschaft, richtige, d.h. möglichst vernünftige Entscheidungen anzuleiten. Der wissenschaftliche Geltungsanspruch umfasst immer sowohl einen Wahrheits- wie einen Wert- und einen Gerechtigkeitsanspruch.
Vernunft lässt sich nur in einem sowohl rationalen wie interrationalen Diskurs annähern:
(1) Im rationalen Diskurs wird der Anspruch erhoben, innerhalb einer bestimmten Rationalität richtige Antworten auf ausgewählte Fragen zu finden (meist innerhalb der Grenzen bestimmter institutionalisierter Schulen oder Disziplinen).
(2) Der interrationale Diskurs setzt bei der Relation zwischen verschiedenen Fragen mit unterschiedlicher Rationalität an und versucht,
(a) zwischen diesen Fragen eine wechselseitige Verständigung herzustellen (Diskurs zur Verständlichkeit), bevor er
(b) auf den Diskurs über die Richtigkeit von Antworten verschiedener Fragestellungen im Zusammenhang eintritt (materieller interrationaler Diskurs).
Der interrationale Diskurs bedarf der Verfassung:
(1) Formelle Verfassung des Diskurses
(a) Institutionelle Strukturen und Prozesse (Gleichberechtigung aller Beteiligten, Symmetrie der Strukturen, z.B. die Tagesordnung einer Ratssitzung)
(b) Methodische Argumentationsstrukturen und -abläufe (Wahrheit, Wert und Gerechtigkeit; Fragen- und Antwortdimension).
(2) Materielle Verfassung: Inhaltliches Argumentarium guter Gründe im Diskurs (bewährte Argumente aus bisherigen Diskursen).
Die Rassenmischung bekam in der Entwicklung der Sozialwissenschaften in Brasilien immer wieder neue Bedeutungen, um sich an jeden politischen Zusammenhang anzupassen. Sie wurde von den Männern des Wissens als Problem und später als Lösung angesehen – nämlich durch die Aufhellung – gemäß der evolutionären Rassentheorien Ende des 19. Jahrhunderts. Aber vor allem in den 1930er Jahren betrachteten einige Intellektuelle Brasiliens, wie Gilberto Freyre, die Mischung der drei Rassen, die das Volk Brasiliens bilden, als Bestandteil der Nation. Eine solche Vorstellung brachte juristische und politische, manchmal unmerkliche Folgen für den Platz des Mischlings innerhalb der brasilianischen Gesellschaft. Dieser wird als Notausstieg Mulatte nach Carl Degler oder als epistemologisches Hindernis nach Eduardo de Oliveira e Oliveira verstanden. Der Zweck dieser Arbeit besteht darin, aufzuzeigen, inwiefern jene Tradition eine tiefe Auseinandersetzung verbirgt und wie sie juristische Auswirkungen in der Gegenwart hervorruft, z.B. in Bezug auf die Debatte über Rassenquoten an öffentlichen Universitäten.
Die Auffassung des Rechts in Hegels Rechtsphilosophie weicht bekanntlich von dem ab, was üblicherweise unter „Recht“ verstanden wird. Schon deshalb sind Hegels Grundlinien der Philosophie des Rechts nicht einfach neben andere Werke zur Rechtstheorie zu stellen. Aber Hegels Bestimmung des Rechts ergänzt nicht nur das Recht äußerlich, sondern lässt es auf etwas gründen, das über es selbst deutlich hinausweist: auf jener Normativität, die er als Sittlichkeit bezeichnet. So ist Hegels Rechtsphilosophie nur als eine Sozialphilosophie der Sittlichkeit zu verstehen. Sie kann als die philosophische Selbstreflexion einer Gesellschaft verstanden werden, die sich selbst primär als durch das Recht bestimmt versteht, aber auf eine andere Form von Normativität bezogen ist.
The aim of this contribution is to introduce and outline a third theory of rights. Concentrating on claim-rights, it proposes to approach this aim via the concept of a directed duty. This approach is justified by the widely shared presupposition that an entity has a right if and only if a duty is owed to this entity. Unlike some prominent other proposals, this contribution does not contrast directed duties with undirected ones. It contrasts two ways a duty can be related to an entity. On the one hand, a duty can be owed to an entity. In this case it is directed to this entity. On the other hand, a duty can concern an entity. There is no reason to presuppose that they exclude each other, on the contrary. Theories of rights have to reconstruct the difference between these two ways a duty can be related to an entity. After having introduced the starting point for a theory of rights in that way, the two classic theories of rights will be rejected, the will theory and the interest theory. The main focus lies on the shortcomings of the different versions of the interest theory. This criticism helps to formulate the conditions a convincing theory of rights has to meet. In the last part, the status theory of rights will be outlined.
Wir leben in einer Welt voller Bilder. Unser Denken funktioniert in Bildern, die menschliche Kommunikation bedient sich verschiedener Sprachbilder und das mediale Zeitalter überrollt uns mit einer wahren Flut aus bewegten und unbewegten Bildern. Die Moderne greift dabei nicht nur auf den reichen Bilderschatz vergangener Jahrhunderte zurück, sondern es werden auch traditionelle Motive variiert, verändert und verworfen. Das ursprüngliche Bild wird ergänzt durch Gegenbilder und Alternativkonzepte. Letztlich ringen sie alle, Bilder und ihre Gegenbilder, um die Deutungshoheit. Die Veranstalter Corina Erk, M.A., und Christoph Naumann, M.A., eröffneten als Promovierendenvertreter der Bamberger Graduiertenschule für Literatur, Kultur und Medien den Workshop „Gegenbilder – literarisch/filmisch/fotografisch“ und stellten das anspruchsvolle Tagungsprogramm vor, das sich in fünf Sektionen gliederte. Jedes Panel näherte sich aus einer anderen Perspektive dem Themenbündel „Gegenbild“ an.
Es wird eine Verbindung zwischen dem von Antiphon entwickelten infinitesimalen Berechnungsverfahren, der Theorie Verteilungsgerechtigkeit von Aristoteles, des Hebelgesetzes, der eben radialen Figuren und der Verteilung hergestellt.
Die Problemstellung stellt sich wie folgt dar: dem Kennenlernen der Gründe, die Antiphon mutmaßen ließ, die Exhaustionsmethode als ein Mittel der Bildung des Quadratur des Kreises anzusehen, Beziehungen von grundsätzlicher und historischer Art zwischen der Verteilungsgerechtigkeit und den Hebelgesetz herzustellen, ein Model der Verteilungsgerechtigkeit, basierend auf der modernen Mathematik der Verteilung, von multipler Partizipierung zu konstruieren.
Die Zielsetzungen sind:
Die These zu erstellen, dass die Exhaustionsmethode aus der Gerichtspraxis stammt; dass das Hebelgesetz und die Theorie der Proportionen von Eudoxos Modelle der Verteilungsgerechtigkeit von Aristoteles sind; weiter soll gezeigt werden, dass die ebene Verteilung der materiellen Partikel auch ein Modell der Verteilungsgerechtigkeit ist.
Das Modell der Mehrteiligkeit der Verteilung, das vorgestellt wurde, enthält zwei Arten von Freiheitsgraden, einen für den Wert der zu verteilenden Güter an jeweils einen der Beteiligten und einen zweiter Freiheitsgrad für die verschieden Ebene zwischen den Beteiligten im Falle der Ungleichheit.
Keywords: Exhaustionsmethode, Hebelgesetz, Verteilungsgerechtigkeit, Verteilung.
Die brasilianische Verfassung hat ein System detaillierter materieller und prozessualer Rechte etabliert und damit die richterliche Kontrolle hoheitlicher Akte in fast allen politisch relevanten Bereichen ermöglicht. Auf dem Gebiet der ökologischen und sozialen Rechte, wo eine intensive Positivierung individueller und kollektiver Ansprüche stattgefunden hat, ist die wachsende Judizialisierung der staatlichen Programme nicht als übertriebene Einmischung der Gerichte in politische Fragen anzusehen, sondern fördert die Ausbildung des gesellschaftlichen Bewusstseins. Die Gesetzestexte enthalten kaum konkrete materielle Anforderungen oder Richtlinien zur Gewichtung von Gütern und Werten, sondern setzen lediglich Verbote fest oder regeln die föderativen Zuständigkeiten bzw. das Verwaltungsverfahren. Deswegen kann die Genehmigung umweltgefährdender Aktivitäten kaum auf der Grundlage dogmatisch abgeklärter Rechtsbegriffe erfolgen. Die fachliche Qualifikation vieler Verwaltungsbeamter und Richter entspricht noch nicht den Herausforderungen einer korrekten Gesetzesauslegung. Die akademische Diskussion konzentriert sich derweilen auf Themen wie die philosophische Hermeneutik, Semiotik oder Systemtheorie und unterschätzt dabei die Wichtigkeit des juristischen Methodenkanons, weswegen es ihr nicht gelingt, den Praktikern gangbare Direktiven zur Herstellung richtiger und gut begründeter Entscheidungen anzubieten. Nötig ist daher eine mehr pragmatisch orientierte Debatte über den angemessenen Gebrauch der traditionellen und modernen Methoden und Techniken der Rechtsfindung, um die dogmatische Basis des Umweltrechts in Brasilien zu stärken und es an das Modell eines Umweltstaats heranzuführen.
Die Hauptthese dieses Papers geht von dem Konzept der normativen Verfassung der Nachkriegzeit aus und setzt sich kritisch mit dem Konzept des 19. Jahrhunderts „Verfassungswandlung“ auseinander. Das Konzept des Verfassungswandels ist mit der Verfassungsdemokratie inkompatibel. Statt von einem Verfassungswandel zu sprechen, sollte man die Entwicklung des Sinns der Normen in der Zeit als dynamische Interpretation bezeichnen.
Principles can be directly expressed by law or may be found in jurisprudence, philosophy or literature. Often the principles are contradictory, as in the case of transparency and the taboo of state information disclosure. At the individual level, transparency and taboo, the sense and purpose of privacy may compliment each other. Moreover the rise of cyberspace has blurred the distinction between privacy and public. The taboo is widening. The development of the internet and of the social networks can alter the once apparently stable legal situation, bringing a new dynamic into play in both state and individual spheres. In the context of the internet it is as though the secret workings of the state are projected on its "walls and facades", reminding us of Plato's "Myth of the Cave". As Plato described, disillusionment and reflexive defensiveness can follow.
Der zweifache Urteilsspruch des Europäischen Gerichtshofs für Menschenrechte im Fall “Lautsi gegen Italien” hat sich zum Paradigma der Schwierigkeiten entwickelt, welche Europa bei der adäquaten Ansiedlung der Religion im öffentlichen Bereich erfährt. Die Lösung kann sich ändern, wenn, anstatt dem politischen Problem (wann ist die Ausübung von Macht erlaubt) einzuräumen, die Möglichkeit einer praktischen Vernunft und ihre Verträglichkeit mit dem religiösen Glauben zum Ausgangspunkt gemacht wird. Diese würde zweifelsfrei zu einer politischen Fragestellung zu einer Präsenz der Religion im öffentlichen Bereich einladen, die auf eine positive Laizität mehr Rücksicht nimmt, dabei den Laizismus ablehnt, der darauf drängt, die Rationalität zur Macht auch einen nicht kognitivistischen Code zu reduzieren.
[D]ieser Veranstaltungstyp [wurde] 1996 etabliert […] und die komparatistisch angelegte Konferenz der Abteilung 2012 [wird] nunmehr zum 17. Mal in Folge ausgerichtet […]. Über den Kreis der 15 Referenten hinaus war sie mit etwa 120 aktiv mitdiskutierenden Teilnehmern gut besucht. Thematisch orientiert sich die Konferenz jeweils an einem Semesterkurs, den die Studierenden der am Department angebotenen Master‐Studiengänge (Deutsch, Französisch, Spanisch, Italienisch) durchlaufen.
Seit der zweiten Hälfte des letzten Jahrhunderts zieht die Übersetzung im Fremdsprachenunterricht (FSU) das Interesse der Fremdsprachendidaktiker auf sich. In den anhaltenden Diskussionen über den Stellenwert der Übersetzung im FSU bestehen aber immer noch verschiedene Meinungen. Die Meinungsverschiedenheiten beruhen vor allem auf diversen miteinander konkurrierenden Lerntheorien und damit auch auf unterschiedlichen methodischen Prinzipien. Im Zusammenhang mit den herrschenden didaktischen Richtungen und mit den unterschiedlichen Lernzielen, die im Fremdsprachenunterricht verfolgt werden können, wird auch die Übersetzung unter mehreren Gesichtspunkten betrachtet und bewertet. Hinsichtlich der Funktion der Übersetzung ist es inzwischen üblich geworden, zwischen zwei Verwendungsweisen zu unterscheiden: Einerseits wird die Übersetzung als ein methodisches Mittel zur Festigung, Erweiterung und Prüfung sprachlicher Fertigkeiten angewendet, andererseits ist sie als eine eigene Fertigkeit selbst ein Übungs- und Unterrichtsziel.
Um den vielfältigen und komplexen Wechselbeziehungen zwischen Literatur und Architektur nachzugehen, versammelte die School of Language & Literature des Freiburg Institute for Advanced Studies (FRIAS) unter Federführung von Dr. Robert Krause und Jun.‐Prof. Dr. Evi Zemanek Wissenschaftler aus philologischen und kunsthistorischen Disziplinen zu einer dreitägigen Tagung (1.‐3. Dezember 2011). Die Breite der Annäherungen an die „Baukunst (in) der Literatur“, wie sie sich in den Vorträgen abzeichnete, verdeutlichte nicht nur, wie stark das – selbst mit dem 'spatial turn' – nicht unbedingt systematisch perspektivierte Forschungsfeld sich unabhängig und dezentral ausdifferenziert hat sondern auch inwiefern ein endliches Zusammentreffen versierter Forscher längst überfällig gewesen ist.
Im Jahr 2006 brachte Saul Friedländer seine weithin beachtete Gesamtdarstellung „Nazi Germany and the Jews“ mit dem zweiten Band „The Years of Extermination“ zum Abschluss. Das Buch lese sich wie ein Roman, so und ähnlich urteilten Rezensenten über dessen literarische Qualitäten. Auf erzählerische Stärken verweisen auch Kommentare zu Christopher Brownings jüngster Studie „Remembering Survival“ (2010). Das Erzählen in der Geschichtswissenschaft ist seit längerem wieder Gegenstand der Diskussion: Forscherinnen und Forscher auf einem Symposium auf dem Alten Schloss Dornburg bei Jena gingen im Juni 2011 dieser Frage speziell für den Bereich der Holocaust-Historiographie nach.
Arbeitsungsunterlage für die Redaktionsausschußtagung der ENCYCLOPAEDIA CINEMATOGRAPHICA. Göttingen, 5.-9.10.1992. H. Kalkofen, Inst. Wiss. Film. Während die ENCYCLOPAEDIA CINEMATOGRAPHICA nicht verbirgt, daß sie nun 40 Jahre alt geworden ist, kann sie auf die doch nicht ganz unziemliche Frage, wer sie denn überhaupt sei, keine einhellige Antwort geben. Es wird gezeigt, daß die EC im Lauf der Zeit ihres Bestehens verschiedene Selbst-Konzeptionen bekundet hat, die miteinander zum Teil vereinbart werden können, zum Teil aber nicht. Der prinzipielle Gegensatz zwischen dem sich, modelltheoretisch gesehen, durchaus nicht zu Unrecht als "Bewequnqspräparat" begreifenden Kinematogramm und dem die pure Deskription überschreitenden Film, dem es um die Vermittlung von Sinnzusammenhänqen geht, ließ sich nur in den Jahren der Gründungszeit bemanteln und verkennen. Es wird entschieden dafür plädiert, daß sich die ENCYCLOPAEDIA CINEMATOGRAPHICA auf ihre kinematographische Natur zurückbesinnt und sie weiterentwickelt. Andererseits scheint die Gründung eines internationalen Archivs wissenschaftlicher Filme aus mehreren Gründen erforderlich. Dieses Archiv, bei dessen Namensgebung auf das Epitheton /kinematographisch/ der K1arheit halber zu verzichten wäre, und die ENCYCLOPAEDIA CINEMATOGRAPHICA könnten sich, wiewohl eindeutig getrennt, gemeinsamer Infrastrukturen bedienen.
Der wissenschaftliche Film
(1949)
Vortrag gehalten bei der 34. Jahrestagung des Fachverbandes Medien und Technik im Bildungsbereich (MTB) am 25. September 2003 in Göttingen: "Sehr verehrte Damen und Herren, „Video goes online“ ist ganz allgemein etwas, das auch ohne unser Zutun passieren wird. Wie weit und wie schnell es in die praktische Lehre eindringen wird, wage ich angesichts des heutigen Einsatzes sehr viel älterer Medientechnologien im deutschen Hochschulunterricht nicht abzuschätzen. Damit wäre ich eigentlich am Ende meines Vortrags. Dennoch möchte ich sie mit einigen Gedanken konfrontieren, die um die Frage kreisen: Gibt es für einen künftigen, Internet basierten Einsatz hinreichend geeignete Videos und wie müssen die beschaffen sein?.."
The discourses on textuality and literacy that can be observed in the Kyot-Excursus in 'Parcival' by Wolfram von Eschenbach and in the Magnetbergerzählung of the 'Reinfried von Braunschweig' will serve here as examples in an attempt to historicize textual models. My essay will focus on how the limits of textuality could be defines within those 13th-century aristocratic orders of knowledge to which court literature can provide an access. What emerges within this context are concepts and ideas that lie beyond the scope of modern scholarly systems; these narratives indicate a way of dealing with textuality and literacy that, rather than referring to the textual discourse, may remain instead on the phenomenal surface of the material or (as if the textual discourse did not exist) may embody implicitly the circumstances that it signifies.
Die Forschung bediente sich (…) [des Begriffes Schwankroman] im Sinnes eine Gattungsbegriffes, auch wenn sie nicht übersah, daß 'Schwankroman' bei aller Praktikabilität zugleich Ausdruck einer Verlegenheit ist, in welche ursprünglich wohl die ästhetische Norm von der geschlossenen Einheitlichkeit jeder Dichtung, die diesen Namen verdienen soll, geführt hat, einer Verlegenheit nämlich angesichts der offenkundig episodischen Struktur der genannten epischen Großerzählungen, die ihr Zusammengesetztsein aus kurzen, in sich weithin vollständigen Erzähleinheiten kaum je verleugnen. Dieses Dilemma schlägt sich nieder in der Binnenspannung zwischen den beiden Komponenten des Begriffs auf quantitativer, formal-struktureller und kategorialer Ebene: (…)
Was die altgermanistische Fachidentität wo nicht zu gefährden droht, da doch neu zu bestimmen nahe legt, das lässt sich am einfachsten unter jenem gängigen Stichwort 'Kulturwissenschaft' fassen, welches überhaupt in den Programm- und Legitimierungdebatten solcher akademischen Fächer eine zentrale Rolle spielt, die man einmal ohne weiteres die Geisteswissenschaften nannte. Dabei scheint durchaus umstritten zu sein, ob mit 'Kulturwissenschaften' ein Bruch mit den Traditionen der Deutschen Philologie angesagt ist oder im Gegenteil deren neuerliche Stabilisierung.
Sprachtechnologie für übersetzungsgerechtes Schreiben am Beispiel Deutsch, Englisch, Japanisch
(2009)
Wir [...] haben uns zur Aufgabe gesetzt, Wege zu finden, wie linguistisch basierte Software den Prozess des Schreibens technischer Dokumentation unterstützen kann. Dabei haben wir einerseits die Schwierigkeiten im Blick, die japanische und deutsche Autoren (und andere Nicht-Muttersprachler des Englischen) beim Schreiben englischer Texte haben. Besonders japanische Autoren haben mit Schwierigkeiten zu kämpfen, weil sie hochkomplexe Ideen in einer Sprache ausdrücken müssen, die von Informationsstandpunkt her sehr unterschiedlich zu ihrer Muttersprache ist. Andererseits untersuchen wir technische Dokumentation, die von Autoren in ihrer Muttersprache geschrieben wird. Obwohl hier die fremdsprachliche Komponente entfällt, ist doch auch erhebliches Verbesserungspotential vorhanden. Das Ziel ist hier, Dokumente verständlich, konsistent und übersetzungsgerecht zu schreiben. Der fundamentale Ansatz in der Entwicklung linguistisch-basierter Software ist, dass gute linguistische Software auf Datenmaterial basiert und sich an den konkreten Zielen der besseren Dokumentation orientiert.
Die Entwicklung eines individuellen Standards „vom grünen Tisch“ führt selten zu zufriedenstellenden Ergebnissen. Bei der automatischen Prüfung stellt man schnell fest, dass die „ausgedachten“ Regeln einer systematischen Anwendung nicht standhalten. Bei der Implementierung solcher Richtlinien stellt man fest, dass sie oft zu wenig konkret formuliert sind, wie z.B. „formulieren Sie Handlungsanweisungen knapp und präzise“. Wie jedoch kann ein Standard entwickelt werden, der zu einem Unternehmen, seiner Branche und Zielgruppen passt und für die automatische Prüfung implementiert werden kann? Sprachtechnologie hilft effizient bei der Entwicklung individueller Richtlinien. Durch Datenanalyse, Satzcluster und Parametrisierung entsteht ein textspezifischer individueller Standard. Ist damit aber der Gegensatz von Kreativität und Standardisierung aufgehoben?
Standardisierung ist der bedeutendste Ansatz zu Qualitätssteigerung und Kostensenkung in der Technischen Dokumentation. Es gibt eine Reihe von Standardisierungsansätzen: Modularisierung, Informationsstrukturen, Terminologie, Sprachstrukturen. Dennoch werden diese Ebenen meist getrennt voneinander beschrieben. Wir untersuchen, wie Standardisierungen im Informationsmodell, in der Terminologie und in den sprachlichen Strukturen verknüpft werden und miteinander interagieren.
Der Übersetzungsprozess der Technischen Dokumentation wird zunehmend mit Maschineller Übersetzung (MÜ) unterstützt. Wir blicken zunächst auf die Ausgangstexte und erstellen automatisch prüfbare Regeln, mit denen diese Texte so editiert werden können, dass sie optimale Ergebnisse in der MÜ liefern. Diese Regeln basieren auf Forschungsergebnissen zur Übersetzbarkeit, auf Forschungsergebnissen zu Translation Mismatches in der MÜ und auf Experimenten.
Es ist eine alte Debatte. Auf der einen Seite steht die althergebrachte Maxime, alles, was wert ist, gesagt zu werden, müsse in jeder Sprache gesagt werden können - umso mehr dann, wenn es sich um die Wissenschaft handelt, die den Anspruch erhebt, universelle Wahrheiten zu erfassen. Demgegenüber steht ein immer wieder anzutreffender Gedanke, dessen wohl inspirierteste Formulierung von Wilhelm von Humboldt stammt, nämlich, dass die Verschiedenheit der Sprachen nicht nur eine von „Schällen und Zeichen“, sondern eine der „Weltansichten selbst“ sei. Thema dieses Vortrags ist die Frage, wo die Wahrheit zwischen diesen scheinbaren Gegensätzen liegt.
Die Antike bildet einen zentralen Bezugspunkt für Identitätskonstruktionen in den europäischen Kulturen. Das Wissen davon, was Antike ist, ist jedoch keineswegs statisch: "Die Antike" formiert sich historisch stets im Wechselspiel mit dem Selbstverständnis der rezipierenden Kulturen. Diese bipolare Konstruktion griff die interdisziplinäre Tagung "Das Geschlecht der Antike" auf, die Anna Heinze (Berlin) und Friederike Krippner (Berlin) im Juni an der Humboldt-Universität zu Berlin veranstalteten. Sie verfolgte einerseits die Frage, welche Rolle die Kategorie "Geschlecht" bei verschiedenen Epochenentwürfen der Antike spielt, und richtete den Blick andererseits darauf, was die Referenz auf die Antike bei der Konstruktion von Geschlechterverhältnissen in nachantiken Gesellschaften leistet.
The article engages in a close reading of Goethe's sonnet "Mächtiges Überraschen", published in the sonnet cycle of 1807. In it the poetic voice evokes a mountain river whose course is suddenly interrupted by the limiting force of a dam. Paradoxically, however, the effect of this is not stagnation, but the emergence and celebration of a "new life". This paradox will be illuminated by a discussion of Goethe's "Morphologie" as a universal scientific method. Morphology studies the infinite variety of (natural) forms while also insisting on their individual limitation. Goethe's understanding of life lingers on the co-presence of "coined form" and "living development" as he formulates it in "Urworte. Orphisch". "Mächtiges Überraschen" is read as a poem that embodies this fundamental polarity. The sonnet refers time and again to the borders and limitations of both the natural image it evokes and its own poetic properties. Simultaneously, it suggests the transgression of these limitations on both a formal (or structural) and a metaphorical level. As a poetological sonnet, "Mächtiges Überraschen" unifies the representation (of a natural event) with a reflection on representation as such. The announcement of a "new life" in the last stanza of the poem is thus read as an announcement of its own coming-into-being.
Die Grenzen und Möglichkeiten der Philologie im Holocaust-Diskurs : das Beispiel Theresienstadt
(2011)
Philology seems to have come to a crossroads. One path leads back to the save haven of established core strengths and competences, the other path promises new perspectives through further expansion into the vastness of cultural studies. If philology is to continue as a discipline relevant to society as a whole, retreat into pure philology — concentrating only on the text itself, adhering to national boundaries — is no viable option. Instead, by opening itself up for the questions and methods of truly interdisciplinary inquiry, philology can emerge in new shape, powerful enough to adequately address issues of interdisciplinary, intercultural and intergenerational importance. This essay will argue for such an extension of philology into cultural studies through an examination of texts, songs and plays written in and about the Terezín ghetto. The songs of Leo Strauß and Manfred Greiffenhagen, the ghetto opera "Der Kaiser von Atlantis" (The Emperor of Atlantis), as well as Roy Kift's play "Camp Comedy" and Frido Mann's parable "Terezín" will exemplify the potential of philology’s conjunction with history, sociology and cultural studies.
The essay raises the question of what it actually means to work with concepts of intermediality in literary studies. It uses as an example a Ph.D project which compares story-telling in literary texts and videographed testimonies by Shoah survivors. It soon becomes clear that that a strictly "intermedial" approach does not fully serve the purpose. Instead, one should try to maintain a literary studies perspective even on other forms of media. To illustrate this, the essay presents an analysis of videographed testimonies using categories taken from literary narratology. It thereby shows the problems as well as the merits of such an approach, at the limits of the discipline.
In response to the question "What is the nature of a philological practice that seeks to establish a spatial relationship between text and reader?" this essay compares the philologist Hans Ulrich Gumbrecht's contemporary account of aesthetic experience with the school of Empathy Aesthetics in the late nineteenth century with respect to the manner each emphasizes the spatial qualities of that relationship. Although employing different conceptual repertoires, both assert that the desire of an aesthetic recipient to be in the spatial vicinity of the object and experience the presence of the object with and upon his own body motivates an aesthetic experience, including the work of the philologist. Gumbrecht and the empathy aesthetician Robert Vischer characterize the desire to stand in a spatial relationship to the aesthetic object as the desire to be subsumed thereby, a characterization which entails the negation of the original philological standpoint.
Innovation oder Wiederkehr? : Das Methodenspektrum im Kurzzeitgedächtnis der Literaturwissenschaft
(2011)
In recent years, a pronounced methodological self-reflexiveness has been established as a standard in studying language and literature. Methodological pluralism and a specific methodological adaptation to the objects of study are a characteristic feature of present-day literary and cultural studies. In keeping with this tendency, introductory textbooks on literary studies often provide an overview of the broad discussion and spectrum of methods and their seemingly boundless possible applications and the options for combining them. But this is not the first time that the boundaries of our discipline have undergone dissolution. Beginning with early examples of accounts of methodological variety and methodological reflection (Oscar Benda, Harry Maync, Emil Ermatinger, Julius Petersen), the present article discusses the ways in which an awareness of a surprisingly long tradition of discussions concerning methodological competence affects the present self-conception and identity of philology.
Is there something like a 'scientific' approach to the reading or interpretation of literary texts as is suggested by the German term 'Literaturwissenschaft'? This essay argues that genuinely scientific criteria such as the intersubjective verifiability of a given reading do not apply to the reading of literary texts. The reason is that such texts enable a quasi infinite range of different readings the preconceptions of which are contingent upon the individual readers, their previous experiences, literary as well as non-literary, and their expectations. — What, then, are the tasks of a scholarly reading of literary texts? Firstly, the theoretical reflection upon the status of such texts in comparison to pragmatic texts; secondly, the attempt at reconstructing their historical context (in terms of discursive history), and thirdly, a reading with regard to present-day problems. The 'quality' of a scholarly reading of a literary text would thus be dependent not on its 'objectivity', but rather on its capacity to produce resonances amongst other present-day readers, scholarly and non-scholarly.
In works of Maghrebi authors like Tahar Ben Jelloun (Morocco), the body is the central medium that generates and constitutes the narration. The authors stand in the tradition of oral folk literature, which increasingly has been displaced by French written literature. Hence there is a tendency in postcolonial Maghrebi texts to reintegrate the performative act of narrating via the body into the literary structures of the novels. This becomes manifest in poly-phonic and poly-perspectival narrative experiments in which, with recourse to the halqa (the typical oral narrative situation), a re-territorialization (Deleuze/Guattari) of the body is performed.
In this context the body in literature plays a central role on the level of the metadiegesis: it is presented as the medium of narration. Using as an example Tahar Ben Jellouns novel L’enfant de sable (1985), the aim of this essay is to show how halqa elements and narrative influences from The Arabian Nights structure the text, which becomes a hybrid between medium and embodiment (Fischer-Lichte) by simulating eventfulness.
On the level of the diegesis, the body plays likewise a decisive role as subject of the storyline, becoming the most important medium for the expression of emotions, thoughts or attitudes. Body language is deliberately utilized by the authors to discuss ways of dealing with traditions, the negotiation of social relations and the (de-)construction of identity. Social order, power structures, hierarchies, existing values and norms are communicated and constituted via body language.
Based on the metaphor of “liminality” in literary studies, this paper examines two different approaches to the literary genre of travelogues, using the example of Adelbert von Chamisso‟s Voyage Around the World (1836). One approach, with the help of autobiographical research, sheds light on the author-specific key motifs of “omnipotent time” and the process of aging. In the second approach, the focus shifts to the relationship between literature and natural science, i.e. to Chamisso‟s transitional position in the context of the historicization and dynamization of the sciences and humanities in the 19th century. Rather than thinking of “philology” and “cultural studies” as opposing methods, this article thus suggests a more in-tercessory position for the purpose of a fruitful study of travel literature.